Waren die 80-er Jahre der Computergeschichte gekennzeichnet vom personal computing, so werden die 90-er Jahre als die Dekade des inter-personal computing in die Geschichte eingehen. Die raschen Veränderungen der Kommunikationsinfrastrukturen in den westlichen Industrieländern führte im März 1995 zu einem Weltwirtschaftsgipfel der G7-Staaten zur Informationsgesellschaft.
Die fortschreitende Digitalisierung der Telefon- Radio-/Fernseh- und Datenübertragungsnetzwerke bringt diese bislang differenzierten Dienste immer mehr zusammen. Zukünftige Kommunikationsschnittstellen werden dieses Verschmelzen verschiedener Technologien ergonomisch umsetzen. Bereits heute sind Computer erhältlich, die mit Telefon-, Datenübertragungs-, Sound- und Video- und Fernsehfunktionalität ausgestattet sind. Die Geräte der Zukunft werden vermutlich wesentlich kleiner gestaltet sein, ähnlich dem Trend wie man es bei den Handy-Funktelefonen bemerken konnte. Ihre Vorläufer sind die heutigen PDAs (Personal Digital Assistant).
Von der US-Regierung unter Präsident Clinton geprägt und in das Regierungsprogramm aufgenommen wurde der Begriff des Information Superhighways. Seine Gestaltung ist ein Ziel der jetzigen US-Regierung. Das politisch flankierte Schlagwort des Information Superhighways widerspiegelt das Potential, welches sich hinter den neuen Medien verbirgt und ist zugleich eine Vision für zukünftige Märkte ganzer Industriezweige. Zu den gegenwärtig vieldiskutierten Anwendungen, die sich hinter dem Begriff des Information Superhighways verbergen zählen unter anderem:
Wahrscheinlich läßt sich heute noch nicht voraussehen, welche neuen Anwendungen im Zusammenhang mit den neuen digitalen Kommunikationstechnologien evolvieren werden. Zumindest aber läßt sich ein enormer Investitionsanstieg im Bereich der Telekommunikation vorhersagen, der die Gesellschaften der westlichen Industriestaaten nachhaltig verändern wird. Schon lieber heute als morgen würden in Deutschland beispielsweise viele Firmen einen Wegfall des noch bestehenden Telekom Monopols begrüßen. In Japan, den USA und auch in Europa laufen etliche Pilot-Projekte zu den oben aufgeführten Punkten. Dies deutet gleichzeitig an, daß die "Bauarbeiten" für den Information Superhighway noch keineswegs abgeschlossen sind. Als dessen Vorläufer kann aber durchaus das heutige Internet betrachtet werden. Als globales digitales Netzwerk dient es mit Hypermedia-Anwendungen wie dem World-Wide Web als Basis für ein Zukunfts-Szenario, indem virtuelle Welten unseren Alltag ergänzen werden. Wer diese technologische Revolution besser verfolgen möchte, der sollte sich schon heute mit dem Internet auseinandersetzen.
Die vorliegende Arbeit soll es dem Leser daher ermöglichen, innerhalb einer knappen halben Stunde zu erfahren, was das Internet ist, wie es - in groben Zügen erklärt - entstand, wer es benutzt und welche Dienste es bietet.
Folgerichtig wird zunächst auf die Geschichte dieses
inzwischen ca. 28 Millionen geschätzte Benutzer umfassenden,
internationalen Netzwerkes eingegangen. Bevor dann eine Auswahl der
verschiedenen Dienste des Internet erläutert werden, soll
zunächst der Begriff "Internet" definiert werden. Dies ist
notwendig, um den recht abstrakten Begriff "Internet" plastischer
darstellen zu können.
Das Internet entstand vor ca. 20 Jahren als Nachfolger des ARPA-Netzes. ARPA ist die Abkürzung für Advanced Research Projects Agency und ist der Vorläufer der heutigen DARPA, der Defense Advanced Research Projects Agency, einem militärischem Forschungs- und Geheimdienst der Vereinigten Staaten Amerikas. Somit war das ARPAnet zunächst nur ein Netz zu Forschungszwecken. Eine der damaligen Hauptziele aus militärischer Sicht war es, ein Netzwerk zu schaffen, welches weltweit verteilte Rechner miteinander verbindet und auch dann noch funktioniert, wenn Teile des Netzes ausgefallen sind - zum Beispiel als Folge eines Bombardements durch den Feind/Gegner. Nach dem ARPAnet Modell geschieht Kommunikation immer zwischen einem Quell- und einem Ziel-Computer. Es wird dem Modell nach ferner angenommen, daß das Netzwerk selbst unzuverlässig ist; jeder Teil des Netzes kann in jedem Moment ausfallen. Daher wurde das Design so ausgelegt, daß von den Computern nur die absolut notwendigste Information abgerufen werden muß. Um eine Nachricht über das Netz zu verschicken muß der Computer die Daten lediglich in einen "Umschlag" - einem sogenannten Internet Protocol (IP) Paket - stecken und an den richtigen Ziel-Computer "adressieren".

Für den Kommunikationsaufbau und den Kommunikationsablauf sind die miteinander kommunizierenden Computer und nicht das Netzwerk selbst verantwortlich. Dem Modell liegt die Philosophie zugrunde, daß jeder am Netz angeschlossene Rechner als Anlaufstelle mit jedem anderen Computer kommunizieren kann[1]. Die ersten Rechner wurden damals im Jahre 1969 miteinander vernetzt. Acht Jahre später, 1977, waren im ARPAnet etwa 50 Sites[2] angeschlossen.
Obwohl seit Ende der 60-er Jahre die Entwicklung von neuen Netzwerk-Architekturen und neuen Netzwerk-Standards erheblich fortgeschritten ist, ändert dies nichts an der Tatsache, daß die IP-Netzwerke gerade wegen der längeren Verfügbarkeit heute eine dominante Rolle am Markt spielen. IP-Software wurde schon bald - zumeist an Hochschulen - für jeden erdenklichen Computer-Typ entwickelt und war kostenlos nutzbar. Hierin besteht ein unübersehbarer Vorteil - können auf diese Art und Weise Computer unterschiedlichster Hersteller mit unterschiedlichen Betriebssystemen miteinander kommunizieren. US-Regierung und Universitäten - die anfänglichen Nutzer des IP-Netzes - begrüßten diese Herstellerunabhängigkeit und somit größere Flexibilität beim Hardwareeinkauf sehr.
Etwa eine Dekade später kündigte sich ein neuer Standard zur Vernetzung von Computern an - Ethernet. Er ist Maßgeblich ein Ergebnis der Forschungs- und Entwicklungsaktivitäten des Xerox Palo Alto Research Center's. Die Firmen DEC, Intel und Xerox legten daraufhin im Jahre 1980 als Ergebnis die Spezifikation dem Local Network Standards Commitee des IEEE vor. Diese Spezifikation wurde als "Kommitee 802" (IEEE 802) veröffentlicht und ist in sechs Unterkommitees organisiert[3]. Neben diesem neuen Standard, der sich zur Schaffung und Etablierung von LANs (Local Area Network) eignete, tauchte in der Computer-Szene mit einmal ein neuer Computer-Typ auf - sogenannte Workstations. Sie waren zumeist mit dem Berkeley UNIX Betriebssystem ausgestattet, in welchem das IP-Netzwerkprotokoll enthalten war. Dies schuf ein neues Bedürfnis auf der Seite der Anwender: Man wollte nicht mehr einzig und allein Großrechner à la PDP 11 als Sites einsetzen; sondern ganze lokale Netze sollten den Anschluß an das ARPAnet nach dem Willen der Anwender bekommen. Ein offenkundiger Vorteil - konnte doch so, jeder am lokalen Netz angeschlossene Rechner in den Genuß des ARPAnets kommen. Anders ausgedrückt: jeder könnte mit jedem kommunizieren. Es war daher nur ein logischer Schritt verschiedenster Organisationen, interne Netzwerke dem Kommunikations-Protokoll des ARPA-Netzes und seinen Verwandten anzupassen[4].
Zu einem dieser neueren verwandten Netzwerke gehört das NFSNET, welches von der National Science Foundation (NFS) - einer Behörde der US-Regierung - unterhalten wird. Als die NFS Mitte der 80-er Jahre fünf Super-Computer-Centren errichtete, sollten diese miteinander vernetzt werden, um eine möglichst gute Ausnutzung der Ressourcen dieser Centren zu ermöglichen. Hierbei muß man beachten, das diese Centren zum damaligen Zeitpunkt an die technischen Grenzen im Bereich des Computing heranreichten und daher enorm kostenintensiv waren. Undenkbar, daß einzelne Unternehmen sich eine derartig leistungsfähige Infrastruktur/Installation hätten leisten können - von Privatpersonen oder Hochschulen selbstverständlich ganz zu schweigen[5]. Neben Kostengründen war es auch aus wissenschaftlichen Gründen wünschenswert, Clients den Zugriff auf diese Super-Computer-Centren zu ermöglichen. Was also hätte näher gelegen, als diesem Kommunikationsproblem durch die Benutzung des ARPA-Netzes beizukommen?
Nun zeigte sich sehr bald, daß die Hochschulen nicht ausschließlich vom Zugriff auf die Centren gebrauch machten - auch der Kommunikationsbedarf der einzelnen Hochschulen untereinander wuchs stetig an. In der Folge stieg das Datenaufkommen im NFS-Netz stark an und die Leistungsgrenzen des Netzes wurden sehr schnell erreicht.
Gemäß dem Motto "Nichts geht mehr!" fing man 1987 mit Modernisierungs-maßnahmen an. Schnellere Telefonleitungen und schnellere Computer, die an diese angeschlossen waren, mußten [und müssen bis heute ;-) ] her! Die Probleme sind im Grunde sehr analog zu denen unserer Straßenverkehrsnetze. Allerdings bemerken wir die "Baustellen" in unseren Datennetzen nicht so sehr, wie es bei den Baustellen der Straßennetze der Fall ist. Die Wahrscheinlichkeit einer Sperrung eines bestimmten Autobahnabschnitts oder einer Ausfahrt für längere Zeit ist jedenfalls um einiges größer, als die längere Unereichbarkeit eines Sites.
Der wohl wichtigste Aspekt des NFS-Netzes ist das Aufbrechen der Benutzer-Strukturen. War das ARPAnet einer Oligarchie, bestehend aus Regierungsbeamten, Militär und einigen Wissenschaftlern, vorbehalten, so hat durch das NFS-Netz ein regelrechter Demokratisierungsprozeß begonnen.
Im vorherigen Abschnitt haben wir mittels der Entstehungsgeschichte eine Idee davon bekommen, was sich hinter dem Begriff "Internet" verbirgt. Eine klare Definition sind wir zum Teil aber schuldig geblieben. Der Grund ist recht einfach: es gibt keine eindeutige Definition. Ein Blick in den als Nachschlagewerk so renommierten Duden der Informatik hilft hier auch nicht weiter. Der Begriff wird dort nicht explizit aufgeführt.
Ein Stück weiter kommt man mit dem Verein zur Förderung eines Deutschen Forschungsnetzes e. V. (DFN): "Der Terminus 'Das Internet' steht i. A. für die Menge der nach einheitlicher Architektur und Protokollwelt aufgebauten, weltweit verteilten und zentral administrierten Netze (im engl. als 'internets' bezeichnet, zur Unterscheidung von dem 'Internet' in Kleinschreibung)."[6]6.
Das man heute mit dieser recht präzisen bzw. engen Interpretation des Begriffs Internet nicht unbedingt konform gehen muß zeigt Ed Kroll, indem er sagt:"What compromises the Internet is a difficult question; the answer changes over time. Five years ago the answer would have been easy: 'All the networks, using the IP protocol, that cooperate to form a seamless network for their collective users.' This would include various federal networks, a set of regional networks, campus networks, and some foreign networks."[7]7
Wegen der vielen Vorteile des Internets - wie zum Beispiel seine globale Erstreckung - ist in den letzten Jahren ein scheinbar immer stärker werdender Trend bemerkbar: Eine Reihe "artfremder" Netze (z. B. das DECnet, das Bitnet, Fidonet u. v. m.) fanden die Anbindung an das Internet. Diese technische "Brücke" der auf unterschiedlichen Protokollen aufbauenden artfremden Netze wird als Gateway bezeichnet. Anfänglich dienten diese Gateways lediglich zum Austauch von electronic mail zwischen unterschiedlichen Netzen - die Gateways wurden also nur für relativ geringe Informationsmengen verwendet, um den Benutzern der Fremdnetze die Anbindung an das "schicke" Internet zu ermöglichen. Inzwischen kann man selbst den größten kommerziellen Netzbetreiber CompuServe über das Internet ereichen. Hierzu kommen sogenannte "full service translators" zum Einsatz - eine Art sehr leistungsfähiger Gateways. Wie am Beispiel von CompuServe recht gut ersichtlich wird, ist die Beantwortung der Frage, ob CompuServe nun ein Teil des Internets oder eben "nur" das kommerzielle CompuServe-Netz ist, eine, bei der Emotionen wohl auch eine Rolle spielen.
E-Mail Gateways des Internets (Auswahl)
In einem technischen Zusammenhang von Emotionen zu sprechen, scheint auf den ersten Blick zwar sehr holprig - es ist aber gar nicht so verkehrt. Wieder bemühen wir Ed Kroll:"In many ways the Internet is like a church: it has its council of elders, every member has an opinion about how things should work, and you can either take part or not. It`s your choice."[8]8
In den letzten Jahren wurde das Internet immer stärker auch auf kommerzieller Basis genutzt. Aufgrund der sogenannten "Acceptable Use Policy" des NFS war bisher die Übertragung von kommerziellen Daten über das NFSNET (NFS-Backbone) untersagt. Das NFS-Backbone ist heute allerdings längst nicht mehr identisch mit dem Internet- Backbone. Tatsächlich gibt es derzeit neben dem NFS-Backbone zwei kommerzielle Internet-Netzwerke in Nordamerika: das von Advance Network Services (ANS, Elmsford, N.Y., USA) betriebene ANS-Netzwerk sowie CIX (Commercial Internet Exchange), ein nationaler Zusammenschluß der Netzwerke der größten nordamerikanischen Internet-Betreiber Performance Systems International (PSI), Uunet Technologies und General Atomics. Inzwischen befinden sich knapp die Hälfte aller Internet-Anschlüsse in der Hand privater Unternehmer.
Die Beschränkung des 1991 von NFSNET in NREN (National Research and Education Network) umbenannten Internet-Backbones auf die Übertragung von Daten aus dem Forschungs- und Bildungswesen wird voraussichtlich noch in diesem Jahr - also 1995 - auslaufen. Dies ist gleichbedeutend mit einer Zahlungs-Einstellung von öffentlichen Geldern zum Betrieb des NFS-backbones. Somit wird dann auch auf dem NREN-Backbone die Übertragung kommerzieller Daten möglich sein. Wie sich dies auf das Internet letztendlich auswirken wird, ist noch völlig unklar und derzeit Gegenstand sehr kontroverser Diskussionen.
Im Jahr 1991 wurde das NREN (National Research and Education Network) im Rahmen des High Performance Computing Act (HPCA) des amerikanischen Kongresses als Nachfolger für das NFSNET bestimmt. Der High Performance Computing Act legt Planung und Finanzierung eines Programms zur Förderung der Forschung im Bereich der Hochgeschwindigkeitsnetzwerke fest.1994 wurden dafür mehr als eine Milliarde US-$ ausgegeben. Die Ergebnisse der HPCA-Projekte sollen die Grundlage für die Realisierung einer neuen, nationalen Informationsinfrastruktur (NII = National Information Infrastructure) bilden. Die im September 1993 von Vizepresident Al Gore zur Chefsache erklärte NII-Initiative soll innerhalb der nächsten 15 Jahre Kommunikationsstrukturen schaffen, die jedermann den Zugang zu multimedialer Datenkommunikation ermöglichen sollen. Dafür werden bis zum Jahr 2007 mehr als 500 Milliarden US-$ zur Verfügung gestellt. Dem Internet wird im Rahmen der NII-Initiative eine zentrale Rolle zufallen. Innerhalb der bestehenden Internet-Strukturen ist geplant, die neuen HPCA-Technologien zunächst in Großversuchen zu testen. Darauf aufbauend soll dann in weiteren Schritten die Infrastruktur für einen national verfügbaren multimedialen Informationsdienst ausgebaut werden.
* 1 Vgl. Ed Kroll: The Whole Internet, O'Reilly & Associates, Inc., Sebastopol CA/USA, 1992, S. 11.
* 2 Ein Site ist ein am Netzwerk angeschlossener Rechner. Der Begriff stammt zwar aus dem Amerikanischen, wird von Netzwerk-Administratoren hierzulande - wie auch viele andere Begriffe - unübersetzt übernommen.
* 3 Karlstetter, Albert; Mayr, Peter; Wunsch, Sonja; (Hsg.): Apple Handbuch Datenkommunikation und Netzwerke, Bonn; Paris; Reading, Mass. [u. a.]: Addison-Wesley, 1993, S. 47
* 4 Ed Kroll: The Whole Internet, O'Reilly & Associates, Inc., Sebastopol CA/USA, 1992, S. 12.
* 5 Man bedenke auch, daß selbst der Personal Computer gerade einmal eine Erfindung war, die Anfang der 80-er Jahre von sich reden machte und noch sehr, sehr teuer war.
* 6 Deutsches Forschungsnetz - DFN -: Handbuch zur Installation einer IP-Infrastruktur, 2. Auflage, DFN-Bericht Nr. 70, Mai 1993.
* 7 Ed Kroll: The Whole Internet, O'Reilly & Associates, Inc., Sebastopol CA/USA, 1992, S. 13.
* 8 Ed Kroll: The Whole Internet, O'Reilly & Associates, Inc., Sebastopol CA/USA, 1992, S. 13.