1. Wandel in der Phänomenologie des Computers
Begriffe wie Datenflut und Informationsgesellschaft haben in den
letzten Jahren ein hohes Maß an Popularität gewonnen. Daß aber eine Flut an
Daten in einem Mangel an Information enden kann, stellen inzwischen
besonders Unternehmen fest. Daher versuchen viele Unternehmen durch
Outsourcing, d. h. der Ausgliederung und Delegation von EDV-Aufgaben an
externe Dienstleistungsbetriebe, der Datenflut Herr zu werden.
Das Outsourcing ist als Indiz für eine sich mehr und mehr beschleunigende
Innovationsdynamik zu werten, wobei die letztlich immer mehr anfallenden
Daten ungewollt zu einer niedrigeren Produktivität führen können. Zu diesem
Ergebnis kommt eine Studie[1] von Gary Loveman,
Professor an der Harvard Business School/USA. Er beobachtete zwischen 1978
und 1986 70 Unternehmen in Westeuropa und den USA. Ergebnis der Untersuchung
war, daß die zeitaufwendige Analyse der immer größer werdenden Datenbestände
bei den Angestellten zu einer niedrigeren Produktivität führt. In vielen
Unternehmen würden durch zu viele Untersuchungen Informationen verarbeitet
und präsentiert, die die Unternehmenführung in ihrer Effizienz negativ
beeinträchtigt. Auf die Einbindung der audiovisuellen Medien in den Computer
wird man sich zwar im Management erst noch einstellen müssen; sie führt aber
mit großer Wahrscheinlichkeit zu einer besseren, effizienteren Aufarbeitung
der im Unternehmen anfallenden Daten.
Die 80-er Jahre haben zu einem Wandel in der Phänomenologie des Computers
geführt. Galt er in den 70-er Jahren noch als Spezialisteninstrument, wurde
er in den 80-er Jahren mehr und mehr zum Werkzeug für alle und wird daher in
den 90-er Jahren als neues Medium etabliert sein. Das ständig wachsende
Leistungspotential der Hardware und das sich ständig erweiternde
Einsatzspektrum durch neue Software-Konzepte bringt immer mehr Menschen an
den Computer und verändert somit nachhaltig die Gesellschaft als Ganzes. Der
Computer ist demnach Ursache für eine zweite Revolution der
Wissensverbreitung seit der Erfindung und Industrialisierung des Buchdrucks
- nur das diese neue Revolution viel schneller, quasi im Zeitraffertempo
vonstatten geht. Eine Analogie drängt sich auf: waren Schrifttafeln und die
ersten Bücher lediglich einer Handvoll von Schriftgelehrten vorbehalten, so
war Schrift eher ein Herrschaftsinstrument als ein Instrument zur
Demokratisierung. Erst durch die verbesserten Drucktechniken wurden
Schriften langsam allgemein zugänglich und waren fortan entscheidender Motor
des gesellschaftlichen Fortschritts.
Dieser Prozeß der Wissensverbreitung läßt sich auf die Moderne übertragen.
Stehen heute nicht in den meisten Haushalten bereits Mikrocomputer auf den
Schreibtischen, die die Leistung der Großrechner von vorgestern um ein
vielfaches überbieten? Es besteht wohl kaum ein Zweifel: der
Paradigmenwechsel von der institutionellen Datenverarbeitung hin zum
Individual Computing hat sich längst vollzogen und somit werden auch die
Informations- und Kommunikationsformen des Menschen tiefgreifend verändert.
Neue Technologien - sei es das Telefon, Flugzeug oder Modem - haben stets zu
einer dramatisch veränderten Welt geführt, sofern sie einer großen Anzahl
von Bürgern zugänglich wurden. So wird dann auch der Einsatz von Computern
zu neuen Ausdrucks-, Gestaltungs- und Kommunikationsformen in der
Gesellschaft führen. Dies trifft allerdings nur dann zu, wenn Computer
einfach zu bedienen sind und dem Menschen einen hohen Freiheitsgrad bei der
Gestaltung der ihm verbleibenden Arbeitsprozesse gewähren.
Es kann an dieser Stelle gar nicht ausdrücklich genug darauf hingewiesen
werden, daß die Akzeptanz des Computers maßgeblich vom Design der Software
abhängt. Sie entscheidet letztlich über Intuition, Universalität und
Flexibilität des Systems und darüber, welche Aufgaben vom Computer
übernommen werden oder nicht. Da der Mensch mit einer Maschine in
Interaktion tritt, fällt der Ausgestaltung des Human-Interfaces eine
entscheidende Rolle zu. Durch die Software-Konzeption werden somit die
Rahmenbedingungen und Gestaltungsspielräume der Arbeitsabläufe,
Arbeitsinhalte, Kommunikationsformen, Organisationsstrukturen, Handlungs-
und Entscheidungsspielräume festgelegt.
Es ist so betrachtet sicher kein Zufall, daß sich Systeme mit grafischer
Benutzeroberfläche als die den Menschen weniger belastenden, gegenüber
command-orientierten Systemen (MS-DOS) durchgesetzt haben - der Erfolg des
Apple Macintosh belegt dies[2]. Gutes Software
Design darf sich allerdings nicht in der Gestaltung einer Benutzeroberfläche
(Graphical-User-Interface, kurz: G-U-I) erschöpfen, sondern muß sich auf die
oben bereits erwähnten Punkte ausdehnen. Ein gutes Betriebssystem sollte
sich dem Benutzer transparent machen, so daß dieser in der Lage ist eine
Struktur hinter der Benutzeroberfläche zu erkennen. Neben der
Systemtransparenz zeichnet sich ein ergonomisches Human-Interface vor allem
durch Systemkonsistenz aus, d. h. über verschiedenste Anwendungen
(Programme) hinweg müssen homogene Interaktionsformen und Bedienungselemente
es dem User ermöglichen, sich über seine Handlungsspielräume und den Status
des Systems zu informieren. Werden die Ergonomie-Grundsätze -
Systemtransparenz & Systemkonsistenz - bei der Konzeption eines Systems
verletzt, läßt sich dieser Fehler im Nachhinein auch nicht durch ein
Graphical-User-Interface (G-U-I), welches dem System aufgesetzt wird,
beseitigen. Das bekannteste Beispiel ist hier MS-Windows[3].
Spätestens auf der Applikationsebene sieht sich der User mit einem Wust von
Dateien à la .txt, .bat etc. konfrontiert und fällt im schlimmsten Falle
sogar in die command-Ebene des Systems zurück (Systemtransparenz). Ganz zu
schweigen davon, daß so ziemlich jedes Programm unter MS-Windows seine
eigenen Befehle und Datei-Formate (Daten-Kompatibilität!) hat, die in einer
anderen Applikation nicht zu finden sind. Der idealisierte Spruch der
Macintosh-Enthusiasten "kennst Du eines, kennst Du alle" trifft bei
Programmen unter MS-Windows 3.1. sicherlich nicht mehr zu.
Worin liegt nun der eigentliche Vorteil in einem Graphical-User-Interface?
Besinnen wir uns darauf, daß die meisten grafischen Benutzeroberflächen
einen Schreibtisch simulieren, auf dem sich Ordner, Papierkorb und andere
"handhabbare" Objekte befinden. Der Benutzer kann durch direktes Zeigen und
Bewegen der simulierten Objekte den Computer steuern und erhält dabei auch
immer ein visuelles Feedback von dem, was er gerade macht bzw. was das
System gerade macht. Intuitiv wird die Bedienung dadurch, daß die
simulierten Objekte der vertrauten Erfahrungswelt des Users entstammen. Es
handelt sich bei den simulierten Objekten demnach um Werkzeuge zur
Bewältigung eines Problems.
Man nennt diese Form der grafischen Benutzeroberfläche daher auch einen
werkzeug-/objektorientierten Ansatz. Die Interaktion findet hier durch die
direkte Manipulation statt und nicht durch einen Kommando-Dialog mit dem
System. (Genau genommen bedienen sich Systeme der direkten Manipulation zum
Teil auch der Dialog-Form, so z. B. in Datenbanken, durch Auswahl/Eingabe
eines Schlüsselattributes/Suchbegriffs. So betrachtet sind diese Systeme
immer eine Mischung aus beiden Ansätzen.)
Die sogenannte Desktop-Metapher ist inzwischen auf nahezu allen Systemen
etabliert und längst nichts Neues. Daß die bildliche Darstellung von
Problemen oft eine produktivere Auseinandersetzung mit letzteren ermöglicht,
akzeptieren inzwischen auch die einstigen Kritiker des G-U-I, für die das
G-U-I einst eine Portierung der Video Games ins Office bedeutete[4].
Heute - durch leistungsfähigere Hardware erst möglich geworden - geht die
Entwicklung des PCs wieder einen gehörigen Schritt weiter. Man will sich
nicht mehr auf den Einsatz der Medien Text und Grafik beschränken. Im
Zeitalter der Informationsgesellschaft geht es darum, die im Alltag für den
Menschen schon längst zum Selbstverständnis gewordenen Medien Ton und
Bewegtbild in den PC zu integrieren. Wenn hier von Integration die Rede ist,
so bedeutet dies nicht etwa einen PC lediglich Tonfolgen und Video-Sequenzen
abspielen lassen zu können. Vielmehr müssen Ton- und Bewegtbildsequenzen vom
PC genauso effektiv zu handhaben sein, wie heute schon Text- und
Grafikdaten. Bild- und Tonfolgen müssen sich genauso selbstverständlich
erstellen, speichern, bearbeiten, übertragen und ausgeben lassen, wie wir es
von Text- oder Grafikdaten in Text- oder Grafik-Programmen her kennen. Nur
in diesem Falle, wenn wir also mit zeitbasierten Daten als neuem Datentyp
genau so umgehen können wie bisher schon mit Text- oder Grafikdaten, kann
man wirklich von einem Multimedia-PC bzw. der Medienintegration sprechen.
Leider wird der Begriff Multimedia oft nicht aus diesem Denkansatz her
gebraucht, weshalb sich auf dem Markt folgerichtig auch Produkte finden
lassen, die sich Multimedia PC nennen, nur weil sie links und recht am
Gehäuse einen Lautsprecher hängen haben.
Nachdem wir nun zunächst den Pfad zum multimedialen PC etwas erleuchtet
haben, wollen wir uns im nun Folgenden den Anwendungsbereichen von
Multimedia widmen, die heute bereits mit einem PC wie dem Apple Macintosh[5]
realisierbar sind.
![[Back to Outline]](../images/Back.gif)
![[Next Section]](../images/Next.gif)
© by Attila S. Suiçmez: Attila's Virtual Home, Skript