1. Wandel in der Phänomenologie des Computers


Begriffe wie Datenflut und Informationsgesellschaft haben in den letzten Jahren ein hohes Maß an Popularität gewonnen. Daß aber eine Flut an Daten in einem Mangel an Information enden kann, stellen inzwischen besonders Unternehmen fest. Daher versuchen viele Unternehmen durch Outsourcing, d. h. der Ausgliederung und Delegation von EDV-Aufgaben an externe Dienstleistungsbetriebe, der Datenflut Herr zu werden.

Das Outsourcing ist als Indiz für eine sich mehr und mehr beschleunigende Innovationsdynamik zu werten, wobei die letztlich immer mehr anfallenden Daten ungewollt zu einer niedrigeren Produktivität führen können. Zu diesem Ergebnis kommt eine Studie[1] von Gary Loveman, Professor an der Harvard Business School/USA. Er beobachtete zwischen 1978 und 1986 70 Unternehmen in Westeuropa und den USA. Ergebnis der Untersuchung war, daß die zeitaufwendige Analyse der immer größer werdenden Datenbestände bei den Angestellten zu einer niedrigeren Produktivität führt. In vielen Unternehmen würden durch zu viele Untersuchungen Informationen verarbeitet und präsentiert, die die Unternehmenführung in ihrer Effizienz negativ beeinträchtigt. Auf die Einbindung der audiovisuellen Medien in den Computer wird man sich zwar im Management erst noch einstellen müssen; sie führt aber mit großer Wahrscheinlichkeit zu einer besseren, effizienteren Aufarbeitung der im Unternehmen anfallenden Daten.

Die 80-er Jahre haben zu einem Wandel in der Phänomenologie des Computers geführt. Galt er in den 70-er Jahren noch als Spezialisteninstrument, wurde er in den 80-er Jahren mehr und mehr zum Werkzeug für alle und wird daher in den 90-er Jahren als neues Medium etabliert sein. Das ständig wachsende Leistungspotential der Hardware und das sich ständig erweiternde Einsatzspektrum durch neue Software-Konzepte bringt immer mehr Menschen an den Computer und verändert somit nachhaltig die Gesellschaft als Ganzes. Der Computer ist demnach Ursache für eine zweite Revolution der Wissensverbreitung seit der Erfindung und Industrialisierung des Buchdrucks - nur das diese neue Revolution viel schneller, quasi im Zeitraffertempo vonstatten geht. Eine Analogie drängt sich auf: waren Schrifttafeln und die ersten Bücher lediglich einer Handvoll von Schriftgelehrten vorbehalten, so war Schrift eher ein Herrschaftsinstrument als ein Instrument zur Demokratisierung. Erst durch die verbesserten Drucktechniken wurden Schriften langsam allgemein zugänglich und waren fortan entscheidender Motor des gesellschaftlichen Fortschritts.

Dieser Prozeß der Wissensverbreitung läßt sich auf die Moderne übertragen. Stehen heute nicht in den meisten Haushalten bereits Mikrocomputer auf den Schreibtischen, die die Leistung der Großrechner von vorgestern um ein vielfaches überbieten? Es besteht wohl kaum ein Zweifel: der Paradigmenwechsel von der institutionellen Datenverarbeitung hin zum Individual Computing hat sich längst vollzogen und somit werden auch die Informations- und Kommunikationsformen des Menschen tiefgreifend verändert. Neue Technologien - sei es das Telefon, Flugzeug oder Modem - haben stets zu einer dramatisch veränderten Welt geführt, sofern sie einer großen Anzahl von Bürgern zugänglich wurden. So wird dann auch der Einsatz von Computern zu neuen Ausdrucks-, Gestaltungs- und Kommunikationsformen in der Gesellschaft führen. Dies trifft allerdings nur dann zu, wenn Computer einfach zu bedienen sind und dem Menschen einen hohen Freiheitsgrad bei der Gestaltung der ihm verbleibenden Arbeitsprozesse gewähren.

Es kann an dieser Stelle gar nicht ausdrücklich genug darauf hingewiesen werden, daß die Akzeptanz des Computers maßgeblich vom Design der Software abhängt. Sie entscheidet letztlich über Intuition, Universalität und Flexibilität des Systems und darüber, welche Aufgaben vom Computer übernommen werden oder nicht. Da der Mensch mit einer Maschine in Interaktion tritt, fällt der Ausgestaltung des Human-Interfaces eine entscheidende Rolle zu. Durch die Software-Konzeption werden somit die Rahmenbedingungen und Gestaltungsspielräume der Arbeitsabläufe, Arbeitsinhalte, Kommunikationsformen, Organisationsstrukturen, Handlungs- und Entscheidungsspielräume festgelegt.

Es ist so betrachtet sicher kein Zufall, daß sich Systeme mit grafischer Benutzeroberfläche als die den Menschen weniger belastenden, gegenüber command-orientierten Systemen (MS-DOS) durchgesetzt haben - der Erfolg des Apple Macintosh belegt dies[2]. Gutes Software Design darf sich allerdings nicht in der Gestaltung einer Benutzeroberfläche (Graphical-User-Interface, kurz: G-U-I) erschöpfen, sondern muß sich auf die oben bereits erwähnten Punkte ausdehnen. Ein gutes Betriebssystem sollte sich dem Benutzer transparent machen, so daß dieser in der Lage ist eine Struktur hinter der Benutzeroberfläche zu erkennen. Neben der Systemtransparenz zeichnet sich ein ergonomisches Human-Interface vor allem durch Systemkonsistenz aus, d. h. über verschiedenste Anwendungen (Programme) hinweg müssen homogene Interaktionsformen und Bedienungselemente es dem User ermöglichen, sich über seine Handlungsspielräume und den Status des Systems zu informieren. Werden die Ergonomie-Grundsätze - Systemtransparenz & Systemkonsistenz - bei der Konzeption eines Systems verletzt, läßt sich dieser Fehler im Nachhinein auch nicht durch ein Graphical-User-Interface (G-U-I), welches dem System aufgesetzt wird, beseitigen. Das bekannteste Beispiel ist hier MS-Windows[3]. Spätestens auf der Applikationsebene sieht sich der User mit einem Wust von Dateien à la .txt, .bat etc. konfrontiert und fällt im schlimmsten Falle sogar in die command-Ebene des Systems zurück (Systemtransparenz). Ganz zu schweigen davon, daß so ziemlich jedes Programm unter MS-Windows seine eigenen Befehle und Datei-Formate (Daten-Kompatibilität!) hat, die in einer anderen Applikation nicht zu finden sind. Der idealisierte Spruch der Macintosh-Enthusiasten "kennst Du eines, kennst Du alle" trifft bei Programmen unter MS-Windows 3.1. sicherlich nicht mehr zu.

Worin liegt nun der eigentliche Vorteil in einem Graphical-User-Interface? Besinnen wir uns darauf, daß die meisten grafischen Benutzeroberflächen einen Schreibtisch simulieren, auf dem sich Ordner, Papierkorb und andere "handhabbare" Objekte befinden. Der Benutzer kann durch direktes Zeigen und Bewegen der simulierten Objekte den Computer steuern und erhält dabei auch immer ein visuelles Feedback von dem, was er gerade macht bzw. was das System gerade macht. Intuitiv wird die Bedienung dadurch, daß die simulierten Objekte der vertrauten Erfahrungswelt des Users entstammen. Es handelt sich bei den simulierten Objekten demnach um Werkzeuge zur Bewältigung eines Problems.

Man nennt diese Form der grafischen Benutzeroberfläche daher auch einen werkzeug-/objektorientierten Ansatz. Die Interaktion findet hier durch die direkte Manipulation statt und nicht durch einen Kommando-Dialog mit dem System. (Genau genommen bedienen sich Systeme der direkten Manipulation zum Teil auch der Dialog-Form, so z. B. in Datenbanken, durch Auswahl/Eingabe eines Schlüsselattributes/Suchbegriffs. So betrachtet sind diese Systeme immer eine Mischung aus beiden Ansätzen.)

Die sogenannte Desktop-Metapher ist inzwischen auf nahezu allen Systemen etabliert und längst nichts Neues. Daß die bildliche Darstellung von Problemen oft eine produktivere Auseinandersetzung mit letzteren ermöglicht, akzeptieren inzwischen auch die einstigen Kritiker des G-U-I, für die das G-U-I einst eine Portierung der Video Games ins Office bedeutete[4].

Heute - durch leistungsfähigere Hardware erst möglich geworden - geht die Entwicklung des PCs wieder einen gehörigen Schritt weiter. Man will sich nicht mehr auf den Einsatz der Medien Text und Grafik beschränken. Im Zeitalter der Informationsgesellschaft geht es darum, die im Alltag für den Menschen schon längst zum Selbstverständnis gewordenen Medien Ton und Bewegtbild in den PC zu integrieren. Wenn hier von Integration die Rede ist, so bedeutet dies nicht etwa einen PC lediglich Tonfolgen und Video-Sequenzen abspielen lassen zu können. Vielmehr müssen Ton- und Bewegtbildsequenzen vom PC genauso effektiv zu handhaben sein, wie heute schon Text- und Grafikdaten. Bild- und Tonfolgen müssen sich genauso selbstverständlich erstellen, speichern, bearbeiten, übertragen und ausgeben lassen, wie wir es von Text- oder Grafikdaten in Text- oder Grafik-Programmen her kennen. Nur in diesem Falle, wenn wir also mit zeitbasierten Daten als neuem Datentyp genau so umgehen können wie bisher schon mit Text- oder Grafikdaten, kann man wirklich von einem Multimedia-PC bzw. der Medienintegration sprechen. Leider wird der Begriff Multimedia oft nicht aus diesem Denkansatz her gebraucht, weshalb sich auf dem Markt folgerichtig auch Produkte finden lassen, die sich Multimedia PC nennen, nur weil sie links und recht am Gehäuse einen Lautsprecher hängen haben.

Nachdem wir nun zunächst den Pfad zum multimedialen PC etwas erleuchtet haben, wollen wir uns im nun Folgenden den Anwendungsbereichen von Multimedia widmen, die heute bereits mit einem PC wie dem Apple Macintosh[5] realisierbar sind.

[Back to Outline][Next Section][Back to Outline]


© by Attila S. Suiçmez: Attila's Virtual Home, Skript