Peter C. Krell on 31 Jul 2001 14:46:59 -0000 |
[Date Prev] [Date Next] [Thread Prev] [Thread Next] [Date Index] [Thread Index]
[rohrpost] the media augmented revolution... |
Anbei ein Text zur AR Revolution und dazu, dass die dotcoms nichts mit revolution im sinne von 68 zu tun hatten, wenn 68 ueberhaubt noch was zaehlt... -- Victor Hugo "An invasion of armies can be resisted, but not an idea whose time has come." 1968, im Zuge der allgemeinen Studentenunruhen, wurde die Laufstrecke für einen langen Marsch durch die Institutionen ideologisch vorplaniert. Die Skripte, die Quellcodes, die Schriften alter Denker wie Weber und Marx, Gesetzestexte und andere Monumente der Obrigkeit wurden von jugendlichen Rebellen dieser Runtime ensprechend angegriffen, hinterfragt, diskutiert, revidiert und zerrissen. Neu hervorgekramt, revidiert, diskutiert und erneut verworfen usw. usw. Die schwammigen Vorzüge einer Spasskultur mußten damals noch gegen allgemeine "Rationalisierungsbestrebungen" und "Modernisierungszwang" der stattstragenden Autoritäten in Etappen erkämpft werden. Gewinner wie Verlier gab es auf beiden Seiten. Die Aktivisten der damaligen Starßenkämpfe aber, jener Subroutinen im großen System, führten zwar keinen generellen Umsturtz des Systems herbei, brachten aber selbst nach Meinung von Generationskonfliktlern wie Joseph Joffe tiefgreifende Veränderungen mit sich. Die Sprache der damaligen Zeit wirkt heute antiquiert, wie sich viele der damaligen Ideale als Fiktionen entpuppt haben. "Fiktionen überleben sich, wenn sie ihre Funktion erfüllt haben." Im Wahrnehmungsfiltersystem von 68 sah die Welt noch anders aus. Dennoch fällt dieser epochale Einschnitt im Denken der europäischen Intelligenz mit dem der Grundsteinlegung einer neuen internationalen Kultur zusammen. Denn im selben Jahr wurde die Firma Intel von Gordon Moore und Robert Noyce gegründet, die ganze drei Jahre später schon den ersten Mikroprozessor auf den Markt brachte. Ebenfalls 1968, begannen die Systementwickler Dennis Ritchie und Ken Thompson mit der Entwicklung von UNIX. Derridas Grammatologie war gerade erst erschienen und ein Ingenieur vom Stanford Research Institute zelebrierte mit der Demonstration des ersten funktionierenden Videokonferenzsystem der Welt in San Francisco einen Höhepunkt in seiner Karriere. Am 1.Dezember vergangenen Jahres wurde Engelbart, der unter anderem auch als Erfinder der Computermaus (1965) gilt, für seine Forschungs- und Entwicklungsarbeiten im Weissen Haus die Medal of Technology verliehen. Den Grundstein für eine neue Computerphilosophie hatte dieser ehemalige Navy Offizier in einer Studie mit dem Titel "A conceptual Framework for the Augmentation of Man´s Intellect" bereits 1962 gelegt, nach dem er sich schon frühzeitig mit Formen der Effizienzsteigerung zwischenmenschlicher Kommunikation befasst hatte. Für Engelbart stellte eine Man-Computer-Sybiosis damit keinen Bruch mit ethischen Moralvorstellung dar. Er versprach sich vielmehr davon im Vermittlungsmedium computergenerierter Formalssysteme, den Dialog zwischen Menschen unterschiedlicher Kulturen überhaupt erst möglich zu machen. Da diese Entwicklungtätigkeiten aber kein ausdrückliches militärisches Ziel mehr als solches verfolgten, wurden ihm am SRI zunehmend die Forschungsgelder gekürzt. In einer Liste der "augmentation means" stellte er die wichtigsten Aspekte, vor, die es bei der abstrakten Durchdringung komplexer Problemstellungen seiner Konzeption zu beachten gab: "Artefakt, Sprache, Methode und Training." Engelbart glaubte, um es kurz zu machen, an die kontinuierliche Neuentwicklung von Zeichen und Symbolen oder Artefakten, die es bisher im Sprachrepertoire einer Kultur nicht gab, die aber dennoch wie im Fall von "@" eine komprimierte Bedeutung wiederzugeben in der Lage seien und soetwas wie die Konstitution einer neuen Hochsprache ermöglichen könnten. Dazu brauchen die Icons keine Bedeutung an sich zu haben. Sie kennzeichnten vielmehr eine Verweisstruktur und machten nur im Systemganzen als solches einen Sinn, etwa im Sinne einer Platzzuweisung. Engelbart beschränkte sich dabei auf grafische Icons und vernachlässigte vorerst die Ton-Ebene. Er glaubte, daß sich mit dem Advent der neuen computergenerierten Symbole und den in ihnen codifiziert vorliegenden funktionalen Handlungsschemata beim Behandeln von Tasks, "eine substantielle Veränderung bzw. Erweiterung dieser Kultur." ergeben würde. S.118 (Dissertation von Andreas Reifenrath) Egal, ob dies der Fall gewesen sein mag oder nicht, wenn man Eneglbarts Text mit Derrida zusammenließt, dann ergeben sich einen eine Reihe von Clues, wie man die "différance" in der Computerwelt auch verstehen kann. Zur praktischen Umsetzung seiner eigenen Ideen mußte man sich nur noch einen leistungsfähigen Rechner besorgen, auf dem Unix lief und wissen wie man einen Bitmap-Bildschirm über seine Hardware anspricht. Ganz so einfach war dies natürlich nicht. Ein junger Schüler Engelbarts namens Alan Kay, der in Colorado Biologie und Mathematik studiert hatte, trieb es 1972 zu Xerox nach Paolo Alto, wo sich der Hersteller von Kopiermaschienen 1969 dazu entschlossen hatte; "the architect of informations" zu werden. Kay wird heute als der Hauptentwickler des Graphical User Interfaces, kurz GUI verehrt. Bei seiner Entwicklungsarbeit an einem neuen Benutzer Interfaces griff Kay auf die Konzepte der bereits verwirklichten Software und Hardware-Systeme von Ivan Sutherlands und Douglas Engelbarts zurück. Dabei optimierte er die Systeme wesentlich. Sein entscheidender Beitrag bestand darin, dass er die einzelnen Fenster des GUI sich überlappen ließ und mit der dadurch geschaffenen Quasi-3D-Darstellung der Daten, dafür sorgte, daß mehr Daten auf einem Bildschirm gleichzeitig dargestellt werden konnten. David Gelernter, Professor in Yale, vertritt heute die Ansicht, Kays hochgelobtes Konzept sei deswegen so erfolgreich gewesen, da er alles so schlicht und einfach wie möglich gehalten habe. Aber Gelernter berichtet auch, daß man noch 1989 in der DOS Welt Engelbartsche Mäuse verabscheute. Alan Kay beteiligte sich also ungeachtet solcher Vorurteile maßgeblich an der Entwicklung des "Alto", welcher am 1. April 1973 auf den Markt kam und in seiner Grundkonfiguration bereits über ein grafisches Interface, eine Maus, einen hochkant gestellten Bitmap-Raster-Bildschirm und einen Ethernet-Anschluss verfügte. Damit läßt sich im Alto noch heute der Ur-Proto-Typen eines jeden Desktop-Publishing Rechners erkennen (nur mit dem Unterschied, dass der Alto zwar auf einen Schreibtisch, aber sein Unterbau inklusive Lüfter etc. hatte die Ausmaße von einem Kühlschrank annahm, dazu war das Gerät sündhaft teuer!). Xerox konnte insgesamt herzlich wenig mit dem Alto anfangen. Zwar erkannte man das enorme Potential, welches in dieser interaktiven Datenordnungsstruktur und ihren Prozessen steckte, aber man fand sich nicht in der Lage, das nötige Geld und die nötige Mühe aufzubringen, die Idee zum wirkllichen Mainstream-Verkaufsschlager zu machen. Dies überließ man lieber einem jungen, raffinierten Geschäftsmann und Yoga-Esoteriker: namens Steven Jobs, der 1979 zu Xerox kam und den Xerox-Entwicklern die eingestaubte Technologie abschwatzte. Man gewährte ihm und seinem Kollegen Ingenieur Steve Wozniak freien Zugang zum Entwicklungscenter von Xerox. In der Folgezeit machte man sich bei Apple sofort daran, die Arbeit von Kay zu imitieren und auf günstigerer Hardware lauffähig zu machen. Dabei kam es zu zahlreichen Modulationen und Verbesserungen des ursprünglichen Konzepts, wie beispielsweise den Doppelclicks und beweglichen Windows, moving Windows. Resultat dieser einseitigen Apple-Xerox-Kooperation war ein Rechner namens Lisa, dessen Nachfolgemodell der Macintosh war. Beide Rechner verfügten über ein GUI. Für den Macintosh sollte die Firma Apple beim Superbowl von 1984 zur Primetime mit einem von Stanley Kubrick gedrehten Werbespot werben. In dem mittlerweile weltberühmten Spot tritt eine junge Frau auf, die in einem Orwellschen Szenario einen Hammer gegen einen überdimensionierten Bildschirm schleudert, auf dem der Große Bruder gerade eine Ansprache hält, woraufhin der Bildschirm explodiert. Mit diesem Werbe-Coup, von hoher Künstlerhand inszeniert, erhielt der zum verfügbaren Objekt avancierten Macintosh eine Venture Millionen schwere Jugendtaufe und wurde im Post-McCathy-Amerika der achtziger Jahre mit einem Image von solipsistischen Rebellentum beim Publikum geprimt. Dies wurde als sophisticated empfunden. Ein Umstand, der sich auf den Rechnern in seinem Gesamterscheiungsbild übertrug und ihm soetwas wie eine Aura vermittelte. "Die Metapher gibt dem Eigennamen eine Gestalt." heißt in Derridas "Grammatologie" Ende der Sechziger JahreS.162 Im Falle von "Apple", Protagonist in Sachen Desktops, hat dieser Ausspruch im Bezug auf den Firmen-Eigenname, welcher an den ersten bekannten Sündenfall erinnert, eine kontinuierlich morphende Zwillingsgestalt angenommen. Sie manifestiert sich mit regelmäßiger Periodizität im Innovationstakt der Halbleiter- und der Micro-Elektronik-Industrie in Gestalt einer sich kybernetisch optimierenden Hardware. Hinzu tritt ihr eine evolutionär sich entwickelnde Benutzeroberfläche, der man die meisten der internen Neuerungen seit beinahe Zwanzig Jahren kaum mehr ansieht. Erst die jüngste Emergenz dieser marktorientierten Produktionszyklik läßt neue Horizonte erahnen, an denen sich das zukünftige Sein von Apple abspielen wird. Zwar gibt es beim neuen Apple System X noch immer das alte WIMP (Windows, Icons, menues und pointers) Konzept zu bestaunen, -- was aber auch "neu" ist, ist ein brandheiß implementiertes Unix-CLI! Damit scheint sich zumindest aus der Sicht eines Marktverlierers, nämlich Apple, zu bewahrheiten, was Heidegger schon damals vermutet hat:: man kann seine ontischen Wurzeln auf Dauer nicht verleugnen. (Herkunft ist Zukunft) Bei dem englische Ausdruck "Desktop" für ein grafisches User Interface (GUI) handelt es sich um eine Metapher. Es beschreibt äußere Hülle. Kritiker bezeichen dieses weitverbreiteten User Interfaces auch als WIMP-Interface (Windows, Icons, Menues, Pointers). Die angeblich auf Marvin Minsky und Herbert Teager vom MIT zurückgehen Metapher bezeichnete immer eine Vorstellung aber keine Notwendigkeit. Meine These lautet: Die Desktop-Metapher kennzeichnet einen transistorischen Prozess im doppelten Wortsinn. Zum einen zur Visualisierung und Steuerung von systemintegrierter Transitorenleistung auf einem hochintegrierten Silizium-Chip. Und zum anderen zur Kennzeichnung eines kulturellen Prozesses, welcher im Heideggerischen Sinne, im Entwurf als geworfenes enthüllt ist und dadurch seine Vor- und Nachteile in ihrer kybernetischen Optimierbarkeit zum Vorschein bringt. Damit würde gesagt sein, Desktops der Gegenwart seien genauso als eine Art historischen Durchgangsstadium zu betrachten, wie die Entwicklung des Rades nicht bei der Kutsche halt gemacht hat. Während Lacan damals die Ansicht vertrat mit der Metapher beginne die Poesie, ist aus der Desktop-Metapher unlängst zutiefst prosaischer Alltag geworden. Die dominate Begebenheit auf die sie verweist, erschließt sich einem im Detail nicht mehr in schöngeistigen Analogien, sondern nur noch in algorithmischen Strukturhierarchien. Aber wohin geht die Reise? Was kommt nach dem Desktop? Mit dem kontinuierlichen Anwachsen der Beliebtheit von portablen Geräten und Plänen zum Ausbau der Funk-Lan und Ad Hoc Systeme ist zu vermuten, daß elektro-magnetische Sensorik, Retina Displays und Solar- und Bewegungsenergie gespeißte Systeme sinnvollerweise zu anderen funktionalen Metaphern finden werden als dem des Desktops, denn warum sollte man denn schließlich immer seinen Schreibtisch mit sich herumtragen wollen? Zur Konzeption von innovativen Ordnungsmetaphern könnten Gelernters Visionen einige Anregungen geben, die sich ähnlich wie die Vorstellungen von Lanier im Surrealen ansiedeln. Die von ihm an den Tag gelegte diplomatische Microsoft-Freundlichkeit läßt sich dabei wahrscheinlich aus einem starken Bedürfnis heraus erklären, seine Visionen im Massenmarkt zu verwirklichen. Dabei sollte zwischen Lanier und Gelernter in sofern differenziert werden, als daß Gelernter sich mit einem checkkarten großen Rechner frei im Raum bewegen will und Lanier von einem stationären Applikation ausgeht. Zu den Entwicklungen, die neben den Vorhaben der Tele-Immersion und des möglichst freizügigen portabelen Computings ausgehen, sind die wesentlich radikaleren Vorstellungen des Wearable Computings und der systemischen Implantologie zu nennen. Sie alle verweisen auf jenes von Engelbart begründeten konzeptionellen Rahmen der AR. Gerade im Bereich von AR scheinen sich wesentliche Neuerungen abzu zeichnen. Hierbei scheint es eine Subkultur von Entwicklern zu geben, deren Tätigkeit angesich Die Untersuchungen von Rekimoto, Ullmer, Butz und anderen erscheinen mir hierbei die wesentlichen Fragen auf einem pragmatischen Level zu thematiseren und machen die schlummernden Potentiale im imaginären Meta-Datenarchitekturen des Raumes ( wie 1999 angeklungen in Fallstudien von Asymptote, einem New Yorker Architekten Büro) erahnbar. Vernetzt mit crossmedialen Interfaces werden Prinzipien wie Hyperdragging und Meta-Reality-Book-Marking neue konzeptionelle Wege bei der Datenaufbereitung im medienaugmentierten Raum beschritten. Die zahlreichen neuen Konzepte hier auszuführen, erlaubt sich allein schon aus dem mir vorgegbenen zeitlichen Rahmen nicht. Dennoch scheinen sich in Bereichen der AR, wie auch eine von der EU beauftragte Forschergruppe erkannt zu haben glaubt, neue Metapern und Möglichkeiten der Datenrepräsentation herauszukristalisieren. Auch im Bereich von Multi-User-Collaboration-Systemen bei Rob Kling und Susan Star (1998) werden Systeme vorgestellt, die in ihrer Anlage die kognitiven Fähigkeiten des Durchschnittsusers übersteigen. Denn auch hierbei stellen sich der Fragen nach der kognitiven Ergonomie des Menschens mit denen der zumeist technisch bedingten Monomedialität im größeren Zusammenhang bei der Realisierung von multi-channel-Konzeptionen zur zeitlich optimierten Aufbereitung von komplexen Wissen im Breitband. Was darüber hinaus im Bereich der Bio-, Gen- und Nano-Technologien noch möglich sein wird, ist aufgrund der bisher noch technisch ungeklärten Frage nach realisierbaren Schnittstellen utopisch. "Der Quantenrechner wird nicht mehr aussehen wie einer der heutigen Desktop-Rechner, sondern eher wie eine Kaffetasse, die daneben steht. Moleküle in einer Flüssigkeit - wir verwenden Chloroform - werden die bisherigen Rechenoperationen ausführen. Das Prinzip wird alle bisherigen Grenzen sprengen, wenn es einmal im Maßstab des Alltags funktioniert." Wenn auch auf Silizium Basis konzipierte Neuronen-Transistoren erste Aktionspotentiale in Blutegeln auslösen. Vielleicht man sei einem daher in einer abschließenden Rekursion auf derlei nanotechnologischen Spielereien in Forschungslaboren überall in der gegenwärtigen Welt zum Abschluß als Rückbindung an Goethe und seinen Versuch, das den die Metamorphosen des Granit zugrundeliegende Prinzip zu entdecken (was gescheitert ist), noch folgende Anmerkung gestattet. Von Prometheus heißt es bei Kafka, dieser sei mit dem Granitgestein, an welchen man ihn geschmiedet hatte, zu einer Einheit verschmolzen. Nach allgemeinen Vergessen und allgemeiner Ermüdung sei danach von Prometheus schmerzlichen Leiden nur noch eins davon übrig geblieben: die Sage. Kafka schreibt: "Da sie aus einem Wahrheitsgrund kommt, muß sie wieder im Unerklärlichen enden."S.352 (Kafka, Gesammelte Werke) Peter C. Krell ___-__-_______-:-________-__-_______-:-________-__-________-:-______-__-__ commerical avatar clothes @ suct.com ------------------------------------------------------- rohrpost - deutschsprachige Liste fuer Medien- und Netzkultur Archiv: http://www.nettime.org/rohrpost Info: http://www.mikro.org/rohrpost Ent/Subskribieren: http://post.openoffice.de