ulf treger <code@brainlift.de> | version 0.38 | september 2002

 

default=online.

auswirkungen und handlungsoptionen elektronischer kommunikation am beispiel der vision eines „immer-und-überall-netzes“

 

[titel] [inhalt] [referenzen] [credits]


inhalt:
1] einleitung
2] gegenwärtige situation
3] ubiquitous computing“ (eine vision)
4] elektrifizierung
5] technik und impact
6] kritik an „ubiquitous computing“
7] ambivalenz (beispiel steve mann)
8] raum und schnittstellen
      a] interface
      b] raum
9] nachwort

[titel] [inhalt][referenzen] [credits]

 



*screenshot aus „welt am draht“, zwei-teiliges fernsehspiel von r.w.fassbinder. aus der szene, in der fred stiller per display-anzeige aus dem besuch eines simulations-modells zurückgerufen wird.

ergänzendes (bild)material und alle im text angeführten webadressen sind im netz abgelegt, abrufbar unter www.dekoder.de/default_online

[titel] [inhalt] [referenzen] [credits]


 

1] einleitung

     elektronische technologien erfahren eine stetige weiterentwicklung - am sichtbarsten jene, die sich unter dem funktionsbereich „internet“ subsumieren lassen. Computer - als teil von und schnittstelle zu digitalen netzen - werden sich im zuge dieser entwicklung zunehmend unserer wahrnehmung entziehen. Zur zeit noch als mehr oder weniger graue kästen in den wohnungen und arbeitsstätten leicht erkennbar, verändern und erweitern sich form und präsenz der digitalen maschinen derart, daß sie in ihrer umgebung werden. Ähnlich der elektrischen energie, die seit der industrialisierung durch das stromnetz allgegenwärtiger bestandteil des alltags ist, durchdringen informationstechnologien zunehmend alle lebensbereiche.

     Kommunikation und interaktion, basierend auf elektronischen technologien, wird eines tages vorrangig im „virtuellen raum“ stattfinden - so lautete vor nicht all zu langer zeit die vorherrschende vision. Ein digital synthetisierter raum wäre eine andere welt, die man, den eigenen körper hinter sich lassend, durch klar definierte tore betritt. [ 0 ]

     Diese eindeutige abgrenzbarkeit von sogenanntem „realen raum“ und dem „cyberspace“ wird durch eine gegenwärtige entwicklung aufgelöst, mit der sich eine allgegenwärtige anreicherung von wahrnehmung und raum durch elektronische, mobile und vernetzte technologien etabliert. [ 1 ]

     Damit wird nicht nur eine „verstärkung“ menschlicher fähigkeiten durch technische medien (buch/typografie, radio, film/fernsehen, telegrafie/telefonie, computer/netze) fortgeschrieben, re-kombiniert und erweitert, sondern auch die bedeutungen von raum und die wahrnehmungen, von dem was uns „umgibt“ , verändert.

     Diese entwicklung wirft eine reihe von fragen auf: ausgehend von einer wechselwirkung von technologischer und gesellschaftlicher entwicklung, stellen tendenzen hin zu einer allgegenwärtigen und jederzeitigen durchdringung durch vernetzte elektronischer systeme einen elementaren bruch, etwas unmittelbar neues in dem verhältnis von mensch und technik dar? Zu jeder zeit und an jedem ort vernetzt und erreichbar zu sein, welche auswirkungen hat dies auf die wahrnehmung unserer umgebung und die nutzung und interaktion mit elektronischen maschinen?

     Ein möglicher entwicklungsschritt wird in jüngster zeit als das „evernet“ benannt, also das netz, das immer und überall präsent ist. Auch wenn dem label „evernet“ der deutliche beigeschmack eines hypes, des next big thing anhaftet, ist die entwicklung realistisch und greifbar nahe, betrachtet man die dafür relevanten technischen fortschritte der miniaturisierung, der vernetzung und drahtlosen datenübertragung. Begriffe wie die eines „evernets“ scheinen hoffnungen und sehnsüchte auf eine weitere vervollkommnung bisheriger menschlicher entwicklung und die überwindung von monotonie und alltag zu wecken, genauso wie sie ängste und befürchtungen einer weitgehenden verselbständigung technologischer systeme hervorufen. Das label eines „immer-und-überall-netzes“ soll deshalb hier genutzt werden, um symptome zu beschreiben, die für die künftige entwicklung der informations- und kommunikationstechnologien und ihrer gesellschaftlichen implikationen eine rolle spielen werden.

     Sich diesen transformierenden wirkungen bewußt zu machen, ist motivation für diese arbeit. Sie beruht auf der basalen einschätzung, daß eine auseinandersetzung mit dem phänomen einer zunehmenden elektronischen präsenz und deren gesellschaftlichen verstrickungen für die entwicklung von emanzipativen handlungsansätzen entscheidend ist. [ 2 ]

[kapitelanfang] [titel] [inhalt] [referenzen]

 


 

2] gegenwärtige situation (aus technischer sicht)

     Allgemeiner konsens der verschiedenen technologischen diskurse ist, daß sich die elektronischen informationstechnologien in einer noch frühen entwicklungsphase befinden und an der schwelle zu neuen und umwälzenden entwicklungen stehen, auch wenn mit der verbreitung des personal computers als einen bezahlbaren desktop-rechner für jedermann seit mitte der 80er jahre und dem world wide web als einem „weltumspannenden“ kommunikationsnetz seit mitte der 90er jahre die informations- und kommunikationstechnologie bereits eine einschneidende entwicklungsebene erreicht hat.

     Diese entwicklung hat einen allgemeinen zugang zu den fähigkeiten des computers und zu den netzen ermöglicht. Die expansion der netze ist weiterhin in vollem gang, allein schon meßbar an den quantitativen entwicklungsparametern des internets. [ 3 ]

     Neben personal computer und internet hat sich insbesondere die mobiltelefonie zu einem kommunikationsmittel entwickelt, daß heute breite akzeptanz und anwendung findet. Gemeinsam mit tragbaren computern wie notebooks und personal digital assitants (PDA) ermöglicht sie die nutzung elektronischer funktionen und den zugang zu kommunikationsnetzen ausserhalb der unmittelbaren wohn- oder arbeitsumgebung. Beide gerätearten sind keine fundamentalen neuerungen, sondern weiterentwicklungen von bereits etablierten geräten (remedial medias), hier von desktop-rechner und telefonapparat. Aber sie zeichnen den weg vor, den eine weitere transformation der computertechnik hin zu mobilen und miniaturisierten formen gehen kann.

     Bei dieser fortschreitenden entwicklung ist der zugang zu den netzbasierten informations- und kommunikationstechnologien nicht so barrierelos und egalitär, wie es in der medienöffentlichkeit gerne dargestellt wird. Aufgrund technischer, kultureller, sozialer und insbesondere ökonomischer schranken ist den menschen in den weniger entwickelten ländern lateinamerikas, asiens und insbesondere afrikas, aber auch teilen industrialisierter gesellschaften, der zugang zu computertechnik und -netzen verschlossen. [ 4 ]

     Aber auch eine weitere ausbreitung der netze bewirkt nicht gleichzeitig, daß soziale gefälle wie reichtum/armut allein „aufgrund des gemeinsamen tcp/ip-protokolls“ verschwinden. [w. coy] [ 5 ]

     Der mit der verbreitung von netztechnologien einhergehende massive hype des internets ist mittlerweile deutlich abgeklungen. [ 6 ] Die daran gekoppelte versprechung von reichtum, wissen und selbstverwirklichung - „eines der großen erzählungen des kapitalismus“ [k. diefenbach] [ 7 ] und die hoffnungen auf eine ungeheure wirtschaftliche dynamik haben sich durch das „dotcom-sterben“ [ 8 ] und den verfall der NEMAX-aktienkurse in 2001 deutlich relativiert. Das internet hat dabei zwar seinen stellenwert als motor eines wirtschaftswunders vorübergehend eingebüßt, nicht aber seine ideologisch angereicherte zuweisung als zukunftstechnologie.

     Die delle in der wirtschaftlichen erfolgskurve wird, so ist zu vermuten, genutzt werden, um sich auf die suche nach neuen, wiederum zugkräftigen vehikeln zu begeben. Dies geschieht nur bedingt freiwillig und initiativ. Die vermarktung von weiterentwicklungen entsteht aus einem dem kapitalistischen system immanenten bedarf, den eigenen fortbestand durch innovation fortschreiben und ein versprechen der neuzeit auf permanenten technischen forschritt [vgl. p. schefe] einlösen zu können.

mängel

     Komplementär dazu befindet sich elektronische kommunikation - basierend auf computerisierung und vernetzung - aus technologischer perspektive gesehen in dem weitgehend unfertigen, unperfekten zustand einer frühen entwicklungsphase.

     Beispielhaft läßt sich dies am personal computer aufzeigen. Der am weitesten verbreitetete rechner-typ stellt ein zentralisierendes mehrzweckgerät dar, er ist elektrische schreibmaschine (deren formfaktor er ursprünglich geerbt hat), archiv und zettelkasten, spielekonsole, videoschnittgerät, fernseher, stereoanlage und kommunikationszentrale zugleich. Dabei kann er alltägliche, ihm zugewiesene aufgaben nicht ohne individuelle „betreuung“ ausführen. Vielmehr obliegt es dem benutzer, sich um die maschine und die (fehl-) funktionen der hard- und software zu kümmern. zeit und aufwand müssen investiert werden, der user muß der maschine seine aufmerksamkeit schenken und bekommt, wenn alles funktioniert, im gegenzug ein positives feedback. Dazu kommt der umgang mit arbeitsdaten und der zugriff auf gespeicherte ressourcen, die einen beträchtlichen aufwand darstellen und spontanes, intuitives arbeiten erschweren. [vgl. d. gelernter]

     Durch vernetzung und netzbasierte kommunikation hat sich ein teil der funktionen maschineller datenverarbeitung in die netzstrukturen verschoben beziehungsweise in diese hinein erweitert. Noch ist aber der statische, im raum fixierte personal computer nebst bildschirm, tastatur und maus für die meisten anwender die alleinige oder zumindest vorrangige schnittstelle zum netz: Über sie läuft der meist noch manuell zu tätigende vorgang des verbindungsaufbaus und das abrufen und einspeisen von digitalen informationen.

     Diese faktoren zusammengenommen ergeben den effekt, daß netzbasierte kommunikation als etwas begriffen wird, das deutlich von der eigenen „wirklichkeit“ abgetrennt ist [g. freyermuth: der große kommunikator]. Obwohl zentralisierung, also die bündelung der verschiedensten funktionen in den „grauen maschinen“ , durch ihre abgrenzbarkeit von der sonstigen alltagsumgebung für anwender als hilfreich empfunden werden kann (im sinne eines gewöhnungsprozesses an die benutzung elektronischer medien), läßt sich aus den skizzierten schwächen, insbesondere dem „nachteil eines aus den realen abläufen herausgelösten und komplexen zugangs“ [h.-w. gellersen] und einer räumlichen beschränkung, der bedarf für weitergehende entwicklungs- und optimierungsansätze herleiten.

[kapitelanfang] [titel] [inhalt] [referenzen]

 


 

3] „ubiquitous computing“ (eine vision)

     Die entwicklung der computertechnik zeichnet sich derzeit durch zwei in diesem zusammenhang relevante tendenzen aus: die vielfältigen industriellen und wissenschaftlichen unternehmungen, elektronische geräte weiter zu miniaturisieren, um so portablität und die fähigkeit, komplexere bauteile auf kleinstem raum unterzubringen, zu erhöhen. Und zum anderen die verbesserung der datenübertragung in form von drahtgebundener, aber vor allem drahtloser vernetzung elektronischer geräte (bluetooth, wlan, UMTS). Wie könnten solche entwicklungstendenzen durch eine griffige vision zusammengefaßt und ausgerichtet werden?

     Anfang der 90er jahre wurde von mark weiser am kalifornischen forschungslabor Xerox PARC [ 9 ] den begriff ubiquitous computing vorgeschlagen:

     Informationstechnische funktionen werden in dieser vision durch mikroprozessor-gesteuerte kleingeräte nutzbar. Diese sollen nicht mehr explizit aktiviert werden müssen: Sie sind immer „an“ , immer operabel. Während dieses immerwährenden betriebs sollen sich die „information appliances“ (informationsgeräte) genannten artefakte in das umfeld des anwenders einbinden und durch selbsttätige interaktion mit anderen geräten, denen jeweils spezielle funktionen zugewiesen sind, aktionen und kommunikationsvorgänge ausführen können.

     Diese „diskrete“ arbeitsweise soll die beschriebenen defizite überwinden können: Die funktionen eines standard-pc's wären entbündelt und situationsspezifisch optimiert auf verschiedene geräte in der umgebung verteilt. Der mensch bräuchte seine aufmerksamkeit nicht mehr auf die aktivitäten der maschinen verschwenden (wo und wann benötige ich bestimmte daten, wo speichere sie, wie verknüpfe ich sie mit anderen daten oder tausche sie mit anderen aus), vielmehr würden die artefakte ohne explizite anweisung des anwenders wissen , welche aktionen sie auszuführen haben. Für diese fähigkeiten müssen entsprechende geräte ihre umgebung und vor allem menschliche aktivitäten sensorisch wahrnehmen (fühlen) und auswerten können.

     Unter ubiquitous ist daher nicht nur der wortsinn „überall verbreitet“ zu verstehen, sondern auch eine vollständige „einbettung in reale umgebungen und abläufe“ [h.-w. gellersen]. Mikroprozessoren verlaßen so ihre grauen kisten und werden zu „intelligenten“ alltagsgegenständen, die denken können („things that think!“ - n. negroponte). In kombination mit bereits existierenden vernetzungsstrukturen und mobiler kommunikation könnten dann diese ubiquitären informationsgeräte ein „immer-und-überall-netz“ etablieren, ein netz, das immer und überall verfügbar wäre und die physische umgebung mit elektronischen funktionen anreichern kann.

beispiele

     Heute verbreitete geräte verfügen im ansatz bereits über ubiquitäre eigenschaften. So können GSM-mobiltelefone selbständig in ihr funknetz einloggen, die eigene position ermitteln und damit selbsttätig und unauffällig mobilität und erreichbarkeit ihres nutzers sicherstellen. PDA's und erste hybride formen aus miniatur-computer und mobiltelefon (smartphones) gehen bereits über diese funktionalität hinaus und verbinden kommunikationsdienste wie telefonie und internet mit textverarbeitungs- und datenbank-funktionalitäten.

     Einen anderen, konkreten ansatz stellen sogenannte „wearables“ [ 10 ] dar, „tragbare“ geräte, die in kleidung, schuhen und jacken eingearbeitet sind und die dem mobilen träger vom standard-pc bekannte funktionen nutzbar machen.

     Andere forschungen gehen in noch dezentere richtungen, beispielhaft sei ein forschungsprojekt aus dem bereich der nanotechnolgie an der kalifornischen universität von berkeley genannt, das vernetzte mikro-maschinen mit überwachungs- und sensorfunktionen in extrem miniaturisierter form als „smart dust“ (intelligenter staub)[ 10 ] im millimeter bereich konzipiert.

     Im bereich visueller ubiquitärer technologien werden flüßig aufzutragende displays erforscht: Diese würden erlauben, LCD (liquid crystal displays) [ 10 ] als farbe auf verschiedene träger wie plastik oder stoffe aufzutragen. Somit können auf wänden oder anderen oberflächen displays angebracht werden, die - als bestandteil von innen- oder außenräumen - wechselnde wandbilder, filme oder andere digitale informationen anzeigen können.

     Die liste an forschungsprojekten, entwicklungstendenzen und vor allem zusammenfassenden labels ließe sich hier beliebig erweitern. Ubiquitous computing ist nur ein modell von mehreren, die in den letzten jahren entworfen wurden. Es steht damit in nachbarschaft und überschneidung zu anderen wie augmented reality, pervasive computing oder ambient media und schwingt als echo deutlich in den verschiedenen evernet-szenarien mit, die mit so funky bezeichnungen wie roomware, a³ environments oder smart buildings
[ 11 ] belegt sind.

     Mit der etablierung dieser technologien könnte dann von vollständig „informationstechnisch erschlossenen umgebungen“ [h.-w. gellersen] gesprochen werden, die mit marginalisierung und aussterben der standardcomputer und - so lautet die verheißung ihrer propagandisten - mit einem „größtmöglichen nutzen und komfort bei kleinstmöglichem bedienungsaufwand“ [t. luckenbach] einhergehen.
[ 12 ]

     Nun sind die visionären versprechungen einer ubiquitären informationslandschaft wie die einer „permanenten operabilität“ oder eines „kleinstmöglichen bedienungsaufwands“ auch in naher zukunft aus prinzipiellen gründen eher skeptisch zu betrachten- zumindest zeigt das die erfahrung im umgang mit elektronischen geräten: Durch ihre fortschreitende komplexität sind diese offenbar nur schwer so zu konstruieren, daß sie bedingungslos, jederzeit und im zusammenspiel mit anderen geräten funktionieren können.

     Aber eine solche machbarkeitsanalyse greift zu kurz. Die bedeutung derartiger „always-on“ szenarien eines postulierten „post-pc-zeitalters“ geht weit über die technische frage der funktionsfähigkeit hinaus: Was mit ubiquitous computingvorgeschlagen wird und sich heute in teilen bereits abzeichnet, bedeutet eine weitgehende durchmischung von „realem“ raum und digitalen strukturen; die trennlinien werden nicht mehr erkennbar sein, die entsprechenden informationsgeräte entziehen sich unserer wahrnehmung und durchdringen unseren alltag:

     „Die trennung von off- und online verliert sich. Das evernet bringt damit das internet auf dieselbe art zum verschwinden wie ein funktionierendes stromnetz die elektrizität“ [g. freyermuth: die besteigung des evernet].

     Ausgehend von diesem vergleich kann es für das verständnis gegenwärtiger prozesse hilfreich sein, entwicklung und gesellschaftliche auswirkungen der vor mehr als 100 jahren begonnenen elektrifizierung näher zu betrachten.

[kapitelanfang] [titel] [inhalt] [referenzen]

 


 

4] elektrifizierung

     Im verlauf des 20. jahrhunderts hat sich elektrizität, zumindest in den sogenannten „entwickelten“ ländern, zu einer als angenehm empfundenen, dezenten und vor allem allgegenwärtigen selbstverständlichkeit entwickelt. Abgesehen von den monatlichen abschlagszahlungen an die stadtwerke und der einen oder anderen durchgebrannten glühbirne, muß heute in den industrialisierten ländern in der regel kein gedanke mehr an die versorgung mit elektrischer energie verschwendet werden: Durch das stromnetz ist elektrische energie jederzeit verfügbar, sie ist unsichtbarer bestandteil unseres alltags geworden.

     Bis zum 19. jahrhundert war elektrizität noch eine obskure rarität, die anfangs nur in einem räumlich und zeitlich eng begrenzten umfang zur verfügung stand. Aber von anfang an war elektrische energie mit ungläubigem staunen, vielfältigen mythen und gesellschaflichen utopien verknüpft, angefangen von dem glauben, mit elektrizität krankheiten heilen oder leben erschaffen zu können [ 13 ], über den hoffnungen auf eine befreiung des frühindustriellen alltags von „mühsal und anstrengung“ , bis hin zu ideologisch überlagerten visionen, wie beispielsweise der ablösung der dampfmaschine als „motor des kapitalismus“ durch den elektrischen strom als die „triebkraft des sozialismus.“ [w. schivelbush] [ 14 ]

     Als um 1900 das stromnetz in europa und nordamerika ausgebaut wurde, zuerst in regionalen verbünden, später mit einer annähernd vollständigen, landesweiten abdeckung, bekamen große teilen der bevölkerung peu à peu zugang zu dieser neuen technologie. Aber dieser zugang war noch für längere zeit mit aufwand und bewußt auszuführenden aktionen verbunden: So mußte, um die ersten elektrischen geräte (z.b. elektrische küchenherde) in der eigenen wohnung nutzen zu können, ein zeitgesteuerter stromautomat im hausflur mit münzen gefüttert werden. Insofern befinden sich heute die meisten internet-nutzer in einer vergleichbaren situtation einer zeitbasierten abrechnung und einer temporären und nicht selbstverständlichen netzanbindung.

     Erst im weiteren verlauf des 20. jahrhunderts wurde strom als unerschöpflich strömende energie [vgl. w. schivelbusch] durch verkabelung von wohnungen und häusern zu der heute gewohnten, unsichtbaren und alltäglichen selbstverständlichkeit. Diese etablierung ging nicht linear und reibungslos von statten. Als elektrizität und die davon abhängigen elektrischen geräte auf dem sprung zur massenverbreitung standen, mußte der bedarf für diese neuerungen geschaffen und vorbehalte und ignoranz überwunden werden. Hierfür waren die beschriebenen effekte mythenbildung und ideologische überhöhung wichtige elemente. Die gesamtgesellschaftliche „anstrengung“ der vollständigen elektrifizierung wäre ohne solche „anreicherungen“ nicht möglich gewesen:

     “ (...) Neue Technologien (müssen), wenn sie sich denn überhaupt durchsetzen sollen, notwendig mit solchen sozialen Projektionen belegt werden. Je höher sie sozial prämiert werden, je mehr Wünsche sie auf sich ziehen vermögen, um so größer ist ihre Chance sich durchzusetzen.“ [m. giesecke, s. 47]

     Im rückblick kann die elektrifizierung - als teil und grundlage der industrialisierung - als ein „projekt der moderne“ angesehen werden. Eine gegenseitige bedingtheit der gesellschaftlichen konstruktion der moderne mit ihren leitbildern „fortschritt, urbanität, technisierung und säkularisierung“ [a. senarclens de grancy, h. uhl] einerseits und der umwälzung durch automatisierung, fordistischer massenproduktion und massenkonsumtion andererseits, die erst durch das stromnetz möglich wurden, bewirkte tiefgreifende soziale und kulturelle veränderungen. soziale milieus und kulturelle traditionen einer stromlosen zeit wurden abgelöst [ 15 ] von neuen strukturen, die sich um industrielle phänomene wie das der fabrik gruppieren. [ 16 ]

     Gleichzeitig stellt die etablierung einer elektrischen infrastruktur elementare voraussetzung und wegbereitung für die nutzung elektrischer und damit künftiger elektronischer medien dar [siehe b. caroll]. elektrizität selbst übermittelt die nachricht einer sich verändernden welt:

     Die Botschaft des elektrischen Lichts wirkt wie die Botschaft der elektrischen Energie (…) extrem gründlich, erfaßt alles und dezentralisiert es. Denn elektrisches Licht und elektrischer Strom bestehen getrennt von ihren Verwendungsformen, doch heben sie die Faktoren Zeit und Raum im menschlichen Zusammenleben genauso auf wie das Radio, der Telegraf, das Telefon und das Fernsehen.“ [m. mcluhan, s. 19]

[kapitelanfang] [titel] [inhalt] [referenzen]

 


 

5] technik und impact

     Die elektrifizierung hat, als wichtiger bestandteil der industrialisierung, die gesellschaft und die bildung der leitmotive der moderne unmittelbar beeinflußt. dieser zusammenhang verweist darauf, daß gegenwärtige und künftige technologische entwicklungen über ähnlich tief greifende transformatorische eigenschaften verfügen. wie lassen sich deren entstehung und bisherige ausformung beschreiben?

     Im laufe der industriellen entwicklung und einer allgemeinen „verwissenschaftlichung“ war die berechenbarkeit von wissenschaftlichen und technischen zusammenhängen zu einem wachsenden problem geworden, dessen überwindung der mensch auch unter zuhilfenahme diverser mechanischer hilfsmittel nicht mehr leisten konnte: „Man konnte das zur Verfügung stehende Wissen nicht in Macht umsetzen. Hunderte von Kalkulierern saßen zum Beispiel in den Ateliers von Ingenieuren und füllten Seiten über Seiten mit Zahlen, ohne die theoretisch bereits erkannten Probleme lösen zu können.“ [v. flusser, s. 211]

     Erst durch die entwicklung informationstheoretischer grundlagen und die erfindung elektronischer rechenmaschinen, den späteren computern, wurde eine schnelle und automatisierte datenverarbeitung und somit die überwindung dieses dilemmas möglich. [ 17 ]

     Mit der daraus folgenden entwicklung neuerer informations- und kommunikationstechnologien seit der mitte des 20. jahrhunderts bahnte sich nach der industriellen revolution ein erneuter, bedeutender entwicklungssprung an. Die neue vision eines anbrechenden post-industriellen zeitalters verhieß nun erneut „die befreiung von alten leiden und unzulänglichkeiten: menschliche kompetenz übersteigende komplexitäten“ [k. pohl] waren programmierbar geworden.

     Neben der fähigkeit der berechnung verfügt die „schnellrechenmaschine“ über eine weitere besondere eigenschaft: „Sie vermag nicht nur Gleichungen in Zahlen zu analysieren, sondern auch diese Zahlen zu Gestalten zu synthetisieren.“ [v. flusser, s. 210] Computer können alternative welten erzeugen, „die sie aus Algorithmen, also aus Symbolen des kalkulatorischen Denkens, projizieren und die ebenso konkret sein können wie die uns umgebende Umwelt.“ [v. flusser, s. 211] In der konsequenz sind alternative modelle synthetisierbar, erweiterungen und simulationen der umwelt werden möglich.

     Die auswirkungen der theoretisch unbegrenzten berechenbarkeit und der möglichkeit der synthetisierung sind bislang nicht vollständig und abschließend bewertbar, auch wenn eine reihe von theoretischen eingrenzungs- und interpretationsversuchen unternommen wurden. Die entsprechenden entwicklungsprozesse verlaufen weitaus dynamischer, als die ihrer gesellschaftlichen reflexion [vgl. w. neuhaus]. Einige eckpunkte dieser analysen sollen hier skizziert werden, um eine vorstellung für die gegenwärtigen veränderungen zu vermitteln.

     Element einer elektronischen verarbeitung und synthetisierung sind informationen. Durch eine fortschreitende etablierung der computertechnik sind sie zum „entscheidenden rohstoff“ [m. castells] geworden sind, mit der konsequenz, daß durch informationen letztlich „alle gesellschaftlichen prozesse und sozialen organisationen gebildet“ [m. castells] werden können.

     Wie ist das gesellschaftliche grundelement information zu beschreiben? In erster linie durch das fehlen einer direkten, materiellen repräsentation. informationen benötigen zwar materielle hardware, um gespeichert und verarbeitet zu werden, aber „informationen (…) lassen sich nicht mit den fingern greifen. im buchstäblichen sinn des wortes sind sie ‚unbegreiflich'“ [v. flusser, s.187]; es fehlt die möglichkeit einer direkten, sinnlichen wahrnehmung. Um informationen „sichtbar“ zu machen und mit ihnen arbeiten zu können, werden filter bzw. schnittstellen benötigt, wie sie beispielsweise durch den personal computer und dessen benutzeroberfläche gegeben sind. Der computer tritt hier als „symbolisches system“ in erscheinung und stellt damit eine entscheidende voraussetzung für nutzung und wahrnehmbarkeit digitaler prozesse dar. [vgl. s. johnson]

     Neben der „kopie bisheriger produktionsweisen“ [w. coy], also beispielsweise der nutzung des computers als schreibmaschine, entstehen durch computerisierung und deren vernetzung „neue möglichkeiten der wissensproduktion, der wissensverteilung und der wissensaufnahme“ [w. coy]. Möglichkeiten, wie sie heute insbesondere durch vernetzungsstrukturen wie dem internet dargestellt werden.

     Netzbasierte informationstechnologien ermöglichen eine vernetzte und verteilte form der datenspeicherung und -verarbeitung, informationen können in echtzeit, überall und gleichzeitig verfügbar sein. [ 18 ]

     Durch computerisierung, vernetzung und darauf aufbauenden technologien wie hypertext [ 19 ] werden bisher vorherrschende kommunikationsformen wie buch und schrift sowie gebündelte „one-to-many“ - kommunikationskanäle wie radio und fernsehen aufgelöst und erweitert; neue, hybride und multidirektionale kommunikationsformen entstehen.

     Im zuge dessen werden den denkmodellen der moderne - wie dem einer kausalität von zusammenhängen, einer umfassenden ordnung durch klassifizierung oder eines vermeintlich objektiven „wirklichkeitsbegriffs“ - flexiblere, prozesshafte und offene methoden gegenübergestellt. [vgl. n. bolz] Vergleichend können solche methoden durch eine definition eines merkmals netz-basierter kommunikation, dem hypertext, beschrieben werden:

     Ein hypertext ist keine abgeschlossene arbeit, sondern eine offene struktur aus heterogenen spuren und assoziationen, die einem prozess konstanter bearbeitung und ergänzung unterliegen. (…) Alles ist überall in der mitte: Anstatt eines organischen ganzen ist hypertext eine textur, die in ihrer bedeutung unstabil ist und deren grenzen sich fortwährend ändern.“ [m. taylor, e. saarinen, zitiert nach www.english.uga.edu/~hypertxt/ht2.html, übersetzung von mir].

     Auf der gesellschaftlichen ebene verändern sich die methoden und prämissen der wahrnehmung, des denkens. in einer neuen, post-industriellen epoche wird informationstechnologie zu der technischen infrastruktur eines weltweiten wirtschaftssystems und zum wesentlichen faktor für produktivität: Nicht mehr die herstellung und vermarktung materieller güter wird zum vorherrschenden moment ökonomischer systeme, sondern die informationsverarbeitung und -verteilung [vgl. m. castells]. Information entwickelt sich zu einem tauschwert („merkantilisierung des wissens“ [lyotard]). Somit werden verfügbarkeit und zugriff im prozess der wirtschaftlichen verwertung zu einem entscheidenden faktor.

     Die produktion dieser immateriellen güter unterscheidet sich von der durch den fordismus geprägten industriellen tätigkeit: „(…) Arbeit hat sich dahin gehend verändert, dass es eine vorherrschaft der intellektuellen aktivität gegenüber der physischen aktivität gibt. weiterhin bezeichnet immaterielle arbeit zwei fundamental veränderte momente: Auf der einen seite eine wesensartige transformation der arbeit. die produzierten waren sind immer weniger physisch, also immer weniger dinge, die man anfassen kann. Auf der anderen seite gibt es eine anthropologische differenz, das heißt, der mensch selbst wird in diesem verhältnis zur arbeit modifiziert, das produkt ist etwas, das er als ganzer mensch selbst hergestellt hat.“ [t. negri]

     Auf einige aspekte einer gesellschaftlichen entwicklung, in der informationen die grundlage bilden, wird in späteren abschnitten näher eingangen werden. Nach manuel castells kann zusammenfassend betont werden, daß ein „neues technologisches paradigma betreten“ wurde - einhergehend mit der herausbildung einer neuen gesellschaftsstruktur, bei der die quellen der „ökonomischen produktivität, der kulturellen hegemonie und politisch-militärischen macht von der gewinnung, speicherung, verarbeitung und erzeugung von information und wissen abhängen“ [m. castells]

     Entsprechend dem szenario eines immer-und-überall-netzes werden sich im zuge der weiteren entwicklung eine „maschinenintelligenz“ wie die automatische verarbeitung von informationen und andere, an maschinen delegierte funktionen zunehmend „von den einzelnen geräten und den indivduen, die sie benutzen, in die netze selbst“ [g. freyermuth: der große kommunikator] verlagern. Entscheidende momente werden daher nicht nur die veränderungen von sozialen und ökonomischen strukturen und zwischenmenschlicher kommunikation sein, sondern eine weitgehende übertragung dieser prozesse auf technische, vermehrt „autonom“ agierende systeme:

     Der eigentliche qualitative Sprung setzt aber m. E. erst in dem Augenblick ein, in dem im Zuge des Ausbaus der Computertechnologie komplette Kommunikationssysteme technisiert werden. Mehrere künstliche Prozessoren werden ohne Zwischenschaltung von psychischen oder sozialen Systemen miteinander vernetzt und können Informationen untereinander ‚austauschen‘ , entsprechend den ihnen eigenen Programmen und Kodestrukturen interpretieren (...) Technisch substituiert werden also nicht mehr nur psychische Leistungen, sondern das, was bis dato als Proprium sozialer Systeme galt.“ [m. giesecke, s. 40]

alternativen?

     Zur beurteilung der auswirkungen einer technischen durchdringung gesellschaftlicher strukturen, in der information zum entscheidenden moment wird, kann die frage hilfreich sein, wie es die um die handlungsoptionen des subjekts bestellt ist: Gibt es innerhalb einer informationell angereicherten und durchsetzten umgebung noch die option, sich den ausbreitenden elektronischen kommunikationsmedien zu entziehen? Sich diesen „angeboten“ zu verschliessen, auf sie bewußt zu verzichten, könnte eine naheliegende und einfache methode darstellen - auch wenn dies einen verzicht auf teilhabe an sozialen und kommunikativen prozessen mit sich bringen könnte. Diese alternative würde bedeuten, daß die technologische einwirkung begrenzt ist oder durch das eigene verhalten zu begrenzen wäre.

     Technik aber tritt nicht nur als „einzelne praxis“ auf - im sinne einer sammlung an werkzeugen, die jeweils speziellen anwendungszwecken dienen [ 20 ] -, sondern sie ist eingebettet in ihren gesellschaftlichen kontext: Voraussetzung für ihre verwendung sind „wissen, kommunikation und organisation“, faktoren also, welche wiederum durch technische bedingungen geschaffen oder erweitert werden. Technik ist daher als ein „komplexes soziales system mit weitreichenden kulturellen folgen“ [h. böhme] anzusehen.

     Um ein beispiel dafür zu nennen, wie soziale kommunikationsformen durch technische systeme formatisiert werden: Die technischen systeme zeitmessung und kalendertechnik beeinflussen seit ihrer einführung zwischenmenschliche kommunikation. Die orientierung an der zeit ist für verabredungen und andere absprachen zwischen individuen und sozialen gemeinschaften nicht mehr oder nur mit wenigen ausnahmen („bis gleich“ ) wegzudenken, rhythmus und verlauf des alltags werden davon bestimmt [siehe auch f.rötzer]. Die technologische einwirkung in soziale zusammenhänge geschieht hierbei über „die organisation der kommunikations- und handlungsverhältnisse“ [m. faßler].

     Technische systeme durchdringen und beeinflußen dementsprechend alle bereiche der gesellschaft: Der mensch ist ihnen auch dann ausgesetzt, wenn er sich nicht explizit der vorhandenen technischen angebote bedient; ihnen gegenüber kann man sich nicht beliebig verhalten, „weil sie selbst die optionen für mögliches handeln determinieren“ [h. böhme]. Eine technologie ist dabei weder neutral noch eindeutig tendenziell: in der in ihr liegenden ambivalenz kann sie helfen oder zerstören. Ein messer kann die zubereitung von nahrung erleichtern oder es kann dazu genutzt werden, einen anderen menschen zu verletzen oder zu töten.

     Im sinne einer auseinandersetzung mit den durch technologie erzeugten gesellschaftlichen und kulturellen implikationen wäre ein entzug also nicht nur illusionär: Jede form von handlung wäre aufgegeben, optionen wie erprobung, aneignung, experimentelle oder destruktive zweckentfremdung oder einer taktischen anwendung entfielen - und man wäre dennoch den auswirkungen ausgesetzt. Technologische entwicklungen schreiten auch ohne die aneignung oder intervention des einzelnen fort und beeinflussen subjekt und umwelt.

[kapitelanfang] [titel] [inhalt] [referenzen]


 

6] kritik an „ubiquitous computing“

     Szenarien wie die künftiger ubiquitärer landschaften, durchsetzt mit maschinen-intelligenten geräten, werden - wie die technischen visionen zuvor - mit versuchen der bewertung und einschätzung beantwortet. was sind die argumente gegen ubiquitous computing? Inwiefern ähneln diese argumente anderen technologie-kritischen diskursen?

     Die gesellschaftliche auseinandersetzung mit technischen entwicklungen ist entsprechend der ambivalenz von technik von zwei gegensätzlichen, aber miteinander zusammenhängenden reaktionen geprägt. In ihren extremen ist auf der einen seite die verklärende und utopistische tendenz zu finden, die im technischen „fortschritt“ die unbedingte erfüllung von wünschen und bedürfnissen sieht und die schon im kontext von industrialisierung und elektrifizierung zu finden war. Diese „techno-manische“ [j. pierce] ausprägung verneint präventiv mögliche negative auswirkungen einer technisierung auf lebensbedingungen und gesellschaft und geriert die option einer technischen vervollkommnung des „unperfekten“ menschlichen daseins.

     Auf der anderen seite stehen die ablehnenden stimmen bis hin zu einer „techno-phobischen“ fundamental-kritik, deren intention im kern geprägt ist durch die angst vor dem unbekannten, der dynamik einer technischen ermächtigung und vor dem verlust von authentizität.

     Als reagenz gesellschaftlicher diskurse um die folgen technologischer veränderungen hat eine „literarische imagination“ - neben ihrer medialen übersetzung und fortschreibung im film - eine wichtige funktion. Autoren wie bruce sterling, neal stephenson und besonders william gibson - mit seinem entwurf des „cyberspace“ - haben den diskurs über zukünftige telekommunikationstechnologien aus einer ironischen wie spielerischen position aufgegriffen und ihn in einer futuristischen landschaft materialisiert [j. pierce]. Durch diese vermittlung von „vorahnungen“ zu einer vorstellbarkeit zukünftiger digitaler „welten“ - inklusive ihrer schattenseiten - beigetragen.

     Eine ähnliche funktion für die negative einschätzung und kritische auseinandersetzungen haben bis heute eine reihe von dsytopischen romanen, insbesondere george orwells „1984“ und aldous huxleys „brave, new world“ .

     Beide richtungen sind gewissermaßen gegenläufige modulationen des gleichen themas: Die subjektive verarbeitung technologisch beeinflußter gesellschaftlicher entwicklungen und der versuch, auf diese einzugehen beziehungsweise auf sie einfluß zu nehmen.

     Lassen sich diese modulationen daher als einen prozess der adaption bewerten? Martin giesecke zufolge, der sich intensiv mit den auswirkungen vor-informationsgesellschaftlicher kommunikationstechnologie beschäftigt hat, reagiert die gesellschaft auf technologische neuerungen „mit einer anpassung ihrer programme und vorstellung“ [m. giesecke, s. 10]. Diese anpassung läßt sich an einer sich verändernden bewertung von technologien ablesen:

     Als natürlich galt und gilt immer noch das angestammte System, die gewohnten Medien und die überkommenen Kodierungen der Informationen. Neue Systeme, Medien und Kodierungsformen erscheinen demgegenüber zunächst als artifiziell - so lange, bis sich die Menschen an sie gewöhnt haben. Spätestens allerdings dann, wenn wiederum neue Medien auftauchen, wird ihnen in der Opposition die Position der Natürlichkeit zugeschrieben.“ [m. giesecke, s. 36f]

     Entsprechend ihrer wahrnehmung als etwas fremdes oder künstliches rufen neue technologien befürchtungen und ängste, aber euch euphorie und visionen hervor: „Apokalypse und utopie sind gleichermaßen im spiel“ [w. voßkamp]. Büchern wurden lange zeit ähnlich negative eigenschaften zugewiesen, wie sie heute oft noch mit computern und internet assoziiert werden: Sie führen zur sozialen vereinsamung, sie bringen menschen dazu, andere „aufgaben“ zu vernachläßigen [vgl. w. voßkamp], sie manipulieren also im negativen sinne den benutzer. In abgrenzung zu diesen zuweisungen werden den gewohnten, vormals „künstlichen“ technologien eigenschaften wie natürlichkeit und selbstverständlichkeit zugeordnet.

     Die einordnung der reaktionen auf technologische entwicklungen soll einer haltung, die deren auswirkungen kritisch untersucht, nicht widersprochen werden. Aber die hier vorgenommene einordnung ist hilfreich für die betrachtung eines lang anhaltenden entwicklungsprozesses in einer auf technologie basierten kultur.

     Die diskursiven und kritischen reaktionen scheinen auch darauf abzuzielen, einen gewissen „point of no return“ zu ermitteln, ab dem die vom menschen entwickelte technik droht, sich zu verselbständigen, unabhängig vom menschen zu werden: „In letzter instanz bedeutet die selbstorganisation von systemen, daß sich etwas ablöst, daß prozesse unabhängig werden, man nicht mehr in sie eingreifen kann“. [w. neuhaus]

     Der ubiquitären vision von mark weiser haben sich einige kritikerinnen der propagierten thesen angenommen und sie einer kritischen untersuchung unterzogen [vgl. doheny-farina, a.a.araya, j.pierce].

     Ahnlich wie die propagierung einer immer-und-überall-präsenz elektronischer informationssysteme die imagination technologischen forschritts fortschreibt, orientiert sich die technologiekritik An den auswirkungen auf das subjekt, welches durch seine technisierte umwelt zur „wetware“ [j. pierce] geworden ist und dem der verlust von „realität“ und „authentizität“ widerfährt, wenn erst die umgebung vollständig von informationsgeräten beeinflußt und überlagert ist. Dies würde in letzter konsequenz zu einer „entmächtigung des invidiuums“ [j.pierce] und zu einem transfer dieser macht an eine computerisierte umgebung führen.

     Augustin a. araya beschäftigt sich in seinem text „questioning ubiquitous computing“ mit der frage nach diesen auswirkungen:

     Es scheint, daß die vorschläge des ubiquitären computings das bestreben einer gewalttätigen, technologischen durchdringung des alltagslebens im namen einer ‚verbesserung der welt‘ darstellen - wie sonst könnten wir solche vorschläge charakterisieren, die eine durchdringende verwandlung von gegenständen in überwachbare objekte propagieren, die eine substitution ‚real-weltlicher‘ situationen durch digitale surrogate vorsehen, also eine transformation unserer umgebungen in reagierende artefakte durch die massive population mit mikro-prozessoren und verwandten geräten und alle diese veränderungen in erster linie durch die zugrunde liegende technologie gesteuert werden?“ [a.a.araya, übersetzung von mir]

     A. a. araya prognostiziert ein sich änderndes verhältnis zwischen dem subjekt und seiner umwelt (dem anderen): da durch ubiquitous computing praktisch alle gegenstände der umgebung durch ihre digitalen pendants ersetzt werden können und diese über die fähigkeiten sensorische wahrnehmung, ad-hoc-vernetzung und automatisierten datentransfer („ultraconnectivity“ ) verfügen, kann jeder gegenstand zu einem überwachbaren objekt werden. Araya wertet daher die vision des „ubicomp“ als ein versuch, die andersartigkeit der umgebung aufzuheben. Dies bedeutet, daß menschen „in ihren täglichen interaktionen, die zunehmend durch ubiquitous computing vermittelt werden, dazu tendieren werden, den unterschied zwischen einem digitalen surrogat und dem gegenstand, den es repräsentiert, zu vergessen“ [a.a. araya, übersetzung von mir].

     Araya bezieht sich hierbei auf heideggers text „die zeit des weltbildes“ : Die „welt“ offenbart sich den menschen nicht mehr als etwas „anderes“ , was niemals vollständig verständlich oder beherrschbar sein kann, sondern als eine repräsentation, ein „bild“. Ubiquitous computing würde demnach nicht nur die differenzierung zwischen etwas anderem und seiner medialen vermittlung vollends vergessen lassen, sondern auch das wissen, daß es diesen unterschied einmal gegeben hat. [vgl. a.a. araya]

     Stephen doheny-farina schlägt am beispiel ubiquitärer technologien einige allgemeingültige prinzipien vor, die verhindern sollen, daß eine permanente durchdringung, mit den entsprechenden negativen konsequenzen, zu einem default-wert wird:
1 the normal state of anyone's computer is off.
2. the normal state of anyone's relationship to computer networks is unconnected.
3. the normal state of knowledge about the location of anyone is unknown -- wether connected or unconnected.
“ [s. dohenya-farina]

     Diese prinzipien entbehren nicht eines gewissen naiven und autoritativen gestus (vielleicht sollte man menschen erlauben, ihren status auf „always on“ setzen zu können) und mögen diese forderungen auch aus der perspektive der heutigen internetnutzung leicht abstrus erscheinen, wurde noch bis vor kurzem freier netzzugang und heute „bandbreite für alle“ gefordert. Die prinzpien wollen aber auf die gefahren verweisen, die in einer ubiquitären vision zu erkennen sind.

     Doch eine solche technologiekritik, die den authentizitäts- und identitätsverlust als schreckensvision heranzieht, ignoriert die tatsache, daß bereits lange vor einer allgenwärtigen vernetzung von einer autonomie des subjekts von seiner umwelt nicht mehr die rede sein konnte, seit einer technisch bedingten „menschwerdung“ nie konnte. [ 21 ]

     Es kann aber wohl von einem determinierenden einfluß technologischer systeme gesprochen werden, der durch ein „evernet“ eine neue dimension der durchdringung erreichen würde und in einem gesellschaftlichen kontext entsteht, der seinerseits für eine stete technische fortentwicklung sorge trägt. Diesem einfluß kann daher aus einer skeptischen perspektive kaum durch bloße bewußtwerdung oder gutmenschliche direktiven einhalt geboten werden.

     Julienne pierce, mitglied der netzkünstlerinnen-gruppe VNS matrix, unternimmt in ihrem text über ubiquitous computing nicht nur eine kritische bewertung der neuen qualität ubiquitärer entwicklungen, sondern stellt am beispiel ihrer eigenen erfahrungen im netz fest, daß „es wichtig ist, neue technologien zu umarmen, ihre benutzung zu lernen und wie sie für die eigene zwecke zu manipulieren sind“ [j. pierce].

     Vielleicht stellt also die bewegung innerhalb der wechselwirkung von technik und gesellschaft einen gangbaren weg dar, sich sowohl mit den konfliktfeldern und auswirkungen auseinanderzusetzen als auch die möglichkeiten einer intervention praktisch testen zu können. Ein solcher ansatz soll im nächsten abschnitt am beispiel der praxis von steve mann vorgestellt werden.

[kapitelanfang] [titel] [inhalt] [referenzen]


 

7] ambivalenz (beispiel steve mann/elektronisch verstärkter körper)

     Seit zwanzig jahren beschäftigt sich steve mann mit der entwicklung direkt am körper getragener, elektronischer geräte. Diese „wearables“, die wie bereits erwähnt, eine variation ubiquitärer technologien darstellen, bezeichnet steve mann als „wearcomp“, ein „body area network“ aus von ihm selbst „getragenen“ , kontinuierlich erweiterten und verfeinerten informationsartefakten [s. mann]. Mit seiner forschungsarbeit ist er pionier und early adopter tragbarer computertechnologien.

     Mittlerweile umfaßt und erweitert seine ausrüstung die meisten körper-sensorischen funktionen, datenbrille mit display und eingebauten kameras und mikrofonen bis zu direkt mit dem körper verbundener biosensoren für herzfrequenzen, körpertemperatur, atmung und bewegung. Diese geräte sind mit einem miniaturcomputer verbunden, inklusive analog/digital-wandler und drahtloser verbindung zum internet. Aussenwahrnehmung und körperliche reaktionen können so aufgenommen, digitalisiert und ins netz transferiert werden.

     Im gegenzug ermöglicht die netzverbindung abruf und empfang von informationen wie emails, telefongesprächen und webseiten. Dabei geht es steve mann zwar auch um die teilhabe dritter an seinen aktivitäten, aber in erster linie um eine permanente elektronische dokumentation seines alltags und um den versuch, das „total vernetzte leben technisch und in allen anderen hinsichten zu testen“ [f.rötzer: realweltliche probleme].

     Steve mann wertet solche computerisierten netzwerke als „individual personal empowerment“, als stärkung des individuums angesichts einer fortschreitenden technisierung der umwelt: Gegen die künstliche intelligenz der maschinen setzt er „humanistische intelligenz“, verstärkt und erweitert durch technische geräte, die allein (!) der eigenen, persönlichen bedienung und kontrolle unterliegen und somit als informationelle waffen (info weapon) dienen [s. mann]:

     Steve mann „kämpft gegen das Panopticon, gesehen werden zu können, aber nicht selbst sehen zu dürfen. …Foucault verbindet ausdrücklich das Phänomen der Sichtbarkeit mit der Disziplinargewalt: ‚Disziplinargewalt… wird durch ihre Unsichtbarkeit ausgeübt, und zur gleichen Zeit wird den Untergebenen ein Prinzip zwangsweiser Sichtbarkeit auferlegt.‘ Überwachung als eine Form der Disziplinargewalt verwandelt Subjekte (Wesen, die einen Blick erwiedern können) in Objekte (Dinge, die nur angeglotzt werden)“ [h. cameron]

     Entsprechend setzt steve mann seine wearcomp-technologie zur selbstverteidigung gegen eine allgegenwärtige videoüberwachung ein, die er als ein angriff gegen das subjekt wertet und mit der verwendung seines persönlichen informationsnetzwerks zur gegenüberwachung beantwortet: In überwachten umgebungen wie geschäften und einkaufszentren, die mit videokameras ausgestattet sind, soll seine taktik des „shooting back“ die vorhandene überwachung und kontrolle demaskieren und problematisieren.

     Durch sein headset aus datenbrille und kamera und dem dokumentieren von überwachungsanlagen werden gegenreaktionen der mitarbeiter hervorgerufen - als kunde soll man sich zwar filmen lassen, ein filmen des kunden werde aber nicht toleriert. Steve mann hat entsprechende situationen dokumentiert und beispielsweise während der ars electronica 1997 vorgestellt.

     Zu steve manns experimenteller forschung kommt eine kritische intention, ohne daß er das spiel „für die gute“ oder „gegen die schlechte technologie“ mitzuspielen scheint. Er setzt zudem den gebrauch von technik nicht auf den hintergrund einer kritischen bewertung von technologisch-gesellschaftlichen entwicklungen, sondern nutzt die in der vielschichtigkeit von technik ebenso vorhandene option eines emanzipativen gebrauchs. Steve mann öffnet durch „shooting back“ einen handlungsansatz neben den antagonistischen modellen technophobie und technomanie, mit selbstkontrollierter technik geht er gegen kontrollierende technik vor.

     Aber macht sich steve mann die sache nicht zu einfach? Die abfolge schuß und gegenschuß mag zwar die situationsbedingte wahrnehmung von kontrollgesellschaftlichen entwicklungen schärfen, aber eine perspektive für veränderungen entwickelt sich daraus nicht [vgl. h. cameron]: Überwacher und kontrolleure, sofern diese überhaupt direkt erreicht werden können, mögen vielleicht durch diese gegenüberstellungen irritiert werden; "bekehren" lassen sie sich dadurch nicht. Steve mann's strategie basiert schließlich auf sehr „weichen“ annahmen: Überwachungstechnik muß erkennbar sein (wahrnehmbar bzw. abtrennbar von uns selbst und unserer umgebung), überwachung muß allgemeine ablehnung erzeugen, sobald sie öffentlich gemacht und ihre konsequenzen argumentativ oder performativ gebrandmarkt werden, und angesichts einer visuellen überwachung darf kein gewöhnungseffekt eintreten (d.h. auch nach dem soundsovielten hinweis muß noch eine kritische oder ablehende reaktion hervorgerufen werden können).

     Selbst wenn diese annahmen zutreffen sollten - ist nicht schon der ansatz naiv, auf einen charakter der technik als werkzeug zu setzen, das sich durch seinen gebrauch vom benutzer determinieren läßt?

     An einem anderen beispiel läßt sich aufzeigen, daß eine gegenstrategie des technischen empowerment bedrohungsszenarien nicht auflösen kann (oder dies gar nicht vorsieht): Kryptografie, also die verschlüsselung von nachrichten, bietet einen technischen schutz vor dechiffrierung, generiert aber einen vicious circle und neue, verbesserte methoden kryptografischer angriffe.

     Auf diese muß wiederum mit neuen oder erweiterten und damit sichereren chiffrierungsmethoden geantwortet werden, um weiterhin die geheimhaltung von informationen zu ermöglichen. Daraus lässt sich zwar in beruhigender weise die hoffnung gewinnen, daß es immer auch geeignete optionen der verschlüsselung geben wird, um persönliche und geheimhaltungsbedürftige informationen vor einer kryptoanalyse und somit einem mitlesen schützen zu können, aber die umstände, die diesen technischen schutz notwendig machen können (überwachung, spionage, mangelnder allgemeiner konsens zum schutz der privatsphäre etc.), werden weder spürbar verändert noch in ihrem kern thematisiert.

[kapitelanfang] [titel] [inhalt] [referenzen]


 

8] raum und schnittstellen

     Die wechselwirkungen von informationstechnologie und gesellschaft sind in diesem text bereits skizziert worden. Dabei wurde versucht, eine einschätzung zu gewinnen, wie entwicklung, anwendung und verbreitung elektronischer technologien auf die gesellschaftliche entwicklung einwirken und wie sich demgegenüber die optionen individuellen handelns darstellen.

     Darauf bezugnehmend wurde nach ansatzpunkten für eine kritische auseinandersetzung und einen emanzipativen gebrauch von elektronischen medien gefragt. Ebenso wurden kritische stimmen zur vision ubiquitärer informationstechnologien vorgestellt und die darin enthaltene befürchtung, daß die subjektive wahrnehmung der umwelt durch ubiquitäre informationsgeräte entscheidend verändert wird. Mit der praxis von steve mann ist ein beispiel beschrieben worden, das die antagonistischen modelle einer euphorischen bzw. per se ablehnenden bewertung vermeidet und stattdessen versucht, technische systeme sowohl anzuwenden und intensiv zu testen als auch in der anwendung eine kritische position zu beziehen.

     Im folgenden abschnitt werden auf zwei ebenen - interface und raum - weitere anknüpfungspunkte und entwicklungsfelder beschrieben, die für eine künftige technologische entwicklung von bedeutung sein werden. Unter dem stichwort „interface“ wird der schwerpunkt auf ein konkretes anwendungsfeld innerhalb elektronischer kommunikation gelegt: Die gestaltung und programmierung grafischer oberflächen und benutzerschnittstellen, die elementar die anwendung von informationstechnologien beeinflußen.

     Im darauffolgenden abschnitt „raum“ werden die räumlichen, physischen und digitalen strukturen und erötert, wie sich in ihnen die auswirkungen der informationstechnologien sowie eines künftigen „immer-und-überall-netzes“ abbilden.

[erste seite] [kapitelanfang] [inhalt] [referenzen]


 

8a] interface

     Die abstraktion von information erzeugt einen mangel an begrifflichkeiten. Der mangel wird versuchsweise durch die verwendung von metaphern kompensiert. Dieser ansatz eines sich-vertraut-machen mit neuartigen, fremden medialen effekten durch die entlehnung von begriffen aus anderen, vertrauten bereichen hat im kontext des internets eine reihe von bildlichen vergleichen hervorgebracht („surfen“ oder „datenautobahn“ ).

     Diese methode einer kognitiven kartografierung zeigt aber auch die engen grenzen. So ist schon das bild einer „datenautobahn“ , in der daten in zwei richtungen transportiert werden, für den multidirektionalen datentransfer im internet verfälschend und verbaut den blick auf die funktionen und strukturen im netz.

     Wie könnte aber eine bildliche aneignung erst aussehen, wenn ubiquitäre informationslandschaften entstehen? Wenn alltagsgegenstände und umgebung, aus denen die metaphern für elektronische phänomene entlehnt werden, teil eines immer-und-überall-netzes sind, gilt dann, daß „beim evernet die metaphern nun am ende“ sind? [k. lischka]

     An dieser stelle soll der frage nachgegangen werden, welche bedeutung eine symbolische repräsentation von informationen für den umgang mit elektronischen medien hat.


desktop

     Bedingung für die wahrnehmbarkeit von informationen und die benutzung mit elektronischen maschinen ist, wie oben bereits festgestellt wurde, die zumeist grafische schnittstelle zwischen mensch und maschine. Im xerox PARC labor wurde vor 25 jahren die grafische benutzeroberfläche für den personal computer entwickelt, die seit ihrer vermarktung durch apple und später insbesondere durch microsoft zum allgemein verbreiteten standard wurde und durch gnome und kde desktop auch in der welt der freien unixe verwendung findet.

     Dieses grafische interface baut auf drei prinzipien auf: Die einführung von mehrdimensionalität oder tiefe durch die verwendung der fenster-technik, die der gatesschen betriebssystem-familie „windows“ ihren namen gab und es ermöglicht, auf mehreren ebenen anwendungsfenster nach bedarf auf der bildschirmoberfläche zu arrangieren und so auf mehrere informationsebenen zugreifen zu können. Zweitens beruht das interface auf einer hierarchischen speicherung von anwendungsdaten und programmdateien in ordnern und laufwerken. Schließlich beruht es auf der visuellen darstellung der daten durch die entlehnung der bilder eines büro-alltags: Die bildschirmoberfläche entspricht der oberfläche einer schreibtischplatte. Darauf angeordnet werden dokumentenordner und verweise - in form von piktogrammen (icons) - auf die verschiedenen funktionalitäten des computers und der installierten software-programme, wie „drucken“, „texte schreiben“ oder „musik hören/editieren“ .

     Die desktop-metapher gibt es seit der einführung des ersten desktop-rechners von apple im jahre 1984. allein die grafische darstellungsqualität hat sich in dieser zeit von einer spröden und pixeligen 8-bit-farbigkeit (256 farben und aufrasterungen) zu einer perfektionierten, „natürlicheren“ ansicht mit animationen, farbverläufen und schattierungen sowie einer farbpalette, die eine million verschiedener farbnuancen umfaßt, verbessert. Das grundprinzip aber ist das gleiche geblieben: Die analogie zu einer individuellen büroausstattung mit schreibtisch, werkzeugen und aktenordnern.

     Durch die verwendung dieser analogie sollte es auch für unbedarfte nutzer möglich werden, mit einem computer zu „interagieren“ : „Die metaphern würden die erfahrung des benutzers intuitiver machen, und die spielerischen, lebhaften grafischen metaphern ließen die vorstellung, mit einem computer zu arbeiten, weniger einschüchternd und furchterregend erscheinen. Wenn man an einem schreibtisch sitzen und papiere hin und her schieben kann, kann man auch die maschine benutzen“ [s. johnson, s. 60f].

     Gleichzeitig hebt dieser „tauschhandel der imagination“ [s. johnson] am deutlichsten die funktion des computers als medium hervor, als vermittler zwischen den digitalen strukturen und dem rezipienten: „Der computer ist ein medium! Ich hatte ihn mir immer als ein werkzeug und vielleicht ein vehikel vorgestellt. (...) Wenn der pc tatsächlich ein wahrhaft neues medium (war), dann würde seine benutzung tatsächlich die denkmuster einer ganzen generation verändern.“ [alan kay, zit. nach s. johnson, s.62]

     Die analogie zur büro-welt hat bis heute bestand, weil sie die hemmschwelle im umgang mit computern niedrig hält und wirklich einen erleichterten zugang bietet. Je weiter sich aber die funktionalitäten der computer erweitert haben - durch multimedialisierung und insbesondere durch vernetzung, also der nahtlosen einbindung in größere verbünde aus anderen rechnern und informationskanälen und damit die erweiterung des datenraums über den eigenen rechner hinaus - desto mehr zeigen sich die schwächen dieses visualisierungskonzepts.

     Allein das „starre system der dateien und verzeichnisse“ [d. gelernter] verhindert einen freien und intuitiven umgang mit daten. [ 22 ] Schwerwiegender aber als die mühsal, sich gedanken um dateibenennung und -sortierung zu machen, ist die nur scheinbar realitätsnahe analogie zur schreibtischarbeit. Mag diese für verwaltungsvorgänge und das erfassen klassisch-linearer texte an einem stand-alone-rechner noch akzeptabel sein, wird sie für andere benutzungsfelder, wie beispielweise die sammlung von auf dem eigenem rechner und im netz verteilten mp3-dateien und anderer, großer datenmengen oder das erstellen von hypertexten zusehends unbrauchbar.

     Durch den filter „desktop-metapher“ entsteht eine „domestizierung des pc“ [s. johnson], welcher den zugriff auf die theoretisch unbegrenzten funktionalitäten einer digitalen, vernetzten maschine eingrenzt und harmonisiert sowie eine tiefergehende auseinandersetzung mit funktionsweise und funktionsvielfalt vermeidet. Neuere betriebssysteme versuchen zwar, durch einige kosmetische korrekturen, den desktop enger mit dem internet zu verknüpfen und ihn etwas „verspielter“ zu gestalten, es ist aber derzeit nicht absehbar, daß sich die betriebssystemproduzenten von dem etablierten konzept verabschieden werden.

brauchbarkeit

     Ein vielfältigerer blick ist dabei schon durch das eine fenster des internet-browsers möglich. Relativ unabhängig von den restriktionen einer staubigen büroatmosphäre erlaubt der browser einen weniger determinierten zugang zu den informationsstrukturen des world wide web.

     Dabei bieten die herkömmlichen browser wie der internet explorer von microsoft nur eine mögliche sichtweise an. Das zeigt exemplarisch die 1998 von dem projekt I/O/D entwickelte browser-alternative webstalker auf. [www.backspace.org/iod]

     Der spröden, minimalistischen ästhetik eines radarbildschirms ähnlich, wird beim webstalker auf die wiedergabe von web-grafiken vollständig verzichtet und stattdessen der reine datenstrom aus html und text freigelegt. Als visuelle information baut sich ein detailliertes bild der links und verknüpften daten einer aufgerufenen website auf. Läßt man sich auf diese ungewohnte darstellung ein, kann man durch sie die vielschichtigkeit und struktur der webdaten erforschen. Auch wenn mit dem webstalker keine breitenwirksame alternative entstanden ist, kann er als ein statement angesehen werden, das die visuelle dominanz der etablierten browser in frage stellt. [ 23 ]

     Betrachtet man die große vielfalt an websites, die im netz abgelegt sind, zeigt sich eine große bandbreite an visuellen und textuellen formen, inhalte und informationen darzustellen. Eine hermetische einschränkung, wie man sie dem derzeitigen grafischen konzept der benutzeroberflächen vorwerfen kann, ist hier in dieser dominanz nicht zu finden - auch wenn die prägung durch die desktop-metapher durch die übernahme von versatzstücken und derviaten im webdesign ihren nachhall findet.

     Seit dem aufkommen von html und dem design von webseiten findet eine auseinandersetzung über die intention der gestaltung von benutzerschnittstellen statt: Soll eine oberfläche mit dem ziel einer möglichst optimalen nutzerfreundlichkeit angelegt werden, um dem nutzer orientierung und navigation zu vereinfachen, dann muß das design nach den prinzipien von vertrautheit und gleichförmigkeit angelegt sein. (die menüleiste muß an der gleichen stelle zu finden sein, usw.)

     Die umsetzung einer solchen homogenisierung ist insbesondere bei größeren, kommerziellen websites nach dem credo „keine experimente!“ zu finden. Demgegenüber findet sich der aufruf, die vielfältigen möglichkeiten des screendesigns zu nutzen, um mit unerwarteten, experimentellen visualisierungen nicht nur die (seh)gewohnheiten des nutzers aufzubrechen, sondern auch einen eindruck von der vielschichtigkeit internetbasierter kommunikation zu vermitteln:

     Unsere aufgabe als gestalter ist es, systeme zu entwickeln, die bilden. ich glaube, daß wir am scheitelpunkt einer re-definition des mediums (web) stehen, wo standards ins spiel kommen, technologien weiterhin gedeihen (…) - wir sitzen vermutlich auf etwas, das unglaublich viel größer ist, als wir immer dachten.“ [joshua davis, in de:bug 42, übersetzung von mir]

     Mit dem begriff "schnittstelle" ist daher nicht nur die ästhetische gestaltung der benutzeroberfläche im sinne von „screendesign“ zu verstehen, die einen visuellen ausdruck der angebotenen inhalte und aktionen vermitteln soll. Mit schnittstelle im weiteren sinne sind auch die anlage einer speicherstruktur, der zugang zu den gespeicherten informationen und die implementierung interaktiver funktionalitäten gemeint.

     Das wissen über die möglichkeit einer architektur von informationen, die programmierung von skripten und web-basierten applikationen (zumindestens soweit, daß bestehende applikationen übernommen und angepaßt werden können) ist deshalb genauso entscheidend wie deren visualisierung. Eine entsprechende konvergente anwendung könnte vermeiden, daß betrachter ausschließlich konfrontiert „mit einer traurigen wahl zwischen innovativen sites mit monotonen oberflächen und gut aussehenden sites mit einer konservativen informationsstruktur“ [f. stalder: re: disassociate] werden.

     Um ein beispiel zu vorzustellen: Das web-basierte projekt indymedia [ 24 ] ist im kontext der politischen basis-bewegung gegen eine „globalisierung des kapitals“ entstanden, die allgemein durch die internationalen protestaktionen in seattle (1999) und genua (2001) sichtbar wurde. In vielen ländern von australien bis israel gibt es indymedia-projekte, die im netz nachrichten- und diskussions-plattformen anbieten.

     Diese plattformen erfahren auch außerhalb ihres unmittelbaren bezugsfelds große wahrnehmung. Die inhalte werden kollaborativ erstellt und im netz veröffentlicht. Es gibt keine explizite trennung zwischen einer redaktion und den rezipienten, jeder kann nachrichten für indymedia produzieren.

     Diese spezifische und erfolgreiche nutzung des webs als politisches medium orientiert sich bei der visualisierung von informationsstrukturen an etablierten, hierarchischen mustern, wie beispielsweise durch einen top-down-bildschirmaufbau („neues“ und „wichtiges“ zuerst) und einer ordnenden struktur nach festgelegten unterbereichen. Solche strukturierungen sind weitgehend identisch mit den websites großer, kommerzieller medienunternehmen wie CNN. [ 25 ]

     Auf der visuellen ebene ähneln sich diese screendesigns auf frappierende weise, die deutlich unterschiedliche intention in der informationsproduktion und -distribution läßt sich allein auf der textlichen ebene erkennnen.

     In dieser hinsicht präsentieren sich die indymedia-plattformen zwar als interaktiv und partizipatorisch im sinne eines „offenen postings“ und einer aufhebung der trennung von produktion und konsumtion. Dies geschieht aber auf grundlage der struktur und visualisierung eines hermetischen mediums, das überschneidungen, interferenzen und rekombinationen der inhalte durch den direkten einfluß aller beteiligten nicht zuläßt.

     Eine solche kritik an interface-gestaltungen soll nicht einen der besonderen effekte des world wide web - als das visuelle medium im internet - herunterspielen: Durch die leicht erlernbare anwendung von HTML sowie die verfügbarkeit von günstigem webspace kann heute jeder, der über computer und netzzugang verfügt, zum produzenten von eigenen webinhalten werden, eigene informationsräume im netz zur erstellen und somit öffentlich machen.

     Eine solche „demokratisierung des interface-designs“ [s. johnson] sollte aber nicht bei dem design perfekter, innovativer oder origineller oberflächen stehen bleiben und die darunter liegende programmierung ignorieren. Und es sollte sich auch nicht nur auf die produktion interessanter inhalte konzentrieren, sondern ebenso dafür sorgen, daß diese nicht durch starre, herkömmliche visualisierungsformen überdeckt werden.

post-pc

     Der zusammenhang von inhalt und visualisierung gewinnt zunehmend an bedeutung. Do wird es bei dem design von schnittstellen künftig nicht mehr ausschließlich um die wiedergabe auf computer-monitoren gehen. Dies wird neue fragestellungen aufwerfen, die bei den ersten ubiquitären gerätegenerationen, wie web-tv, pdas und hypride mobiltelefone bereits erkennbar sind: Diese geräte haben eigene, spezifische und in erster linie beschränkende charakteristika, ihre darstellungsqualitäten sind mit denen eines computer der 80er jahre vergleichbar. [ 26 ]

     Hinzu kommt, daß für diese geräte nicht automatisch offene produktionsstandards wie html, xml oder css zum einsatz kommen. In der regel gelten hier die klar reglementierten produktionsbedingungen der hersteller oder netzbetrieber.

     Der begriff der interfacegestaltung muß also erweitert werden auf die gestaltung neuer schnittstellen, deren charakteristika und programmierbarkeit, den zugriff auf protokolle und standards und das verhältnis des interface zu den strukturen in denen es zu verorten ist. empathischer formuliert dies geert lovink:

     Wir könnten die initiative übernehmen und den gegenwärtigen trend in richtung einer gemütlichen unbenutzbarkeit in frage stellen. Webdesigner könnten sich das netz aneignen, zum beispiel durch ein kritisches engagement in open source software, peer-to-peer-architekturen und durch ein frühes einmischen in die standardisierungen für mobile (…) anwendungen“ [g. lovink: disassociate webdesign, übersetzung von mir]

     Zusammenfassend sind hier drei problemstellungen benannt worden, die auch für die anwendung von noch nicht etablierten elektronischen medien von bedeutung sein werden:

Mit der gestaltung von schnittstellen können die fähigkeiten elektronischer geräte erheblich beeinflußt werden, so durch die verwendung metaphorischer systeme wie der büro-analogie gegenwärtiger grafischer benutzeroberflächen.

Anwendungen, die von ihrer struktur und intention innovative aspekte aufweisen, dürfen ihre visuelle verkörperung nicht vernachlässigen oder diese durch die unreflektierte adaption etablierter ästhetischer gestaltungsmuster einschränken. Die reflektion über die strukturen und die wahrnehmung eines mediums ist entscheidend, um die anwendung nicht den beschränkungen einer starren konvention zu unterwerfen.

Um dieses vorgehen zu ermöglichen, bedarf es eines offenen zugriffs auf die netzstrukturen eines mediums und eine einmischung bei der entwicklung von standards und protokollen.

     Für das world wide web ist letzteres möglich, da domains, webspace und das einrichten eigener server im großen und ganzen nicht nur kommerziellen körperschaften vorbehalten sind, sie werden stattdessen für den anwender-markt vermarktet. Bei anderen netzstrukturen, wie den mobilfunknetzen, ist dies nicht der fall. Diese werden jeweils von einigen wenigen telekommunikations-konzernen seperat betrieben, ihre benutzung wird von ihnen reguliert.

     Diese regulierung erlaubt zwar die produktion von eigenen inhalten (sms, wap), aber nur unter den nicht beeinflußbaren bedingungen der betreiber. „die wirkliche frage dreht sich um software, standards und design“ [g. lovink], also um die strukturen und bedingungen unter den medienkommunikation stattfinden kann.

     Denn wenn sich die ubiquitären vorstellungen konkretisieren sollten, ist für die industrie bereits klar, wer auch künftig die infrastrukturen kontrollieren soll; hier dokumentiert am beispiel des größten deutschen betreibers von netzstukturen, der deutschen telekom ag:

     Im jahr 2010 werden informationen und daran gekoppelte dienste den menschen überall, zu jeder zeit in einer einfachen, situationsangepaßten und personifizierten form angeboten. Die technische plattform zur bereitstellung der dienste wird von der deutschen telekom ag für den kunden transparent angeboten werden
[wolfgang noszek, dt. telekom, www.aifb.uni-karlsruhe.de/AIK/aik_08/index.html].

[kapitelanfang] [titel] [inhalt] [referenzen]

 


 

8b] raum

     Zu anfang dieses textes wurde beschrieben, wie digitale strukturen und insbesondere das internet in abgrenzung zu einer „hiesigen welt“ begriffen werden und daß diese abtrennbarkeit durch eine weitere technische durchdringung zusehends in auflösung begriffen ist. Es wurde auch geschildert, daß sich - bedingt durch eine wechselwirkung zwischen elektronischen informationstechnologien und medien und der gesellschaftlichen entwicklung - deutliche ökonomische und soziale veränderungen herleiten lassen, daß also eine durchdringung auf diesen ebenen bereits stattfindet.

     In diesem abschnitt soll der fokus auf die räumlichen bedingungen digitaler strukturen gerichtet werden. Die definition als raum, ausgehend von dem begriff „cyperspace“ , ermöglicht das verständnis gesellschaftlicher prozesse, die sich in die digitalen strukturen einschreiben. Davon ausgehend sollen die wechselwirkungen beschrieben werden, die sich durch die einwirkung ubiquitärer technologien ergeben.

     Derzeit lassen sich die räumlichen bedingungen digitaler räume am deutlichsten am internet beobachten. Mit den internet-basierten kommunikationsformen wurde immer auch eine reihe von (wunsch)vorstellungen verbunden. In diesem zusammenhang ergibt sich die frage, inwieweit sich entsprechende vorstellungen realisieren konnten:

     Ist das netz resistent gegen regulierung, ökonomische verwertungslogik und „reale“ machtstrukturen? Reichen diese eigenschaften der resistenz, um aus der „virtuellen welt“ eine bessere zu machen? Oder sind offener zugang zu informationen und eine „many to many“ kommunikation illusion? Erfährt das internet nicht bereits seit einiger zeit eine erfolgreiche transformation zu einer „digitalen reihenhaussiedlung“ samt ausgewiesener nischen des experiments?

     Virtuelle räume unterliegen ebenso wie „reale“ räume gesellschaftlichen prozessen. Diese prozesse sind nicht direkt abgleichbar, aber elektronische räume allein aufgrund ihrer abstraktion und ihrer spezifischen technischen bedingungen zu bewerten, erlaubt nicht die annahme, eine entkoppelte, völlig losgelöste situation vorzufinden.

     Der virtuelle raum wird durch die erschaffung, nutzung und somit veränderung durch den menschen zu dem, was er ist oder zu sein scheint. der „elektronische raum ist eingebettet in größere, gesellschaftsorgasnisierende prozesse“ [saskia sassen, the topoi of e-space].


regulation

     Die bedingungen des elektronischen raums sind spätestens durch den boom der internet-basierten kommunikation seit mitte der 90er jahre in veränderung begriffen: Nachdem die erste entwicklungsphase des internet mit seinen ungeordneten, „freien“ eigenschaften abgeschlossen scheint, fokussiert sich seitdem die entwicklung auf die wirtschaftliche nutzbarmachung und die „kontrolle der informationsströme.“ [f. stalder] Das netz ist auch das netz einer global agierenden ökonomie, kommunikationskanäle dienen gerade auch hier der vernetzung und des schnellen informationstransfers. [siehe s. sassen]

     Die zugänglichkeit und verteilung von informationen, innerhalb des netzes anfänglich praktisch unreglementiert, ist so verstärkt der bestrebung einer gewinnbringenden verwertung ausgesetzt. Der erfolg einer solchen verwertung würde aber voraussetzen, daß die verteilung von inhalten unter dem einfluß und der kontrolle der vermarkter und distributoren geschieht und inhalte nicht frei und umsonst verteilt werden können.

     Nichts ist aber im internet einfacher, schließlich ist diese kommunikationstechnologie mit der intention entwickelt worden, einen wechselseitigen, freien informationsfluss zu garantieren [vgl. r. barbrook: das utopische moment]. So ermöglichen die elementaren eigenschaften des netzes die einfache und verlustfreie erstellung von beliebig vielen „originalen“ und deren verteilung über die netzstrukturen der internet-dienste.

     Die anwendung einer klassischen wertschöpfung innerhalb von vernetzten umgebungen muß deshalb abgesichert werden, soll sie erfolgreich sein. Aus diesem grund wird verstärkt versucht, durch erweiterungen und verschärfungen des urheberrechts und spezieller mediengesetze, flankiert durch technische kontroll- und sicherungsmaßnahmen (digital rights management), den freien informationsfluss zu regulieren. Diese bestrebung einer juristisch und technisch abgesicherten privatisierung von informationen führt zu dem gewalttätigen versuch, die grundlegenden charakteristika der vernetzten informationsverarbeitung einer künstlichen beschränkung zu unterwerfen.

     Eine interessante rolle bei diesen bestrebungen spielt die musikindustrie. Nach dem sie die jahrzehntelang in ruhe ihre märkte ausbauen, durch perfektionierte adaptionsmechanismen neue musikströmungen auch noch so rebellischer subkulturen absorbieren und durch neue vertriebsformen wie die der musik-cd die wertschöpfung optimieren konnte, wurde sie durch die veränderten bedingungen des internets nachhaltig überrumpelt. Aus der digitalen kopierbarkeit von musikstücken, der verwendung effektiver komprimierungsverfahren wie mp3 oder ogg-vorbis und vor allem aus der freien distribution der musikstücke über dezentrale filesharing-systeme [ 27 ] konnte sich in den letzten jahren eine weit verbreitete kultur des tauschens entwickeln.

     Nachträglich wird nun von der industrie durch die entwicklung technischer kopierschutzvorrichtungen und die verschärfung internationaler gesetze versucht, diese phänomene einzudämmen und die einnahmequellen auch unter den veränderten bedingungen einer netz-basierten technischen reproduzierbarkeit zu sichern.

     Diese maßnahmen der regulation und einschränkung betreffen auch alle anderen arten kultureller produktion, mit der konsequenz, daß „schrittweise der freiheitsgrad der distribution, aber auch der meinungsäußerung, der gestaltung von privatspäre wie auch dem teilen von wissen zugunsten eines marktes“ eingeschränkt wertden [pit schultz]. Dieses vorgehen entspricht der offensichtlichen einschätzung, daß das internet in seiner jetzigen, unregulierten form der „feind des marktes ist, weil es den usern selbst zu viele freiheiten läßt, sich kollektiv in eigenem interesse zu organisieren“ [pit schultz], anstatt fertige produkte zu konsumieren.

     Diese freiheiten, die ja im prinzip auch von der wirtschaft im sinne einer freiheit der verwertung gewollt sind, führen bei dem bestreben nach einer ökonomisierung und deren absicherung immer wieder zu „krisen“. Neben dem problem der musikindustrie ist ein weiteres beispiel auf dem feld der drahtlosen datenübertragung zu beobachten:

     Mit UMTS wurde von der industrie eine technologie konzipiert, die die derzeitigen übertragungsstandards der mobiltelefonie ablösen soll, um den erweiterten anforderungen vernetzter, mobiler kommunikation - wie bandbreite und vielseitige verwendung - entsprechen zu können. Für die exklusive lizensierung von UMTS-sendefrequenzen mußten die telekommunikations-konzerne vor zwei jahren unsummen ausgegeben.

     Somit würden zwar die auf UMTS aufsetzenden kommunikationsdienste ihrer unmittelbaren kontrolle unterliegen, nach derzeitiger einschätzung ist das vermarktungspotenzial jedoch so gering, daß sich in absehbarer zeit die enormen investitionen für lizensierung und aufbau der netz-infrastuktur nicht amortisieren werden. entsprechend stagniert die entwicklung dieser technologie.

     Gleichzeitig findet die kostengünstige wireless-lan-technologie (wlan oder wifi genannt) große verbreitung, vor allem weil die dafür reservierten frequenzen lizenz- und genehmigungsfrei von „jedermann“ genutzt werden können - und auch genutzt werden. In einigen ländern und städten haben sich basis-initiativen gebildet, die ihre stadtteile mit wlan-stationen vernetzen und so kostenlose und unabhängige zugänge zur verfügung stellen. [ 28 ]

     Anhand solcher beispiele läßt sich vermuten, daß die geradlinigen strategien der regulation und vermarktung mittelfristig nicht greifen können, trotz oder gerade wegen des versuchs, informationen auf traditionellem wege zu vermarkten und aufgrund der strukturellen eigenschaften netz-basierter kommunikation.

     Gleichzeitig wäre hier der frage nachzugehen, inwiefern nicht auch der kollektive aufbau unbeschränkter verteilungswege (filesharing) und netzzugänge (wlan) ausreichend nutzbar ist für eine ökonomische verwertung, sei es in form periphärer dienstleistung oder in form der adaption? Was kann einem verwertungssystem, das den hyperdynamischen entwicklungen nicht (mehr) voraus sein kann, besseres widerfahren, als aktive konsumentinnen, die ihre strukturen selber aufbauen oder besser funktionierende technologien entwickeln und erproben? [ 29 ]

     Wie auch immer diese fragen zu beantworten sind, sie sind bei einer beobachtung und bewertung künftiger ökonomisierungsbestrebungen mitzudenken.

     Doch solange der wirtschaftliche mainstream den direkten weg wählt, sind die weiteren auswirkungen vehement: Nach pit schulz müssen entsprechend der herkömmlichen verwertungslogik die bemühungen der absicherung intensiviert und „milliarden für kontrolltechnologien ausgegeben, die umgangen werden können, ob illegal oder nicht“ [pit schultz]. Diese strategie würde somit ähnliche wege einschlagen, wie die einer aufwendigen und sinnlosen - da in der konsequenz erfolglosen - bekämpfung des drogenhandels und -konsums.

     Die benutzung elektronischer kommunikationsformen wäre reguliert und kontrolliert, eine freie verteilung von information würde zunehmend kriminalisiert, aber trotz aller restriktiven maßnahmen nicht zu verhindern. Softwarepolitik würde durch dieses vorgehen zur „drogenpolitik“ [pit schultz], freie informationen bekämen den charakter eines verbotenen stoffes, der aber immer über klandestine kanäle verbreitet werden kann. Der normale nutzer elektronischer kommunikationsformen wäre aber künftig auf den legalisierten und normierten schluck aus der flasche angewiesen.

elektronischer suburb

     Wie kann die wechselwirkung zwischen freiheitlicher bestrebung und wiedererlangung der kontrolle, von de-regulierung und einer re-deregulierung auf der basis der raum-metapher beschrieben werden? Markus schroer vergleicht die räumliche entwicklung des internets mit der historischen eroberung der weltmeere. Mit bezug auf virilio stellt er dabei fest, daß „der aufbau des elektronischen raums aus einer krise des realen raums resultiert.“ der cyberspace verspricht eine begegnung, mit dem neuen und unbekannten, eine begegnung welche in einem weitgehend erforschten und normalisierten „realen“ raum nicht mehr möglich scheint [vgl. m. schroer].

     Das netz dient daher trotz bereits greifender regulierungsbestrebungen nicht nur als ein neuer, zu erobernder raum, sondern auch weiterhin als projektionsfläche für einen egalitären und „besseren ort“ , in dem sachzwänge und machtstrukturen der „realen“ welt scheinbar zurückgelassen werden können:

     „Wo wir uns versammeln, besitzt ihr keine macht mehr“ , schrieb john perry barlow in seiner vielzitierten „unabhängigkeitserklärung des cyperspace“: Offener und gleichberechtigter zugriff auf die kommunikationsstrukturen, vernetzung und kommunikation über die grenze von ethnischen und sozialen subszenen, städten, ländern und kulturen hinaus gelten als greifbar gewordene utopie.

     Diese utopie selbst sorgt für eine beständige erforschung und ausdehnung des elektronischen raums. Markus schroer zufolge sind es aber „die aktivitäten der user selbst, die den unbekannten, weiten raum immer mehr in einen (…) überschaubaren raum verwandeln“ . die entdeckung eines unbekannten raums erzeugt den bedarf, den unbekannten raum überschaubar und übersichtlich zu machen, was wiederum zu einer „zunehmenden kartografierung und grenzziehung im raum führt“ [m. schroer].

     Da der elektronische raum unbegrenzt ausdehnbar ist und nicht wie die weltmeere eines tages als bekannt und erforscht betrachtet werden kann, ergibt sich daraus eine „permanente bewegung von entgrenzung und begrenzung, von grenzaufbau und grenzabbau“ [m. schroer]. Raum verliert im zuge dieser bewegung seine unmittelbare funktion als machtkonstituierende konstante, er entsteht und verändert sich durch seine benutzung.

     Insofern stellt das netz zwar eine „verflüssigung“ auch von machtstrukturen dar, aber nicht deren aufhebung. pessimistisch formuliert bedeutet dies eine gesteigerte unsichtbarkeit hierarchischer strukturen, einhergehend mit schwindenden optionen, diese sichtbar zu halten und kritisieren zu können: „Merkmal der Netzwerkorganisation der Gesellschaft ist nicht die Vernichtung von Hierarchie, sondern eher eine auf die Spitze getriebene Flexibilisierung von Hierarchie und Mobilität von Positionen, verbunden mit der Haltung, nicht direkt (disziplinierend) herrschen zu wollen, die auf der anderen Seite auf eine ‚Kunst nicht derart regiert zu werden‘ (Foucault) trifft. Die Netzwerkgesellschaft ermöglicht es, Macht entsprechend flexibler Muster zu transformieren“ [t. mielke].

     Das netz ist dementsprechend nicht hierarchielos oder frei von machtstrukturen, es ist aber auch bislang nicht vollständig regulierbar: Im netz gibt es entwicklungen oder bereiche, die sich einer unmittelbaren regulation entziehen oder diese zumindestens erschweren; sei es weil sie sich innovativer, dezentraler netzkonzepte bedienen, wie im beispiel filesharing oder wlan, oder weil sie für eine vermarktung oder regulation uninteressant scheinen wie der internet relay chat oder die newsgroups des usenet.

     Betrachtet man aber die zunehmende konformisierung und kommerzialisierung des informationsangebots und die häufig anzutreffende reduktion der vielfältigen nutzungsarten des internet auf die simple nutzung von email und world wide web und innerhalb des webs auf immer weniger websites, drängt sich das bild eines bereits domestizierten raums auf. Vielleicht hat der realweltliche einfluß das netz bereits soweit strukturiert, daß von einem „elektronischen suburb“ [l. manovich], von „digitalen reihenhaussiedlungen“ [de:bug] nebst „virtuellen einkaufszentren“ gesprochen werden kann? Die spannenden orte, in denen die ideen früher netzkulturen, wie offenheit und gemeinschaftlichkeit, aufrechterhalten werden, wären dann die reservationen des experiments, im schlimmsten fall ein freiland-innovationslabor für eine ineffizient gewordene old economy?

     Während ein kleiner teil des netzes für humanistische zwecke genutzt werden kann und dem widerstand gegen autoritäre strukturen dient, ist das netz als ganzes alles andere als humanistisch. Ebenso wie wir einen unregulierten szene-stadtteil nicht als repräsentativ für eine ganze stadt ansehen würden, können wir die kleinen, freien zonen im netz nicht als repräsentativ für ein digitales imperium bewerten“ [critical art ensemble, zit. nach j.pierce. übersetzung von mir].

So greifbar nah diese einschätzung sein mag, so sehr nährt sie sich von dem glauben an die allmacht des kapitalistischen systems, welches sich nicht nur deregulierte nischen leisten kann, sondern dem alle entwicklungsmomente einer gesellschaft unterliegen.

     Die ökonomie hat zwar eine hegemoniale position inne und versucht diese dominanz auch auf den elektronischen raum auszuweiten. Aber ihr unterliegt gerade hier, wie am beispiel der tauschkultur im netz beobachtbar, nicht das moment der handlung. Bezogen auf das verhältnis von immaterieller arbeit und deren verwertung kann deshalb festgestellt werden:

     Der kapitalistische unternehmer (produziert) weder die formen oder inhalte immaterieller arbeit, noch ist er innovativ. Was bleibt, sind möglichkeiten, in die betätigung immaterieller arbeit als kommando oder regulation einzugreifen, oder der versuch, die kommunikations- und informationstechnologien technisch zu kontrollieren“ [m. lazzarato, s. 63f]

     Gerade deshalb sollte, so der vorschlag von saskia sassen, die wahrnehmung elektronischer strukturen verstärkt auf aspekte wie auseinandersetzung und widerstand konzentriert werden, als auf vereinfachende bilder wie freiheit oder interconnectivity. [vgl. s. sassen, the topoi of e-space, s. 32]

 

interpenetration

     Welche auswirkungen hat das einschreiben realweltlicher bedingungen in den elektronischen raum, wenn dieser im gegenzug den „realen“ raum durchdringt oder sich als „virtuelle schicht“ über ihn legt? Markus schroer spricht von einer gegenseitigen durchdringung, einer „interpenetration“ und von einem vielschichtigen verhältnis der mehrfachnutzung und mehrfachcodierung.

     Eine solche überlagerung des raums geschieht bereits durch die verbreitete nutzung der mobiltelefonie:

     Die verwendung von mobiltelefonen im physischen raum erzeugt im moment ihrer verwendung einen temporären raum, der sich als „cellspace“ [ 30 ] bezeichnen läßt [david bennahum, siehe m. wark]. Ein physischer raum kann sich so jederzeit und überall in seiner bedeutung verändern: Indem er den raum temporär in einen raum für zwei verwandelt - den anwender und sein mobiltelefon - und verbindungen zu ganz anderen, entfernten orten herstellt.

     Unabhängig vom momentanen aufenhaltsort, kann jeder physische raum durch cellspace privatisiert werden. Auch wenn weitere und „intelligente“ ubiquitäre geräte erst in der entwicklung sind, durch die mobiltelefone ist dieser zelluläre raum bereits funktionsfähig. „cellspace ist der krebs der kommunikation. Er infiltriert jede art von raum mit daten, die unabhängig von ihrer form gesendet und empfangen werden, während der anwender in bewegung ist“ [m. wark, übers. von mir].

     Das phänomen temporärer und mobiler „cellspaces“ und die etwas morbide zuspitzung als „cellcancer“ spricht, neben dem widerstreit von öffentlichkeit und deren privatisierung, eine weitere ambivalenz an: die gleichzeitigkeit eines service-angebots - also der unterstützung, verstärkung und erweiterung von fähigkeiten - sowie der immanenten möglichkeit der überwachung [vgl. l. manovich]. Ein mobiltelefon beispielsweise ermöglicht nicht nur die ortsungebundene, jederzeitige kommunikation, es ist gleichzeitig ein mobiles überwachungsgerät, welches freiwillig mit sich geführt wird.

     Es erlaubt, informationen über den gegenwärtigen standort und die aktionen, die mit dem mobilen kommunikationsgerät ausgeführt werden, zu ermitteln [siehe u.a.: r. barbrook u.a.: mobile manifesto]. Die bedeutung eines sich ausbreitendenden phänomens „cellspace“ enthält so auch den aspekt einer ubiquitären überwachbarkeit.

 

dataveillance

     Digitale räume sind in teilen auch das, was als „öffentlicher raum“ bezeichnet allgemeine, gemeinsame nutzbarkeit und interaktion bedeuten soll. Die idealerweise unbeobachtbare und somit freie, unreglementierte nutzung eines solchen „öffentlichen“ raums wird durch eine leichte überwachbarkeit in frage gestellt: Jede aktion hinterläßt in den logfiles automatischer geräte personalisierbare spuren und pfade und erlaubt ein profiling der benutzerdaten.

     Zwar werden sich solche kontrollmechanismen, die auf die nutzung von netzbasierten kommunikationssysteme einwirken, prinzipbedingt immer durch geeignete technische gegenmaßnahmen der anonymisierung, datenverschleierung und -manipulation umgehen lassen. Je ausgefeilter, verbreiteter und alltäglicher die datensammelnden mechanismen im netz jedoch werden, desto marginaler wird der kreis an „wissenden“ werden, die den umgang mit den entsprechenden gegentechniken beherrschen, um sich anonymität zu sichern.

     Weitaus schwieriger umsetzbar wird dieser schutz in einem „öffentlichen“ raum der „realen“ welt, der durch videokameras überwacht wird - steve mann versucht durch seine praxis darauf hinzuweisen. Videoüberwachung erfährt in den letzten jahren eine enorme verbreitung, aufgrund seiner offensichtlich konsensfähigen definition als mittel zur kriminalitätsbekämpfung und zur steigerung eines „subjektiven sicherheitsgefühls“ . [ 31 ]

     Die visuelle überwachung wird im zuge eines weiteren ausbaus und einer vernetzung der überwachungsgeräte neue, nämlich ubiquitäre, eigenschaften erhalten. In kombination mit automatisierten biometrischen verfahren [ 32 ] können benutzer des „öffentlichen“ raums identifiziert und deren bewegungen ausgewertet werden. Dies ermöglicht so wahlweise die analyse von konsumverhalten [vgl. h. farocki] oder verdächtiger - weil nicht erwartungsgemäßer - verhaltensmuster. [ 33 ]

     Daten-profiling und eine automatisierte „dataveillance“ [vgl. g. elmer, s.67] zur erforschung und überwachung individueller verhaltensweisen sind nach greg elmer der „versuch der überwindung des unbekannten und des unvermögens, verhalten, denken, sprache und handeln adäquat zu erfassen, einzudämmen und zu regulieren“ [g. elmer, s. 66].

     Drastischer formuliert erzeugt „die wachsende globale interaktivität zunehmend die notwendigkeit einer panoptischen und totalitären sichtbarkeit“ [p. virilio]. Analog dazu werden in einem künftigen evernet „sicherheit, privatheit und identität handelbare güter“ [g. mueller].

     Damit findet unter kontrollgesellschaftlichen vorzeichen [vgl. g. deleuze] eine weitere überlagerung des raums statt, indem die „überwachungstechnologien den physikalischen raum und seine bewohner in daten“ [l.manovich] übersetzen und somit sichtbar machen. [ 34 ]

     Zusammenfassend läßt sich festhalten, daß der elektronische raum schauplatz einer auseinandersetzung ist, die geprägt ist von de-regulierung (ausweitung des raums) und re-deregulierung (wieder-eingrenzung des raums). Durch kontrolle und segmentierung wird vehement aber nicht unbedingt erfolgreich versucht, den freien gebrauch von informationen künstlich einzuschränken und somit den elektronischen raum zu kolonisieren.

     Gleichzeitig kann eine zunehmende, gegenseitige penetration der räume festgestellt werden: Der physische raum wird im zuge einer etablierung ubiquitärer technologien durch schichten elektronischer informationen überlagert und von elektronischen informationsgeräten verändert - mit der ambivalenz gleichzeitiger anreicherung und überwachbarkeit.

     Aus dem physischen raum wird ein datenraum, daten werden aus ihm extrahiert (überwachung) oder der raum wird mit daten angereichert (cellspace). [vgl. l. manovich]

[kapitelanfang] [titel] [inhalt] [referenzen]


 

9] nachwort

     Ausgangspunkt der vorliegenden arbeit ist die untersuchung transformatorischer auswirkungen elektronischer informationstechnologien auf die gesellschaftlichen verhältnisse. As eine neue entwicklungsstufe zeichnet im sich zuge dieser entwicklung die etablierung eines „immer-und-überall-netzes“ ab.

     Abschließend lassen sich die beobachtungen und thesen dieser arbeit wie folgt zusammenfassen:

technologie und technische systeme sind ein bestimmendes moment gesellschaftlicher entwicklungen. Gegenüber technik kann sicht nicht wahlfrei verhalten werden, handlung wird durch technik determiniert.

urch informationstechnologien und medien werden die wahrnehmung von information vermittelt, gefiltert und somit beeinflußt. Die anwendungsmöglichkeiten werden entsprechend eingeschränkt oder erweitert.

die technologische weiterentwicklung ensteht zum einem aus dem bedürfnis nach verbesserung der lebenssituation, zum anderen durch die forcierung dieses bedürfnisse durch projektionen und hyperisierung.

die reaktionen auf technologie sind bestimmt durch die grundthemen „vision“ und „apokalypse“. Diese reaktionsmuster lassen sich auch als adaptionsprozess bewerten.

die weitere technologische durchdringung in einer nicht abgrenzbaren form wird nicht nur vermehrt kommunikation automatisieren sondern auch die wahrnehmung unserer umgebung weiter verändern. Die übertragung - und nicht unmittelbar die aufgabe - von handlungskompetenz, intelligenz und kommunikationsfähigkeit an maschinen und das verschwinden des computers und die substitution von gegenständen des alltags durch digitale, vernetzte geräte sind effekte dieser entwicklung.

von einer distanz des menschen zur technologie konnte aber schon zuvor nicht mehr gesprochen werden, wie es am beispiel der elektrifizierung sichtbar wird. Ubiquitäre szenarien stellen insofern keine fundamentale neuerung einer technologischen durchdringung, sondern eine weitere entwicklungsstufe einer vom menschen technisierten umwelt dar.

im zuge der entwicklung eines „immer-und-überall-netzes“ werden sich digitale und „reale“ räume zunehmend gegenseitig überlagern, die grenzen zwischen diesen räumen werden unsichtbar. Die phänomene cellspace und dataveillance sind schon heute sichtbare anzeichen dieser interpenetration.

wirtschaftliche verwertung von informationen, kontrolle und überwachung auf der einen seite und vielfältige möglichkeiten der erweiterung und veränderung der kommunikationsformen auf der anderen seite sind entscheidende elemente der weiteren informationstechnologischen entwicklung.

 

     Die deutlichste veränderung wird deshalb die gleichzeitigkeit einer omnipräsenten technologie und der erweiterung individueller aktionsfähigkeiten, die nicht mit „freiheit“ verwechselt werden sollte, darstellen. Insbesondere durch die phänome der durchmischung, überlagerung, ersetzung und übertragung werden elektronische informationstechnologien zum entscheidenden moment in allen lebensbereichen, auch im falle eines ausschluß von diesen technologien. Für eine kritische auseinandersetzung ist deshalb die mehrdimensionalität der wahrnehmung entscheidend, die praktische anwendung der funktionen technischer systeme und das wissen um die zugrundeliegenden und einwirkenden herrschaftsverhältnisse.

     Dementsprechend geht es also nicht nur darum gehen, „schlaue“ interfaces für post-pc-geräte zu gestalten, softwareprogramme mit kritischen, sozialen oder kulturellen intentionen zu kodieren oder andere formen kultureller produktion zu unternehmen, sondern auch die verschiedenen ebenen und wechselwirkungen sich vermischender virtueller und realer strukturen, objekte und räume zu erkennen und zu bewerten.

     Dabei wären für eine emanzipatorische praxis kontinuierlich die schwachstellen von regulation und kontrollbestreben auszuloten und die daraus gewonnen erkenntnisse in den eigenen handlungskontext einzubinden. Dies ist destso entscheidender für die entwicklung von sozialen, politischen oder ästhetischen handlungsfeldern, je mehr die beschriebenen vermischungen und überlagerungen fortschreiten und die versuche der regulierung, privatisierung und kontrolle verstärkt werden.

     Zu der entwicklung einer handlungsstrategie sollte aber auch die entwicklung eines feinfühligen sensoriums gehören, das eine selbstkritische prüfung ermöglicht, ob die sich anbietenden handlungsansätze als einen weiteren ausbau experimenteller nischen, als adaptierbare impulse für vermarktbare innovationen darstellen oder ob sie einen emanzipatorischen impact auf darüber hinausgehende bereiche (räume) entwickeln können.

     Eine allgegenwärtige, autonom agierende und selbstregulierende informationstechnologie wird auch künftig nicht das eigentliche problem darstellen, sondern die gesellschaftlichen machtstrukturen und wie sich diese in räume einschreiben. Die bloße anwendung elektronischer geräte stellt deshalb ebenso wenig ein weg dar, diese weiteren entwicklungen zu beeinflußen, wie die sammlung von indizien, die auf das herannahen einer dsytopischen zukunft hinweisen oder wie die einschätzung der „cyberspace“ wäre ein spannender ort, der auf einer anderen welt zu verorten ist.

     In dem zweiteiligen fernsehfilm „welt am draht“ von rainer werner fassbinder [ 35 ] hat der simulektroniker fred stiller eine simulierte, elektronische welt entwickelt. Sie ist täuschend echt synthetisiert und dient der erforschung von menschlichen verhaltensweisen. Über ein interface kann fred stiller diese welt besuchen und sich in ihr bewegen.

     Er ist sich sicher, daß die simulation unter seiner kontrolle steht, er kann alle parameter dieser simulation beeinflußen und aus der virtuellen welt jederzeit wieder in seine eigene „reale“ welt zurückkehren. Diese trennung gerät ins wanken, als es einer simulationseinheit gelingt, in die welt fred stillers zu flüchten. Stiller fängt an zu begreifen, daß seine welt ebenfalls nur eine simulation ist, die von einer darüberliegenden welt geschaffen wurde.

     Neben der beschreibung der durchläßigkeit der verschiedenen, vermeintlich „realen“ wie virtuellen welten steht in „welt am draht“ im vordergrund, daß letztlich alles virtuell ist, spätestens, wenn „die mechanische und mediale extension in seine substitution umschlägt. mit zunehmender mechanisierung und mediatisierung der welt steigt der grad der fiktionalisierung und simulation an.“ [p. weibel].

     Wenn im film die mitteilung „stiller, zurückkommen“ in der simulierten umgebung eingeblendet wird, ist dies als appell zu verstehen, sich der simulation bewußt zu werden: Auch in einer „welt am draht“ verfügt fred stiller über „die kraft des widerstandes“ und die vision einer vom computer „nicht determinierbaren freiheit“ [a.p. schmidt].

     Im falle einer vollständigen simulation der realen umgebung ist zwar dann alles, wahrgenommen wird, digital synthetisiert. Die entscheidung, diesen zustand entweder zu ignorieren, ihn passiv zu akzeptieren oder ihn aktiv zu beeinflußen wird weiterhin die entscheidung des subjekts, dem bewohner dieser simulation sein:

     „Es genügt nicht wenn wie einsehen, daß unser ‚selbst‘ ein Knotenpunkt einander kreuzender Virtualitäten ist, ein im Meer des Unbewußten schwimmender Eisberg oder ein über Nervensynapsen springendes komputieren, wir müssen auch danach handeln“ [v. flusser, s. 213].

 

EOF

[kapitelanfang] [titel] [inhalt] [referenzen] [credits]