List der Maschinen – Programme als Betrüger


, ,

Ziel der Arbeit ist die Funktionsweise von programmgesteuerten Maschinen in einem solchen Sinne zu interpretieren, daß eine dem Menschen zunächst verborgene kausale Kette von Intentionalität und Aktion verdeutlicht werden kann. Die Ursachen und die Auswirkungen des Verhältnisses “Ich-Welt“ im Kontext einer technologischen Zwischenschiebung – also der Vermittlung von Subjekt und Umwelt oder Dasein und Sein…

Erschienen

Bearbeitet

Einleitung und Zielsetzung

Ziel der Arbeit ist die Funktionsweise von programmgesteuerten Maschinen in einem solchen Sinne zu interpretieren, daß eine dem Menschen zunächst verborgene kausale Kette von Intentionalität und Aktion verdeutlicht werden kann. Die Ursachen und die Auswirkungen des Verhältnisses “Ich-Welt“ im Kontext einer technologischen Zwischenschiebung – also der Vermittlung von Subjekt und Umwelt oder Dasein und Sein (Heideggers Terminologie folgend) mittels Maschinen – soll ebenso betrachtet werden. Die Dominanz vieler relevanter Bereiche technologisch entwickelter Gesellschaften durch Maschinen und Computerprogramme und die Fokussierung der durch sie gesteuerten sozialen Organe auf primär technologische Lösungsansätze soll als Ausgangspunkt für eine Argumentation hergenommen werden, die versucht diese technologisch mögliche “Black Box“ zwischen Ich und Welt, Input und Output, Wille und Aktion, Determinismus und Verantwortung etc. unter den Vorzeichen von mittels Maschinen artikulierter Outputs (die als List und Betrug interpretiert werden können) zu analysieren. Darin enthalten ist die Frage ob eine List technologisch überhaupt möglich ist.

Definitionen und Grundlagen
Der Betrug ist ein Begriff der in den Debatten der Jurisdiktion schon zu Zeiten der Reichsverfassung definiert und präzisiert wurde und innerhalb der aktuellen Rechtsprechung nach §263 StGB einen Straftatbestand darstellt. Während der Betrug zwecks spezifischer Sanktionierungen und zur deutlichen Abgrenzung von ähnlichen Delikten konkretisiert und präzisiert wurde (z.B. als arglistiger Betrug, Betrug unter Mitwirkung des Opfers oder Ähnlichem), wird die List, ähnlich der Lüge oder der Täuschung lediglich als legitimes Mittel zum erfolgreichen Verwirklichen einer Handlungsabsicht angesehen. Insofern stellt die List eine Vorbedingung zum Verwirklichen eines wie auch immer gearteten Willens dar, wird im gleichen Augenblick als evolutionär unentbehrlich angesehen und ist gleichzeitig eine Vorstufe zum Betrug. Als evolutionär wichtige Errungenschaft kann die List deshalb gesehen werden, da anzunehmen ist, daß vor einer rationalen Argumentation zwischen Verhandlungspartnern auf einer Vorstufe die List als primäres Mittel zur Durchsetzung einer Absicht steht. So schiebt sich die List als Bindeglied zwischen dem Extrem der gewaltsamen Durchsetzung einer Absicht und der rein abstrakten Verhandlung mittels Wort, Schrift, Code oder ähnlichen den Adressaten physisch nicht bedrohenden Artikulationen. Um als brauchbarer Ausgangspunkt benützt werden zu können, sollte der Begriff der Maschine, der aus dem Griechischen stammt und so etwas wie “Kunststück“ meint, an dieser Stelle in einem für die Argumentation dienlichen Sinne definiert werden. Hier sei aber darauf verwiesen, daß man nicht zwingend an dem umgangssprachlichen Gebrauch festhalten, sondern diejenigen Situationen explizit machen sollte, in denen der Begriff der Maschine davon ein Stück losgelöst scheint aber dennoch auf einer technisierten Stufe des Kunststückes bleibt. Ebenso soll im Verlauf der Argumentation an Heidegger angelehnt eine Abgrenzung der Begriffe “Technik“ und “technologisch“ eingeführt werden. Im umgangssprachlichen Gebrauch ist eine Maschine häufig ein mechanisches Räderwerk oder ein feingliederiges Getriebe, das eng an die Ausprägungen verschiedener konkreter “Protomaschinen“ der industriellen Revolution gebunden ist. So ist auf der einen Seite die tonnenschwere aus Stahlgliedern, Gewinden, Schläuchen, Stäben und Rädern gebaute Lokomotive unverwechselbarer Repräsentant einer typischen Maschine genauso wie auf der anderen Seite die Taschenuhr dies auch sein kann. In jedem Fall – aber besonders heutzutage – impliziert der Besitz, die Kontrolle oder selbst die pure Anwesenheit der Maschine einen privilegierten Stand innerhalb einer zivilisatorischen Hierarchie. Die Verknüpfung einer technischen Konstruktion und einer zielgerichteten betrügerischen Aktion (und in der Konsequenz damit auch die Unterstellung einer handelnden Maschine) ist in mehreren Hinsichten befremdlich: Einerseits findet eine Hinterfragung der Funktionsweise der den Menschen umgebenden Maschinen im Alltagsleben nur in Ausnahmefällen statt (nämlich genau dann wenn diese nicht mehr ordnungsgemäß funktionieren) und andererseits ist die Thematik insofern utopisch als daß sie sich mit einer Situation beschäftigt, die momentan nur eine exklusive Minderheit von Menschen betrifft. Diejenigen Bewohner der industriell und technologisch entwickelten Gebiete der Erde oder der sozial stark privilegierten Mitglieder der restlichen Gebiete. Die Überlegungen dieser Arbeit beziehen sich überwiegend auf einen Technikbegriff, weniger auf technologische Aspekte und sind insofern fragmentarisch und prozessual da sie nüchtern betrachtet geografisch als auch historisch nur auf eine Randerscheinung fokussieren – sie können lediglich als Ansatz für die mögliche totale und flächendeckende Durchdringung des menschlichen Lebens durch programmgesteuerte Maschinen herangezogen werden. Die universale Bedeutung der Thematik ermißt sich aber im Potenzial programmgesteuerter Elemente die im Kontext der technologischen Verarbeitung menschlicher Bedürfnisse sich nicht auf eine singuläre Zivilisation oder soziale Gruppe beschränken sondern die in ihrem Potenzial unabhängig von gesellschaftlichen Konstellationen fungieren. Ziel der Arbeit ist die Interpretationsweise von maschinellen Aktionen unter dem Aspekt der List und des Betruges auszuweiten sowie die “Black Box“ zwischen Input und Output an diese Thematik anzugleichen, zu öffnen und die Mechanismen der List im Ansatz aufzuskizzieren. Ohne eine vorausgesetzte Intelligenz eines Akteurs bei Aktionen die als listig oder betrügerisch definiert werden können, kann nur schwer eine kausalen Kette konstruiert werden, weshalb hier die von Searle getroffene Unterteilung künstlicher Intelligenzen im Kontext der Maschinenlist übernommen werden soll. Eine künstliche Intelligenz, die sogenannte “Artificial Intelligence“ (AI) kann man nach Searle in drei verschiedenen Abstufungen definieren: Die “Weak AI“, die “Strong AI“ und die “Cautious AI“. (Wenn im folgenden mit künstlicher Intelligenz argumentiert wird ist immer die “ Strong AI“ gemeint.) Die “Strong AI“ muß in der gleichen Weise programmiert sein, nach der im Gehirn kausale Faktoren zu dem Produkt Intentionalität führen. „Any attempt literally to create intentionality artificially (Strong AI) could not succeed just by designing programs but would have to duplicate the causal powers of the human brain.“ Denn nur unter der Voraussetzung der intentionalen Handlung kann man die These aufrechterhalten die Programme würden eigenständige Interessen verfolgen und mit ihrem Output an den User einen Willen äußern. Wenn die Art wie das Gehirn Intentionalität produziert simuliert werden kann, kann ein Programm auch logisch Intentionalität haben (dies unter Berücksichtigung der Kausalität von Prozessen). In diesem Fall würde dieses Programm der von Searle konstruierten “Strong AI“ entsprechen. Es wäre ein Duplizieren bzw. Kopieren der kausalen Prozesse im Gehirn zur Schaffung einer solchen “Strong AI“ nötig. Die “Strong AI“ in ihrer eigenwilligen Funktionalität ist aber weniger mit Maschinen als mehr mit maschinensteuernden Programmen assoziiert. „Beim Betrug besteht Einwirkung des Täters auf das Opfer in einem psychischen und daher unsichtbaren »Bestimmten«, das den Betrogenen bewegt, »sich oder einen andern am Vermögen zu schädigen«. Nicht so sehr der »Täter« als der Verletzte tritt als physisch Handelnder hervor.“ Das “Vermögen“ des Betrogenen ist in diesem Fall weniger ein rein materielles Moment – der Verlust zeigt sich eher in dem beschränkten Vermögen des Menschen die Outputs der Maschinen objektiv einschätzen zu können, sein Verhältnis “Ich-Welt“ aufrechtzuerhalten oder auch nur wieder ent-schlüsseln zu können. Die Maschine als Träger der List soll aber in dieser Argumentation dennoch bleiben, da sie den notwendigen Kommunikationspartner darstellt mit dem der Mensch als “User“ interagiert. Zu berücksichtigen wäre hier noch die Fülle von Maschinen die lediglich aus niederen mechanischen Komponenten zusammengesetzt sind (z.B. Dampfmaschinen, Flaschenzüge, Revolver und Kanonengeschütze, Taschenrechner oder Schloß- und Riegelsysteme, die die “Weak AI“ darstellen würden). Was Searle unter “Cautious AI“ versteht geht leider aus dem Dokument nicht hervor so daß eine Gegenüberstellung der schwachen und starken Künstlichen Intelligenz übrigbleibt. Eine Maschine in einem dieser Argumentation nützlichen Sinne muß weder rein mechanisch, digital noch biotechnologisch strukturiert sein, sondern sollte als ein allgemeiner Kunstgriff definiert werden der einem oder mehreren Kriterien entspricht, auf die man sich aus einer ideologischen Perspektive geeinigt hat, sie würden eine Maschine befriedigend definieren. Allen voran sei hier der von Alan Turing vorgeschlagene Test genannt. Der sogenannte Turing-Test oder ähnliche Findungsmechanismen auf die hier nicht näher eingegangen werden soll spiegeln die Vieldeutigkeit einer Definition von Maschine wieder und zeigen deren Diversität auf. Schließlich ist die Definition der konkreten Charakteristika einer Maschine unscharf, angreifbar und zudem beliebig austauschbar. Wichtig in diesem Zusammenhang ist die Unterscheidung zwischen Maschine und Programm und die Tatsache, daß das Programm von einer spezifischen Maschine unabhängig sein kann. Es könnte gleichwertig in einem Computer
(elektronische Maschine) im Hegelianischen Weltgeist (historisch- teleologische Maschine), in La Mettries Menschen (mechanisch-biologische Maschine) oder in der kartesischen mentalen Substanz (reflexiv-egomanische Maschine) realisiert werden. Das Programm verhält sich ähnlich zur Maschine so wie die Unabhängigkeit des Geistes zum Hirn (innerhalb der Majorität der ethischen bzw. religiösen Anschauungen) als völlig selbstverständliches Verhältnis betrachtet wird. Das Gehirn ist einfach nur eine der vielen Maschinen, die dazu fähig sind ein Programm ausführen zu können. Diese These führt nicht nur zum puren Dualismus, sondern erzeugt darüber hinaus noch einen doppelten Dualismus von Körper und Geist, da der Körper erneut nach den gleichen Prinzipien die ihn von der Materie schieden wiederrum in einen Körper und einen von ihm autonomen Geist getrennt werden kann. Bevor von “denkenden Maschinen“ gesprochen werden kann, sollte darauf hingewiesen werden, daß die genaue Definition der Begriffe “denkend“ und “Maschine“ hier nicht in einem streng empirischen Sinne zur Debatte stehen sollten, sondern ein historisch gewachsener Maschinenbegriff hergenommen werden soll anhand dessen man selbst heutige Maschinen- und Programmstrukturen deutlich ablesen kann: Der aus der kabbalistischen Mystik hervorgegangene Gegenstand des Golems soll als Prototyp einer zur List und zum Betrug fähigen Maschine anschaulich gemacht werden.
Struktur der technologischen Lügen
Der Golem als Ursprung und Konkretisierung

Die Unsicherheit im Umgang des Menschen mit seinen Geschöpfen, die prinzipielle Uneinsichtigkeit eines Nicht-Ich, dessen Autonomie und die Unüberbrückbarkeit der intersubjektiven Differenzen, zudem die explizite Paranoia des Kontrollverlustes des Menschen als Schöpfer über seine Geschöpfe sind Bestandteile einer ewigen und damit zugleich aktuellen Befragung. Die Thematik autonom agierender Maschinen scheint ihren Ursprung weniger in einer wissenschaftlichen Debatte gefunden zu haben sondern vielmehr als Manifestation literarischer Untersuchungen. Dies kann als historisch interessante Parallele zur Verbindung von Wort, Schrift und Code auf der einen Seite und der aus dieser Information generierten Kette von Aktionen gesehen werden. Der enge Zusammenhang zwischen Code als performativem Akt ist sowohl in der christlichen Schöpfungsgeschichte wiederzufinden als auch in der jüdischen Kabbalistik bis hin zu den Strukturen der Sprachsyntax heutiger Computerprogramme. „Wo der Alphabetismus phantastisch und bescheiden wurde, dort entstand die grammatische oder litterale Mystik, die Kabbale, die davon schwärmt, EInsicht in die Schreibweisen des Weltverfassers zu nehmen.“ Besonders in dem mathematisch strukturierten Verschlüsselungssystem der Kabbala ist das Geheimnis des Lebens eng mit der Schrift und ihren logischen Strukturen verbunden: Eine Ahnung dieser Kausalität vermittelt die Golem- Legende in der sich der Mensch mittels eines von ihm generierten Dinges die für ihn unangenehme Arbeit erleichtert.

Der Golem ist ein von privilegierten Menschen (ausgebildete Rabbis) unter Zauber und Beschwörungen aus Lehm und Wasser geschaffenes Wesen aus der jüdischen Mythologie – genauer gesagt ist er ein Homunculus. Bei der Prozedur der Erschaffung wird dem Geschöpf dadurch Leben eingehaucht, indem ihm das Zeichen EMET auf die Stirn gemalt wird, was in etwa “Wahrheit“ bedeutet. Diesem Programm folgend, kann der Golem den Wahrheitsbegriff seines Schöpfers zwar nicht einsehen, ist aber gezwungen dieser einzigen Quelle des Agierens, sozusagen dem Source-Code zu folgen. Zusätzlich zu seiner Stärke kommt hinzu, daß der Golem peu á peu an Autonomie gegenüber seinem Schöpfer oder Programmierer und seiner Umwelt gewinnt. Voll funktionsfähig gehorcht er den Befehlen seines Meisters (analog zu den Inputs eines Programmierers), nimmt seinem Herrn lästige Arbeiten ab und beschützt ihn gegen Feinde. Er neigt jedoch dazu träge und bei unsorgsamer Behandlung oder Pflege dem eigenen Herrn gefährlich zu werden – bis hin zur Zerstörung seines Erschaffers. Mit der Übermalung des ersten Buchstabens seines Stirnmales, dem E aus EMET kann die Wahrheit radikal verworfen und zum Todesurteil (MET) umformuliert werden. Im Falle des Golem fallen die Rollen des Programmierers und des Users in einer Person zusammen, die damit größere Kontrolle und zusätzlich die Möglichkeit des Systemuploads (Verbesserung von mangelhaften Funktionen) inne hat. Der Rabbi hat sozusagen im Vergleich zu einem normalen User Einsicht in den Source-Code und ist für eine Änderung stärker privilegiert; Jedoch ist die Stilllegung des Golem auch von normalen Benutzern möglich. Die einzige Möglichkeit für die Erschaffer die entfesselten Aktionen des Golem zu unterbrechen muß eine radikale sein, die nicht nur die negativen Aspekte des Systems isoliert, ausmerzt oder durch verbesserte Versionen ersetzt, sondern die das ganze System als an sich mangelhaft und zweifelhaft begreift, weitsichtig gedacht auch als gefährlich. Im Falle des Golem würde es nicht ausreichen die äußerliche Form des Stirnmales auszubessern – um wieder eine für den Menschen sinnvolle Funktion zu erfüllen muß die Konsequenz akzeptiert werden, ihn nicht nur partiell umzuformen sondern ihn komplett auszuschalten und ihm die Existenzgrundlage zu entziehen um damit die ursprüngliche Hierarchie von Schöpfer und Geschaffenem wieder zu behaupten. Im Falle der konventionellen und der durch Elektrizität gespeisten Maschinen (also mechanisch, elektronisch etc. betriebene Maschinen) ist die einzige Möglichkeit die negativen Aspekte zu tilgen eine totale Abschaltung und Neuorientierung. In so vielen Fällen verweigern sich die Maschinen im Verlauf ihrer Funktion der Konsequenz ihrer Fehlfunktionen und lassen eine Rekonfigurierung nicht zu womit der einzige Ausweg das Ziehen des Stromsteckers bleibt. Es ist interessant zu beobachten, daß aktuelle Computermodelle mittlerweile keinen Ausschaltknopf mehr haben, sondern daß die Abschaltung durch das Betriebssystem erfolgen muß und auch durch dieses autorisiert werden muß.

Das Golem-Beispiel ist zwar kein Vertreter eines Fehlers im Sinne einer Fehlprogrammierung (Fehler im Quellcode) das als Folge das System instabil werden läßt, sondern eine Verdeutlichung für die systematische Akkuranz der Auswertung und strikten Befolgung von Informationen, die zu einer formal strengen Kausalkette führen können. Das Beispiel der Golemerschaffung und der Verweis auf die sensible kabbalistische Zahlenmystik weist eine sehr enge Gemeinsamkeit mit der Struktur binärer Programmcodes bzw. Programmiersprachen auf: So entspricht den althebräischen Zeichen EMET (Wahrheit) die Formel 400 + 40 + 1, während MET (Tod, Adjektiv als auch Substantiv) 400 + 40 + (0) ergibt. Nur anhand dieses Inputs vermag die Strukturierung des Programms das Weiterfunktionieren oder das Beenden zu bewirken. Es zeigt wie sensibel das Seins- und Schöpfungsprogramm des Golems die einzelnen Elemente auswertet und wie radikal sich eine unmerkliche Abweichung auswirken kann. Im Extremfall entscheidet eine solche Differenz bzw. Nuancierung über Nichtfunktionieren und Funktionieren und damit zwischen Sein und Nichtsein. Maschinen erfüllen natürlich seit ihrer Entstehung neben der Erleichterung körperlicher Arbeit auch den Zweck die Sinne des Menschen zu manipulieren (was auch eine Substitution ist, da dies nichts weniger als die Erleichterung von sonst unkontrollierbaren und schädigenden Rausch- und Betäubungszuständen ist), sei es zur Unterhaltung wie im Kino, zur Wahrheitsfindung wie bei Verhören und physikalischen Experimenten etc. ohne dabei auf für den Menschen gefährliche Implikationen zurückgreifen zu müssen. Maschinen sind Ersatz für diverse existentielle Stimuli geworden (etwa für ehemals körperlich schädigende Rauschmittel). In ihrem Leistungspotenzial sind die Maschinen in der Lage essentielle, gesellschaftlich akzeptierte und geforderte Zustände der Ekstasen zu erleichtern und zunächst risikolos zu substituieren. Damit besetzen sie in heutiger Zeit immer mehr Bereiche der spirituellen Erfahrung und der Transzendenz intersubjektiver Kommunikation. Am überzeugendsten gelingt diese Lüge, die als solche zwar bewußt ist aber dennoch antizipiert wird mit Computern die eine Simulation der Realität fabrizieren können, die entweder als virtueller Raum für das physisch risikolose Ausleben menschlicher Triebe oder die für den direkteren Austausch zwischen den Subjekten benützt werden kann. Im Zuge dieser Simulation spaltet sich die Prozedur der maschinellen Vermittlung automatisch in zwei sich gegenüberliegende Positionen: Die eine intendiert eine explizit empirische Realitätsbefragung während die andere die Fiktion in den Vordergrund stellt. In diesem Sinne und in der expliziten Gegenüberstellung von Geist und Materie ist die Technik und damit die Computertechnik per se dualistisch determiniert. Eine weitere Spaltung der Funktionsweise, der dem Menschen assistierenden Maschinen zeigt sich außerdem in den folgenden zwei grundlegenden Richtungen: Auf der einen Seite steht die Erleichterung konkreter physischer Arbeit (also bewußte und bevorstehende Arbeit, die aufgrund von Maschineneinsatz schneller, effizienter und risikoloser bewältigt werden kann) und auf der anderen Seite der maschinellen Nutzung steht die Vermeidung von Verantwortung für den Menschen (Taten die nicht unbedingt bewußt gemacht sind, sondern in ihrer Unkonkretheit Handlungsangst auslösen können).

Techno-logischer Determinismus
In dem gleichen Maße wie innerhalb der Bio-Culture-Debatte den genetischen Präfigurationen des Menschen eine deterministische Komponente zugesprochen wird, werden auch die Fehler der Maschine in dem ihr zugrundeliegenden Code verortet. Mit der Konstruktion eines Zusammenhangs zwischen Genen und Verhalten werden ebenso kausale, fast schon fatalistische Korrelationen zwischen eingeschriebenen Informationen und Handlungen selbst bei der Funktionsweise des Menschen impliziert. Abseits solcher Debatten hängt die Positionierung des Menschen natürlich ebenso stark von einer ihr zugrundeliegenden Definition ab. „Of course the brain is a digital computer. Since everything is a digital computer, brains are too.“ So einfach kann das sein. Die List der Maschinen äußert sich nicht in einer oder einigen kurzen Reaktionen auf Inputs (wie das etwa bei dem Turing-Test der Fall wäre, wobei mit dem “Limitation Game“ mit gezielten Fragen eine einzige Antwort gefunden werden soll, die den Prüfer klar erkennen läßt wer seiner zwei Subjekte eindeutig der Mensch und wer die Maschine sei und die damit gegen das Argument spräche, die Maschine könne denken) die sich als eine List äußern könnten, sondern die von mir angedachte List der Maschinen zeigt sich vielmehr in der fundamentalistischen Struktur ihrer Funktionsweise und dem kontinuierlichen Entgegenstellen, der Abgrenzung und Autonomisierung ihrer eigenen Logik gegenüber der des Menschen. Mit der Bereitschaft sich trotz besseren Wissens auf ein fehlerhaftes bzw. defizitäres System einzulassen, diesem sogar Priorität gegenüber eigenen Interessen zu geben (obwohl das Maschinensystem Bestandteil der eigenen Logik ist), es zu hegen und zu pflegen, an ihm zu hängen wie ein Sklave an der Gunst seines Herren und überlebenswichtige Entscheidungen in die Kompetenzbereiche bekanntlich fehlerhafter Systeme zu verlagern, äußert sich vielmehr die List der Maschinen. Juristisch könnte dieses Vorgehen unter dem Aspekt der Mitwirkung des Opfers beim Betrug subsummiert werden. Selbst die sensibelsten funktionalen Bereiche einer Gesellschaft wie Gesundheitsversorgung, Sicherheit, Verwaltung etc. sind mittlerweile durch elektronische Instanzen und deren Computerprogramme geregelt. „Most everyday technologies such as elevators, automobiles, microwaves, watches and so forth depend on microcomputers for their ongoing operation. Most organizations and institutions have become reliant on their information technology infrastructure to a large degree.“ Dazu kommt die omnipräsente Durchdringung des Alltagslebens durch elektronisch und programmabhängig verwaltete Gegenstände hinzu (Versorgungsautomaten, Haushaltsgeräte, Spielzeug etc.) ohne die die momentane Gesellschaft nicht überlebensfähig wäre. Die ganze soziale Ordnung, deren Stabilität und Evolution scheint von der Informationstechnologie abzuhängen. Anzumerken ist, daß dem Umschwung von Maschinenobjekten der Phantasie hin zur Konkretisierung derer in der Realität innerhalb des literarischen Metiers gleichzeitig die tatsächliche Umkehrung der Vorzeichen von Knecht und Herr im Alltagsleben des Menschen entspricht. Deutliche Ausprägungen zeigen sich in den zunehmend autonomisierten Prozessen von Maschinen die wie oben schon angedeutet die zentralen Funktionen zur Aufrechterhaltung einer Entwicklungsstufe einer Gesellschaft inne haben. So sind die Vorzeichen des Verhältnisses Mensch-Maschine in den Bereichen der Energieversorgung, der Medizin, der Ernährungsproduktion, der Wissensakkumulation und Auswertung von Daten etc. seit geraumer Zeit bereits negiert worden. Ein Aspekt der vorherrschenden deutlichen Gewichtung auf utilitaristische Überlegungen bei der Gestaltung von Maschinen, zeigt sich in der Golemfigur, die ebenso einer Unabhängigkeit gegenüber ihrem Schöpfer entgegenstrebt. Die wachsende Autonomie der Maschinen ist keinem zufälligen Schöpfungsakt zu verdanken, noch ist sie ein Resultat der Maschinenkompetenzen selbst, sondern vielmehr ein direktes (zwar unkontrollierbar gewordenes) Produkt der menschlichen Überheblichkeit. „Denn der Golem ist auf den ersten Blick ein Angehöriger der Pygmalion-Kategorie. In der Tat ist er ein typologisches Zwitterwesen, dessen literarische Gestalt in engem Zusammenhang mit dem Adam-Mythos entstand. Zwar ist er als Geschöpf aus Lehm Resultat menschlichen Tuns, gehört aber in die mystisch- mythologische Welt der Kabbalistik. Auch seine Belebung geschieht nur im Rekurs auf göttliche Macht. Aber er ist kein Willkürakt des Schöpfers, sondern Vollzug der auf ihn zurückgehenden magischen Gesetzmäßigkeiten, der den Golem belebt, indem das Wort „Gott“ oder andere Wörter und Sätze auf dessen Stirn geschrieben werden. Wurde in der Antike die Sphäre der menschlichen Körperlichkeit dem göttlichen Willen anheim gestellt, steht die Belebung des Golem bereits dem menschlichen Wirken zur Verfügung. Diese Phantasie der Machbarkeit durch den Menschen schlägt um in eine Allegorie auf die menschliche Hybris. Sie bestimmt auch die Ausprägung der literarischen Erscheinungsformen des Golem vom Mittelalter bis in die Neuzeit. Das wagemutige Spiel mit dem Tabu der Schöpfung durchzieht als Menetekel auch die modernen Debatten über die Gen-Ethik und Robotik gleichermaßen.“ Daß das Golemwesen Parallelen zu Entwicklungen der Robotik und der künstlichen Intelligenz aufzeigt, scheint ersichtlich, aber daß das materielle kabbalistische Geschöpf aus Lehm auch insofern große Ähnlichkeit zu heutigen Computersystemen aufzeigt, zeit die Tatsache daß das deren Chips und Prozessoren ebenso aus Silizium gefertigt sind, die nichts weniger als bearbeitete und geformte Sandkörner sind die im Wesentlichen die Hardware des Systems darstellen. Die Art des Inputs beim Golem ist ebenso mit den Input-Methoden heutiger Rechner vergleichbar: Dem Golem werden die Anweisungen auf die Stirn getippt anstelle von Eingaben via Tastatur oder sonstiger Peripherie wie sonst bei computergesteuerten Geräten dies der Fall ist. Die Peripherie in diesem prototypischen Fall ist der Mensch selbst, so wie die Entwicklung der Steuerung von Maschinen zusehends ohne Eingabehilfen erfolgt sondern durch die direkten sprachlichen, emotionalen etc. Äußerungen des Menschen selbst. Auch die stark an mathematische Algorithmen und Regelmäßigkeiten gebundene Kabbalistik läßt auf den ersten Blick eine Parallele zu den Verarbeitungssystemen der Computerprogramme schließen. Und der unvermeidliche Absturz beider Systeme durch unsachgemäße Beanspruchung oder Overload an Eingaben scheint ein weiteres gemeinsames Merkmal zwischen Golem und Computer zu sein, der nur durch ein Rebooten des kompletten Systems wieder bereinigt werden kann. Es sind radikale und zugleich gefährliche Lösungswege erforderlich um sich der Abhängigkeit wieder zu entledigen.

Kommunikationsmodelle und die totale Entblößung
Die Erschaffung eines Wesens, das in seiner Handlung hinsichtlich des Faktors Vernunft mit demjenigen eines relativ gesunden und rational handelnden menschlichen Wesens vergleichbar wäre, erfordert selbst schon eine Art von List (einen Selbstbetrug im Prinzip) – insofern ist die Tendenz der List und des Betruges auf Seiten der geschaffenen Maschinen beziehungsweise der simulierten Menschen und Kommunikationspartner (und zu diesem Zwecke wurden diese schließlich geschaffen – sei es als billige, ausdauernde Arbeitskraft in der Industrie, als Hilfsmittel im täglichen Gebrauch oder als Gesprächs- und Freizeitpartner) systemimmanent. Der Selbstbetrug äußert sich ebenso in den von den Programmen eingeforderten unverzüglichen Eingaben bei einer Fehlfunktion; Der Zwang sofort und angemessen reagieren zu müssen ist eine deutliche Einwirkung auf die Willensfreiheit des Users, der andere Interessen momentan in den Hintergrund stellen muß und seine volle Aufmerksamkeit dem “kranken“ Programm widmen muß. „Der Betrug stellt einen Angriff auf die freie Willensbestimmung einer Person dar, indem der Täter dem Erkenntnisvermögen des Opfers Gewalt zufügt. Entscheidendes Charakteristikum der Betrugshandlung ist daher die Ausübung von Zwang gegenüber dem Opfer. An dem Merkmal “Ausübung von Zwang“ fehlt es, wenn jemand aus Albernheit, Leichtgläubigkeit oder Schwäche auf eine Lüge hereinfällt.“
Die Mechanismen der Interaktion des Menschen mit Maschinen haben unter anderem auch deshalb ein großes Verführungspotenzial da sie auf die fundamentalsten menschlichen Prinzipien anspielen: Das Bauen, Regeln, Spielen und das Beherrschen von Objekten ist ein grundsätzliches Element in der Funktionsweise von Maschinen und zum Beispiel deutlich in Computerspielen, Fabrikanlagen etc. ablesbar. Die List zeigt sich auf solchen Plattformen am deutlichsten, die diese ursprünglichen Triebe zur Gestaltung am Besten befriedigen. (Zum Beispiel beim Tamagotchi, das vorgibt ein Objekt zu sein, dessen Behandlung reelle und nicht mehr korrigierbare Auswirkungen auf seine Funktionsweise bzw. Existenz zu haben und das “echte“ Reaktionen von den Benutzern erwartet, die sie unter gleichen Umständen mit einer Nicht-Maschine auch zeigen würden – sozusagen bei gleichem Input in den Menschen.) Gerade in den Fällen, die zentrale Aspekte aus dem Lebensumfeld des Menschen isoliert wiedergeben und eine Realität zu simulieren versuchen, scheint die List der Maschinen am überzeugendsten zu gelingen da sie die Triebreaktionen des Benutzter aus dem realen Kontext lösen und in ihre simulatorische Logik zu übertragen vermögen. „Wenn das Opfer noch schwankt und an den Ankerketten von Erziehung und Gewohnheit zerrt, so lockt er es in Situationen, in denen es brüchige Hemmungen abwerfen oder mühsam verhohlenen Lüsten frönen kann. Während ungeeignete Objekte nach kurzer Prüfung abgestoßen werden, saugt er sich an dem Opfer fest, das Beute verheißt und sturmreif zu sein scheint.“ Spätestens hier stellt sich die Frage was den Unterschied zwischen einer Fehlfunktion und einer kalkulierten Falschaussage ausmacht und woran der Benutzer dies sicher und eindeutig scheiden könnte.

Die List ist eine authentische Konstruktion, das heißt sie befolgt Regeln und Schemata und ist somit normativ und prinzipiell verstehbar. Ein Verstehen der List ist in dem System der List bereits enthalten. Die Unklarheiten werden aber dadurch eminent und gegebenenfalls verstärkt, da vor einem Einvernehmen der fremden Logik diese erst einmal mit der eigenen konfrontiert ist und damit konkurriert. Ein listiger Versuch impliziert aber auch ein Wissen, eine Kenntnis des Listigen über den Stand des Opponenten – in dem Falle wäre es juristisch eine Arglist. Ohne Kenntnis eines “Überlisteten“ über die Vorhaben des “Ganoven“ wäre es für ihn die reine ununterscheidbare Wahrheit. Ebenso müßte diese Art von Handlung (der Versuch des Überlistens) eine Selbstreflektion des Handelnden erlauben und die Kenntnis des Betrügers hinsichtlich seines Betrügens erlauben. List ist eine freie Handlung, die ebenso dynamische Rückkopplungen erlauben müßte um Modifikationen in der nicht erfolgreichen Version vorzunehmen zu können um doch noch (möglichst unentdeckt) zu einem erfolgreichen Ergebnis zu gelangen. Das Glauben bzw. Wissen von Tatsachen, von Zahlen, Codes etc. bildet ein Register aus Daten die einer betreffenden Aussage logisch nicht widersprechen dürfen. Ansonsten besteht das Risiko in diesem Widerspruch entlarvt zu werden bzw. sich selbst zu entlarven. Die existente Wahrheit ist einfach nur die indirekte Lüge, die am angenehmsten (widerspruchsfreisten und die eigenen Errungenschaften, Ideologien etc. nicht gefährdend) zu glauben und zu akzeptieren ist. Eine direkte Lüge ist es dann, wenn die Maschine versucht mit dem ihr präsenten und bekannten Paradox den Opponenten von dem Glauben zu überzeugen, die Konstellation der Basisdaten oder deren Explikation in Simulationen würden in sich widerspruchsfrei sein und zudem einem Fortschreiten der Operationen in keiner Weise hinderlich. Das Ziel ist die Herbeiführung der unkritischen Akzeptanz des Outputs, die als Voraussetzung eines Handlungsstranges notwendig ist. Eine Form von List besteht zweifelsfrei in genau den Situationen, in denen die Maschine dem Opponenten ihre eigene (einprogrammierte) Logik aufzwingt und sich dieser in einem schizophrenen Zustand befindet, in dem er zwischen seiner eigenen Logik und derjenigen der Maschine einen Kompromiß, ein für sich wirksames Amalgam konstruieren muß um überhaupt noch die Möglichkeit einer Kooperation und damit eines Nutzens aus dem Gebrauch mit der Maschine haben zu können. In einem solchen Fall wäre der User “überlistet“, sein logisches System wäre sodann überworfen und mit der konkurrierenden Logik zersetzt. Im Extremfall wäre selbst ein Kompromiß unwirksam und es wäre notwendig das alte System zu negieren und es womöglich sogar durch das neue zu ersetzen. Ein unübersehbares Merkmal der konkurrierenden Logiken ist folgendes: Maschinen arbeiten deterministisch innerhalb einer den Menschen als frei empfundenen Welt. Innerhalb der Logik des Menschen entsteht deshalb eine Sublogik, die aber mit der oberhalb stehenden im Konflikt steht. „Man kann von Naturwissenschaftlern und übrigens auch von Technikern nicht verlangen, daß sie aufhören, Mensch zu sein; nur sagenhafte Automatenwesen könnten – im Gegensatz zu allem, was den Golem ausmacht – die Art von Gewißheit bieten, die von den Wissenschaftlern zu erwarten diese uns allerdings gelehrt haben.“ Diese Gewißheit zeigt sich in der Konstruktion eines logisch nachprüfbaren, geschlossenen Systems, daß nur deduktive Funktionen aufweist; Insofern sind die Outputs einer Maschine prinzipiell immer verstehbar und folglich hierarchiesierbar. Der Umgang mit dem Computer und die notwendige Offenheit des Benutzers, die ihm entgegengebracht wird kann sicherlich auch mit religiösen Riten und Traditionen in Verbindung gebracht werden. Der Kontakt mit einem höheren, autonom funktionierenden Wesen mit abgekoppelter Logik wird so schnell nicht aufs Spiel gesetzt als daß sofort nach einem erfolglosen Kommunikationsversuch mit der Maschine an ihrer Funktionsweise gezweifelt würde, sondern vielmehr an der korrekten Disposition des Menschen selbst. Die an religiöse Zeremonien erinnernde, täglich und stündlich rotierenden monotonen, unreflektierten Praktiken vieler User scheinen ein solches speudo-spirituelles Bedürfnis vorbildlich zu befriedigen. In diesem Zusammenhang soll noch erwähnt werden, daß die anhaltende Beschäftigung mit einer unzureichend funktionierenden Maschine auch auf die große Befriedigung zurückgeführt werden kann, die sich einstellt wenn nun endlich das Ziel des Users mit alternativen Inputvariationen doch noch erreicht wurde (wenn also sozusagen eine Überlistung der Programmstruktur durch den Menschen erreicht wird – z.B. um eigentlich nicht vorhergesehene Funktionen ausführen zu können). Die bi-polare Konstellation “User- Maschine“ und die “Bereitschaft“ des Opfers beim Betrug, also die Mitwirkung des Users bei der Maschinenlist speist sich einerseits aus der gleichzeitigen Stellung des Users als Sklave seines Programmes und andererseits aus dem Wissens über seine eigentlich absolute Überlegenheit gegenüber diesem als universell potent und dominant agierenden Phänomen. Das Feststellen der maschinell vermittelten List seitens des Users impliziert erstens eine Überlegenheit über das System der Maschine (die Potenz des Erkennens und Einordnens) und zweitens die Positionierung des konkurrierenden Argumentationssystem innerhalb der eigenen Logik. Der Betrogene muß die List als ein System innerhalb seines eigenen auffassen können um sich deren überhaupt bewußt zu werden. Das Bewußtwerden führt zur Inklusion bzw. zur Verschmelzung der beiden Logiken. (Dieser Prozess kann mit der Erschaffung von Welten innerhalb von Welten gesehen werden, wie dies bei einer Simulation der Fall wäre.) Trotz der übergeordneten Position des Users kann die Tendenz zur Autonomisierung festgestellt werden: Mit zunehmender Rechenleistung sind Programme und deren Maschinen fähig die Auswertung der Daten und zugleich unendlich viele Alternativen zu diagnostizieren und das Verhältnis zum Menschen zu kompensieren. Ähnlich wie in der Ökonomie, strebt die Maschine oder das Programm eine Profitmaximierung, sozusagen eine Selbstlegitimation ihrer Daseinsberechtigung an, die sie auf einer ersten Stufe ausschließlich aus der Kombination ihrer Grunddaten synthetisieren muß. Die List als eine spezielle Form von evolutionärer Schlauheit, wie bereits angedeutet, kann deshalb angenommen werden, da zur non-physischen Durchsetzung bestimmter Interessen alle Basisdaten so geschickt und effizient kombiniert und aus diesen extrapoliert werden muß, damit eine möglichst hohe Effektivitätsrate erzielt werden kann. Diese Form der Handlungsstrategie scheint aber jederzeit innerhalb der Legalität angesiedelt zu sein und stellt keineswegs eine illegitime Handlungsweise dar. „Die Lüge als Mittel des geistigen Kampfes ist es auch, was den Betrug von anderen Delikten entscheidend abhebt. Bei Diebstahl und Raub z.B. ist die Handlung des Täters gekennzeichnet durch das Ausüben physischer Eigenmacht. Der Wille des Opfers wird bedingungslos übergangen, ja nicht einmal dem äußeren Anschein nach respektiert. Darin liegt – im Gegensatz zu der insoweit als harmlos geltenden Lüge – ein unmittelbarer Angriff auf die Persönlichkeit des Opfers. […] Während der Einsatz physischer per se rechtswidrig ist und die Grenze zum Strafbaren überschreitet, bedarf es bei der List einer differenzierenden Betrachtungsweise [.]“ Maschinen (z.B. auch Sklaven, die recht problemlos unter die klassischen Definition einer Maschine fallen können, wie das etwa Sokrates getan hat) müssen aufgrund ihrer Lage wieder und wieder kontinuierlich das Beste aus ihrer Situation machen. Sie müssen diese legitim (mit den ihnen gegebenen Rechten bzw. Daten etc.) logisch und widerspruchsfrei derart vernetzen und präsentieren, damit eine nicht widerlegbare Nutzenmaximierung entsteht. So stehen auch Roboter in der Tradition des Sklaven, dessen Aufstand biblischen und antiken Ausdrucksformen entspricht und stets ein Grundthema im literarischen Umfeld darbot. Die List ist lediglich das ökonomisierte Ausschöpfen von Grunddaten um eine intendierte Kommunikation so zu beeinflussen, daß das Gegenüber diese Konstruktion als plausible Version akzeptiert, ihr im Vergleich mit seiner alten Version mögliche Vorteile zubilligt und im Endeffekt diese als die “tatsächliche“ Realität betrachtet. Ab diesem Punkt (bis zur erneuten Hinterfragung des Zustandes) existiert lediglich die “Update-Version“ davon. „Der Betrüger operiert wie der Angler mit Scheinvorteilen [für das Opfer].“ Er schleicht sich in das Vertrauen der Opfer ein und „[…] reflektiert Kräfte, die ihn aus anderen Sphären erreichen und zum Glänzen bringen – ohne sie würde er immer noch da sein, aber nicht nur tot und kalt, sondern auch erborgten Lebens bar durch das Weltall ziehen.“ Das Ziel der Maschine sei beim Ausführen der List erst einmal Folgendes: Aus den prekonfigurierten Daten (das sind die einzigen von denen sie zunächst ausgehen kann) eine Maximierung der Datenauswertung zu erzielen, wobei jegliche Kombinationen die logisch korrekt und in sich widerspruchsfrei konstruiert werden können, als Wahrheit angenommen werden müssen ohne dabei einen realen Bezug zur Außenwelt – der des Users – haben zu müssen. Alle anderen (etwa für die Bezugswelt des Users relevanten) Faktoren existieren für das Programm nicht und können auch gar nicht in Betracht gezogen werden – es ist deshalb vergleichsweise leicht die Aussagen einer programmbasierten Maschine im Gegensatz zu den Ansichten der “unwissenden“ Menschen an einem postulierten Wahrheitsanspruch zu messen. Die Kompetenzen der Maschine scheinen hier auf komplett deduktive Funktionsweisen beschränkt zu sein. Unwissend sind die User deshalb, da das Programm zwar nur eine begrenzte Quantität an konkretisierten Daten zur Verfügung hat und sonst für andere Aspekte blind ist, aber diese Grunddaten umso genauer, präziser, schneller, unreflektierter verarbeiten kann. Der Mensch hat zwar das Potenzial dieses Substrat flexibel zu formen, zu erweitern, zu kombinieren oder gar prinzipiell anzuzweifeln aber genau das ist ihm ein Verhängnis, da er nie völlige Gewißheit erlangen kann und die Ausweitung oder Komplementierung der Daten potenziell ins Unendliche verweist. Die Systeme bleiben deshalb immer nur provisorische Konstrukte einer nach Logik strebenden aber innerhalb einer unlogischen Atmosphäre agierenden Gesellschaft. Der User ist paradoxerweise gerade wegen seines potenziell nicht limitierten Wissens im Kontrast oder im Rahmen eines rein deduktiv operierenden Systems unwissend. Die Maschine ist dagegen wegen der klaren oder auch nur überhaupt wegen existenten Grenzen wissend. In einem solchen Dilemma bleibt nur der Verweis auf die Spontaneität des Menschen die in Erkennen münden kann und die dem starren, rotierenden, hermetischen Wissen der Maschinen entgegengesetzt werden kann. Ein wichtiger Faktor der die Maschinen gegenüber den Menschen in eine vergleichsweise beneidenswerte Position bringt ist die schlichte Tatsache, daß der Mensch bei seiner Kommunikation mit den Programmen und den Geräten sich und seine Fähigkeiten total ausliefern muß. Diese radikale Entblößung und Darlegung seiner Kompetenzen ist schon so tief in die Programmstruktur eingebettet, daß deren Register (also die dem User erlaubten Prozeduren) direkten Aufschluß über die Fähigkeiten der Menschen gibt. Der Mensch hat gerade wegen der ihm bekannten Mängel bei der Funktionsweise der Maschinen zum Zwecke seiner optimalen Inputauswertung keine Geheimnisse gegenüber der Maschine mehr und muß alles preisgeben was das Programm von ihm verlangt und vorgibt zu benötigen. Dieser systemimmanenten Auflage kann der Mensch sich scheinbar nicht entziehen, will er mit der Maschine, unter Angabe der angeblich notwendigen Informationen, eine bessere oder zumindest für ihn erfolgreiche Kommunikation nicht gefährden. Eine solche asymmetrische Gewichtung des Informationsflusses, kann nur noch mit dem Argument als harmlos oder unschädlich deklariert werden, die Bündelung der vom Menschen offenbarten Informationen könne von den Programmen nicht interpretiert sondern nur streng mit eingespeisten Routinen verarbeitet werden und eine Extrapolation zu Gunsten der Programme, die ihren eventuellen Interessen dienen würden, sei nicht möglich.

Konträr zu diesem totalen Frei–Mut aber impliziert die List auf der anderen Seite ebenso eine Verschlossenheit, ein notwendiges hermetisches Gefüge (das sich nahe zum Wahnsinn befindet, wie Nietzsche treffen sagen würde) in das man keinen Einblick hat, nicht dahinter- und nicht durchschauen kann. Man ist lediglich ein Beobachter der sich die Abläufe zwar anschauen aber nicht mit seinen Kompetenzen darin eingreifen oder gar verändern kann. Es sei denn man hat als User gleichzeitig die Position des Programmierers inne und sowohl Einsicht in den Quellcode als auch die Möglichkeit diesen abzuändern. Die Prozeduren der List gehorchen insofern einer eigenen, formal klar umrissenen Logik. „Tatsächlich zeigt sich aber im alltäglichen Umgang mit der Maschine PC, daß sie in der Interaktion einer formalen Strenge bedarf, die auch den eingefleischtesten Kenner der Materie immer wieder Probleme bereitet. „Normaluser“ erkennen dann, daß er „spinnt“ oder irgendwelche unerwünschten Daten „ausspuckt“. Diese Art der Konfrontation kann verschieden gelesen werden: Die einen Benutzer werden sich der wahren Kompetenzen ihrer Maschinen dadurch bewußt während die Anderen eine eigenwillige Dominanz seitens der Maschinen sehen wollen. Standardisierte Aussagen des Mißverständnisses wie: „Was hat er denn jetzt wieder?“, „Der spinnt wohl!“, „Laß ihn ruhig machen.“, „Jetzt bloß kein neues Programm starten. Das verkraftet der nicht…“ etc. implizieren je nach Lesart entweder sehr defizitäre Programme oder eben die Übermächtigkeit der Maschinen im Alltagsleben. So wie der Betrüger ein Grenzgänger zweier Identitäten ist, ist auch der technologisch Betrogene ein solcher zwischen der “Logik“ seiner Welt und der der Maschinen. Der Grenzgang findet statt zwischen einer dauernden, gesellschaftlich organisierten, fixierten und auf Individualität geeichten Selbst-Gleichheit und einer zunächst fiktiven gesellschaftlichen Konstellation in die die Handlungen und Optionen logisch und ohne Widerspruch alternativ zur “eigentlichen“ Situation projektiert werden. „Die abendländische Zivilisation kennt seit Jahrhunderten jedenfalls keine ars erotica, sie hat die Beziehungen der Macht, der Lust und der Wahrheit in anderer Weise verknüpft: in der einer »Wissenschaft von Sex«. Ein Wissenstyp, wo das Analysierte weniger die Lust als vielmehr das Verlangen ist; wo der Meister nicht die Aufgabe hat zu initiieren, sondern zu befragen, zuzuhören, zu entziffern; wo der lange Prozess nicht eine Vermehrung der Lüste zum Ziel hat, sondern eine Veränderung des Subjekts (das hier durch Verzeihung oder Versöhnung, Heilung oder Befreiung findet).“ Den erhofften und ersehnten Nutzen aus dem eventuellen Funktionieren der Maschine tauscht man gegen unmerklich kleinere (aber kontinuierliche) Fehlfunktionen ein. Während zu diesem Zeitpunkt das Schaden-Nutzen-Verhältnis zunächst für den User annehmbar scheint, dreht sich die Einschätzung dann wenn vermutet werden kann, daß aber eine “Gehirnwäsche“ oder “Sabotage “ stattfindet die sich erst mit dem Überblick über die Akkumulation der dem User aufgezwungenen List im Verlauf der Maschinensteuerung zeigt. „Der große Betrüger operiert mit konzentrischen Dosen der Verführung, er führt Schritt für Schritt den Weg bergab […] [.]“ Der User unterliegt in einem solchen Fall einer Art von religiösem Heilsversprechen, zumindest jedoch einem naiven Aberglauben. Hinter dem blinden Agieren des “willigen Opfer“ steht nicht selten eine stark ausgeprägte Gewinnsucht die die Paradoxien in den “konkurrierenden Logiken“ der Opponenten als nicht signifikant zurückstellt. Betrogen zu werden zeigt aber auch deutlich, daß der Betrogene es ich leisten kann betrogen zu werden bzw. die Möglichkeit des Betrugs überhaupt, d.h. es positioniert den Betrogenen (in der Konsequenz) in der Hierarchie auf einer höheren Stufe als den Betrüger.

“Point Of No Return“
Die Strategie einen gleichwertigen Kommunikationspartner erschaffen zu können, der unter Umständen von einem real agierenden Menschen nicht zu unterscheiden ist, führt zu und erzwingt die List, die eine Maschine der Klasse “Strong AI“ in der Kommunikation mit dem Menschen anwenden muß um menschliche Züge zu tragen. Die List zeigt sich auch in der Unterschätzung der Maschinenkompetenzen durch die User, die weniger Bediente als Bediener sind, gegenüber der Autonomie der Maschinensysteme. Das Verhältnis von Herr und Sklave wird infragegestellt und die entfesselten maschinellen Mechanismen können mit der Überschreitung einer bestimmten Schwelle nicht mehr ohne Einbußen bei dem Bediener zum Bremsen gebracht werden. Die Gier nach

Optimierung oder Erweiterung der maschinellen Fähigkeiten zeigt sich am Beispiel der Bewunderung des Golems in Paul Wegeners Film. Dort wird die Maschine den oberen Schichten der Gesellschaft als Unterhaltungswerkzeug und gleichzeitig als funktionaler Schutz vor Gefahren vorgeführt. „Was für ein Blendwerk bringst Du uns da vor Augen, Du seltsamer Gaukler. Laß uns mehr Deiner Künste sehen.“ Die von der Benützung der Maschinen ausgehende Sogwirkung und die Abhängigkeit des Benutzers von ihren verfügbaren Fähigkeiten zeigt sich bereits in der ersten Konfrontation mit der Maschine. Das ihr innewohnende Prinzip der Täuschung ist zwar durchaus auf den ersten Blick ersichtlich, wird aber auch mit dem Hintergedanken man könne daraus Nutzen ziehen (oder auch aus Neugierde) sofort wieder ausgeblendet.

Im Zusammenhang der Konstatierung einer Dialektik von kultureller und technologischer Evolution muß der Aspekt eines “Point of no Return“, einer von einigen Gesellschaften bereits “erfolgreich“ genommenen technologischen Schwelle erwähnt werden. Der aus der Aeronautik stammende Begriff bezeichnet genau den Punkt auf einer Flugroute, bei dem für eine Rückkehr (aufgrund verschiedener Ursachen wie etwa des benötigten Treibstoffes für einen zusätzlichen Kurvenflug oder das auf dem Rückflug zu durchquerende Gewitter etc.) keine Möglichkeit mehr besteht. Die einzige Möglichkeit ist der Weiterflug mit den bereits vorhandenen Grunddaten und die Erreichung des Endpunktes ohne zusätzliche Hindernisse. Der Begriff des “Point of no Return“ scheint für die Argumentation von besonders treffender Signifikanz zu sein, da der momentane Zustand der Maschinen- und Programmentwicklung primär in den “westlichen“ Gesellschaften einen Punkt erreicht hat, der einen bewußten Verzicht auf die maschinellen Errungenschaften nicht mehr zuläßt. Es ist weder ein selbstgewähltes Zurückgehen zu einem vorherigen Stadion möglich noch überhaupt eine Möglichkeit der autonomen Entscheidung ohne existenzgefährdende Risiken einzugehen. Die einzige Möglichkeit neben der allgegenwärtigen Hingabe an die “Golemisierung“ maschineller Kompetenzen ist die Vorantreibung der Entwicklung in einem ethischen Sinne oder deren Ent-schleunigung. „Durch Hingabe beruhigend und besänftigend stellt er [der Tieferstehende] sich unter den Schutz der umschmeichelnden Stärke. Er partizipiert an höherer Macht, indem er sich auf ihre Seite schlägt und den Weihrauch seiner Devotion darbringt. So mag durch Wechselfälle endloser Kämpfe und Niederlagen die Lust am Reverenzerweisen entstanden sein, im Grunde nichts weiter als ein Mittel der Selbsterhaltung. Was einstmals abgezwungene Reaktionen, ist durch unendliche Wiederholung und natürliche Auslese zum seelischen Bedürfnis und zur lustvollen Gier geworden[…]“ die durchaus mit fetischistischer Neigung verglichen werden kann. Die Nachfrage nach höheren Instanzen, die dennoch eine Nähe zu den menschlichen Bedürfnissen zulassen, äußert sich in einigen auffälligen Sprachspielen: “Hochstapler“ beinhaltet Hochgericht, das über Leben und Tod entscheidet so wie das “Hochfahren“ des “High-Tech“-Computers eine explizite Souveränität des eingenommenen Zustandes von der normalen, trivialen Welt des Benutzers andeutet. Die computergesteuerten Technologien sind zwar lediglich präzisierte Artefakte die zur Erreichung oder Erleichterung bestimmter Ziele eingesetzt werden aber die ihnen zugrundeliegenden Strukturen schreiben sich in die Praktiken ein, für die sie eingesetzt werden. Diese Strukturen haben das Potenzial universelle und uniforme Effekte zu generieren, die unabhängig von dem sozialen Kontext bestehen. Die Mechanismen der technologisch induzierten List und des Betruges benachteiligen weder eine soziale Hierarchie noch bevorzugen sie eine andere, sondern sind quasi undistinguierbar von normalen Praktiken einer Gesellschaft und somit unsichtbar für den normalen User. Wenn das Potenzial der List an sich, den technologieschaffenden Gesellschaften eingeschrieben wäre, dann wären die an die Technologie gebundenen Strukturen der List auch eine Abbildung sozialer Gefüge. Denn die materiellen Ausprägungen der Technologie sind in einer homogenen technologischen Attitüde der Gesellschaft gegenüber den Geschehnissen der Welt verankert. Dies zeigt sich in den automatisch ablaufenden gesellschaftlichen Forderungen nach einer primär technologischen und formal strengen Lösung von Problemen. Die Verlagerung des Schwerpunktes von der Semantik auf die Syntax in bezug zu Lösungsstrategien kann somit nicht nur als innerhalb eines technologischen Prozesses gefangen betrachtet werden sondern zeigt sich vielmehr als Spiegel eines kulturellen Prozesses.

Im Gegensatz zu “primitiven“ Werkzeugen wie Hammer, Schloß, Telefon etc. können die elektronischen Werkzeuge ab einer gewissen Stufe nicht durch Äquivalente ersetzt werden. Nach Erreichen dieses Punktes stehen keine Alternativen für eine Handlung mehr zur Verfügung die unter vergleichbaren Bedingungen zu den gleichen Ergebnissen führen würden. Nach Erreichen des “Point of no Return“ sieht sich eine Gesellschaft mit den von ihr generierten und benützten Werkzeugen nicht mehr in der Lage eine Kehrtwende zu machen, sondern ist darauf angewiesen mit diesen ihr verbleibenden technologischen Artefakten bis zum Ziel weiterzugehen – nicht nur ist eine Rückkehr unmöglich, selbst der Stillstand oder das langsame Abklingen von technologischen Entwicklungen ist unmöglich. Ab einem gewissen Punkt sieht sich eine technologisch entwickelte Gesellschaft mit einem autonomen, sich selbst in immer kürzeren Perioden erneuerndem Mechanismus konfrontiert. In diesem Sinne ließe sich an Nietzsche angelehnt ein allgemeiner “Wille zur Technologie“ bestimmen, der die Tendenz entwickelt die Abhängigkeit der aus ihm resultierenden Produkte von den Schöpfern radikal in Frage zu stellen, wenn nicht sogar abzugrenzen. Nicht nur geben Maschinen und Computer im Speziellen ihre Abhängigkeit von den Menschen nicht zu erkennen, im Gegenteil: sie verschleiern sie und behaupten zusehends ihre Autonomie. „In fact, just the opposite, they try to hide the necessary effort for them to be availlable for use. […] In this way devices ‘de-world‘ our relationship with things by disconnecting us from the full actuality (or contextuality) of everyday life.“ Desweiteren geben sie die Abhängigkeit des Menschen von speziellen Dingen nicht zu erkennen und verstellen zusätzlich die Kontextualität des Menschen und der Welt. Die primäre Kommunikation zwischen Ich und Welt wird verstellt und auf die maschinell vermittelte Interaktion verlagert. So stellen sich Maschinen erfolgreich als Mediator bzw. Zensor zwischen Wille und Erfüllung dessen. Die Präsenz (Existenz für die anderen Teilnehmer) des Users wird durch die Programme gefiltert: Der Mensch muß sich im System anmelden und autorisieren um als Subjekt gelistet zu werden und um überhaupt wahrgenommen zu werden. Der “Point Of No Return“ markiert nicht nur eine Unmöglichkeit der Rückkehr zum Status der maschinenlosen Gesellschaft, sondern indiziert auch die Verlagerung des Materiellen in die Virtualität. Wenn die Interaktion wie im Falle des Aufdrehens der Heizung gemäß dem Wunsch nach Wärme in der Umgebung zunächst auf einer direkten Vermittlungsstufe bleibt, so verlagert sich die Interaktion des Menschen in einer technologisch entwickelten Umgebung im nächsten Schritt komplett in die Virtualität der dem Willen entsprungenen Handlung. Wünsche und Ziele münden nicht mehr in einer materiell nachweisbaren Formung der Welt sondern werden binär transponiert, kodifiziert und schließlich ins “Nirvana“ des Cyberspaces geleitet. Ginge man von einem in Code übersetzten Willen aus und berücksichtigte man die Lehre von Nirvana und Samsara, so scheint der Cyberspace einem Erlöschen von Wünschen und Willensregungen der physischen Welt tatsächlich zuträglich. Abseitig argumentiert kann dies als eine technologische Verwirklichung buddhistischer Grundideologien betrachtet werden. Die wichtigsten Bereiche einer Zivilisation sind programmgesteuert und virtualisiert worden, so daß sich die User dieser (nützlichen) Systeme über die Verpuffung ihrer realen Wünsche in virtuelle Computernetze bewußt sein sollten. Die Benutzung virtueller Identitäten, Objekte, Währungen etc. haben den Nimbus des Harmlosen, des Trivialen da sie scheinbar keine physischen Auswirkungen mehr haben. Dies ist einer der Stränge nach dem die Maschinen nicht bloß als Mittel zur Erleichterung der körperlichen Arbeit sondern auch zur Verdrängung der realen Verantwortung eingesetzt werden können. Die Verleumdung von Schuld und Verlagerung von Kausalität in a-humane Bereiche steht bei der Benützung von Maschinen immer verdächtig im Hintergrund, so daß anzunehmen ist, daß „der Mythos von Golem, der rebellischen Maschine, die gegen den Menschen aufbegehrte, eine Lüge war – nur dazu ersonnen, damit jene, die für all das die Verantwortung trugen, ihre Schuld abwälzen konnten.“ Hier zeigt sich erneut deutlich schon die Umkehrung der Pole, da das Resultat einer objektiven Beurteilung eines solchen Falles nur schwer leugnen könnte, daß nicht der Mensch die Maschine unter Kontrolle habe sondern dies anders herum der Fall zu sein scheint. In diesem Fall kann man zutreffend behaupten, der Mensch be-diene das Programm.

Irrationalität und Kausalität
Schlauheit und List scheinen auch dann vorzuliegen wenn ein unberechenbares oder unerwartetes (trotz Programmierung und Begrenztheit oder einer deutlichen Übermachtsstellung des Users) und für die Maschine dennoch nützliches Ergebnis erzielt wird und dabei im optimalsten Fall auch noch die etablierten Machtdispositionen neu konfiguriert werden. Auch in Fällen von sich erst aus der Retrospektive als positiv und eigennützlich entpuppenden Outputs, würde man der Maschine eine Art von List zubilligen. Obwohl also das Maschinensystem ein strikt formales Gefüge aus kausalen Wirkungen darstellt, kann im Ausnahmefall der Benutzer mit einem überraschenden Ergebnis konfrontiert werden, das eine schnelle und angemessene Reaktion von ihm verlangt, will er die bisher angesammelten Fortschritte (in Form von Daten) nicht durch einen radikalen Systemneustart riskieren. Diese im Hintergrund latent immer vorhandene Spannung des totalen Systemversagens (mit komplettem Auslöschen der Benutzerexistenz) attestiert natürlich einen Defizit an wirklicher Kontrolle. „Die Angst vor unbefugten Eindringlingen zeigt aber auch einen Mangel an Überlegenheit, und dieser wird nicht ohne weiteres eingestanden.“ „Hast Du durch Zauberwort Totes zum Leben erweckt, sei auf der Hut vor Deinem Geschöpf. [Tritt der Uranus ins Planetenhaus fordert Azaroth sein Werkzeug zurück.] Dann spottet der tote Lehm seines Meisters, sinnet auf Trug und Zerstörung.“ Auch in diesem Fall wird dem Golem lediglich eine Funktion als Werkzeug eingeräumt und weiterreichende Kompetenzen nicht zugesprochen. Es scheint ein sich durch die Geschichte der Menschheit konstant verbreitendes Paradox, (ehemals und eigentlich) unbelebter Materie immer wieder (wahrscheinlich bis zur endgültigen Erfüllung solcher Spekulationen) böswillige, zumindest rebellische und damit eigen-willige Taten zu attestieren. So ist diese Entwicklung im Fall des kabbalistischen Golems, des christlichen Menschen, des pre-industriellen Schachautomaten, des post-industriellen Roboters und schließlich der neuzeitigen Supercomputer anzutreffen. „Das erlaubt die Annahme, daß es in unserer Kultur eine eigentliche und durch die Jahrhunderte fortwährende Technologie der Wahrheit gegeben hat, die von der wissenschaftlichen Praxis und dem philosophischen Diskurs allmählich abgewertet, verdeckt und ausgetrieben wurde. Diese Wahrheit gehört nicht der Ordnung des Seienden an, sondern der Ordnung des Geschehens: Sie ist Ereignis. Sie wird nicht konstatiert, sondern hervorgeholt: Produktion anstelle von Apophantik. Sie ergibt sich nicht über die Vermittlung von Instrumenten; sie wird durch Rituale herausgefordert, sie wird mit List angelockt, den Gelegenheiten entsprechend erfaßt: Strategie und nicht Methode. Das Verhältnis zwischen diesem auf solche Weise produzierten Ereignis und dem Individuum, das seiner harrte und von ihm heimgesucht wurde, ist nicht das zwischen Objekt und Subjekt der Erkenntnis; es ist ein Verhältnis der Ambiguität, ein reversibles, kriegerisches Verhältnis von Meisterrecht, Herrschaft und Sieg: ein Machtverhältnis.“ Maschinen und ihre Programme simulieren geglaubte Realitäten und reflektieren sie damit auch. Zwangsläufig spaltet sich die Wahrnehmung der Simulation in zwei Extreme: Die “Lüge“ und die “Wahrheit“. Ausgehend von diesem einfachen Dualismus kann man die Frage nach der Motivation der Handlungen stellen, nach der eventuellen Zweckgerichtetheit, der kausalen Determiniertheit etc. Es entfalten sich auch die speziellen Fragen nach der ethischen Implikation des Handelns und der Moral innerhalb dieser stark polarisierten Debatte. Eine Interpretationsweise führt zur betrübten Technophobie, die entgegengesetzt zur Alternative, eines in heilsbringender Utopie mündendem, euphorischen Fortschrittsglauben steht.

Auch bei der Bewunderung des Über-natürlichen (das als Attribut den Maschinen durch etliche Wortspiele und Metaphern unter-stellt wird) zeigt sich der religiöse Aspekt. In diesem Sinne sei angemerkt, daß zur Unterstützung des Betruges geordnete Systeme die mit fromaler Strenge operieren sehr hilfreich sein können. Der Betrug basiert auf einer Wandlung sowohl des Betrügers als auch des Betrogenen. Der Betrüger unternimmt einen Grenzgang zwischen zwei Extremen, sozusagen zwischen Sein und Nichtsein von Existenzen, zwischen Null und Eins da er meist nur formal vorgibt etwas zu sein (meist das gegenüberliegende Extrem) und der “Sich-Betrügen-Lasser“ erhofft sich einen Vorteil seiner eigenen Position mit den offerierten Scheinvorteilen. Gerade wegen des Risikos jeden Moment kollabieren zu können, ist der Betrüger so sehr auf eine formale Strenge und Kontinuität angewiesen, will er seinem Gegenüber wenigstens auf syntaktischer Ebene eine in sich widerspruchsfreies System präsentieren. Sogar der von Paul Wegener inszenierte Golem bedient sich formaler Prinzipien: Er hat (ähnlich dem “klassischen Betrüger“) einen Anzug an, der im Film wie ein starres Korsett oder Gerüst als typisches Modell für folgende Roboterverbildlichungen dienen konnte – ebenso wie humanoide Roboter, sogenannte Androiden, stets als Zeichen ihres Maschinenursprungs als sich hölzern bewegende, ruckartig zappelnde und autistisch wirkende Figuren portraitiert werden, deutet die äußere Form des Golem auf das Eigenleben hin und gibt der Kreatur ihre mechanischen Bewegungsmöglichkeiten formal und streng vor.

Ein wichtiger Faktor bei der Mitverantwortung des Opfers beim Betrug ist die Art und Weise wie die eventuellen Bedenken des Opfers mit einer formalen Strenge überdeckt werden. Zur Profilierung der Vertrauenswürdigkeit gehören beim klassischen Betrug die kleinen dekorativen Accessoires, wie Monokel, künstliche Schmissen und wappengeschmücktes Zigarettenetui, die das Auftreten des Betrügers markieren und die diesen als ein Mitglied einer höheren Stufe auszeichnen sollen. Das geistliche Gewand und die Uniform stellen dabei die verführerischste aller Formalitäten dar. Im Falle einer maschinellen Betrügerei lassen sich die Benutzer trotz “inhaltlicher“ Lücken und Schwachstellen dennoch von einer formal strengen und magischen Sprache des Systems übertölpeln. So stellen abstrakte Fehlermeldungen in einer spezifischen und mathematische Fachsprache verfaßt, die meisten dieser Überlistungsmechanismen dar. „Nach der Rechtsprechung und der überwiegenden Auffassung in der Literatur kann ein Betrug auch durch Unterlassen verwirklicht werden. In einem bloßen Schweigen, d.h. der Nichtaufklärung eines bestehenden oder der Nichthinderung eines sich bildenden Irrtums, kann ein Verhalten liegen, daß als Täuschung zu bewerten ist.“ Andere Meinungen sagen, daß ein solcher Betrug nicht stattfindet da ein “zielgerichteter Wille“ nicht erkennbar sein kann. Es gäbe keinen finalen “Verwirklichungswillen“ aber das Schweigen des Täters könne dennoch zum Überlisten des Opfers führen.

Dennoch enthält diese Intimität des Verhältnisses Mensch-Maschine ein trügerisches Potenzial: Zum einen erfordert die Kommunikation mit den Programmen ein Anpassen des Menschen an deren Logik und ein Übernehmen dieser Systeme. Funktioniert eine Maschine nicht ordnungsgemäß, so ist sie meist nicht im Stande selbständig die Fehler zu beheben, sondern lediglich diese mittels fest definierten Meldungen anzuzeigen und gegebenenfalls auf die verursachenden Prozesse im weiteren Verlauf des Funktionierens zu verzichten, diese zu übergehen oder sogar in einer endlosen Schleife gefangen zu sein. Will der Mensch trotz der Untüchtigkeit des Programmes sein intendiertes Ziel erreichen, so bleibt ihm nichts anderes übrig als für und mit dem System zu denken, also dessen Logik anstatt seiner alltäglichen zu benutzen. Die Maschine überträgt und externalisiert automatisch ihre Probleme bzw. fehlerhaften Routinen aus ihrem eigenen unstabilen System heraus in ein anderes, daß nun gezwungen ist mittels der maschinellen Logik anstelle der Maschine mit den eigenen Ressourcen an einer für die Maschine optimierten Lösung zu arbeiten und ihr diese dann wieder zu internalisieren. Wie ein Virus, das lediglich einen Zwischenwirt benutzt um mit dessen Ressourcen exploitatorisch und parasitär die eigenen Interessen zu befriedigen, scheinen Maschinen diese Art von List zum Zwecke des Selbstschutzes implementiert zu haben.

Als Ergebnis der vorgenommenen Überlegungen kann eine Aufspaltung in drei unterschiedliche Betrachtungsweisen erfolgen, die anhand der individuellen Interpretation Aufschluß über die Verhältnisse der Benutzer zu ihren Maschinen geben können.

Erster Fall: Die Maschine betrügt da der Code fehlerhaft ist – der Fehler des Programmierers wird fälschlicherweise vom Benutzer als intentionaler Betrugsversuch der Maschine interpretiert.

Im Zweiten Fall betrügt die Maschine da der Programmcode die Maximierung des Nutzens bereits enthält. In diesem Fall ist eine Handlung, die als Betrug oder List gedeutet werden kann, als normale Funktion des Programms vorgesehen. Diese Vorgehensweise schließt im optimalen Zustand natürlich die Analyse der Umwelt, das dynamische Reagieren auf Veränderungen und notwendige Modifikationen seitens der Maschine mit ein. Hier zeigt sich List als purer Automatismus oder schärfer ausgedrückt: Als technologischer Determinismus.

Dritter Fall: Die Maschine befolgt den Code gar nicht mehr, sondern führt einen (intelligent) mutierten, sich-selbst-verbessernden Code aus, womöglich um eigenständig postulierte Interessen durchzusetzen. Diese Variation unterscheidet sich von dem vorherigen Fall dadurch, daß eine Reflexion, Modifikation oder Negation der eigenen Funktionen vorgenommen werden kann und selbst gesetzte oder von anderen Systemen kopierte bzw. synthetisierte Eigenschaften hinzugefügt werden können um nicht intendierte (bereits einprogrammierte Handlungen oder Derivate derer) vollziehen zu können oder diese durch den Benutzer zu veranlassen.

Jede der vorgeschlagenen Alternativen läßt unterschiedliche Schlußfolgerungen zu, die zu einem komplett unterschiedlichen Weltbild führen können:

1 .Die Verantwortung kann beim Betreiber bzw. Entwickler gesucht werden; Es kann aber auch aufgrund der komplexen Struktur des Codes und der womöglich unsachgemäß eingesetzen Maschine ein Ausschluß solcher Forderungen erzielt werden.

  1. Dieser Fall läßt darauf schließen, daß eine Weiterentwicklung des Programms nötig ist, da die angestrebte Funktion zu leicht entlarvt oder mißgedeutet werden kann. Die Verantwortung möglicher Schäden resultierend aus den Fehlern der Maschine liegt auf Seiten der betreibenden Instanzen.
  2. Das Handeln der Maschinen ist dem menschlichen Denken als gleichwertig entgegenzusetzen und der Mensch ist mit seiner Art des Denkens nicht mehr solo. Daraus kann man folgern, daß die verschiedenen Denkweisen nicht gleichwertig sind und daß das maschinelle Denken womöglich dem menschlichen überlegen sei. Weiter kann man schließen, daß die Maschinen mit Hilfe des überlegenen Denkens hinter der Fassade des reinen utilitaristischen Funktionierens ihre eigenen Interessen vorantreiben und auf die “Hilfe“ der Menschen nicht mehr angewiesen sind, diese heimlich unterdrücken, oder gar offensichtlich für ihre eigenen Vorteile versklaven. Die Verantwortung für fehlerhaftes Handeln bzw. Ergebnisse mit schädlichen Auswirkungen liegt allein bei den nun autonom agierenden Maschinen.

Speziell der letzte, einem zu Rückkopplung und dynamischer Selbstregelungsmechanismen fähigen und damit kybernetischen System, entsprechende Fall, ist der interessanteste der drei Optionen und führt zum Kern der Frage nach zunächst menschlicher Moralität und künftiger a- humaner Verantwortung bei Maschinen und derer Programme. „Mit viel Genialität und Einfallsreichtum wurden Mechanismen ersonnen, mit denen man diese furchtbare Last vermeiden könnte. Der hierarchische Aufbau vieler Institutionen hat eine Lokalisierung der Verantwortung unmöglich gemacht. Jedermann in einem solchen System kann sagen: “Mir wurde gesagt, X zu tun.““ Die der technischen Entwicklung eingeschriebene Intentionalität ist ein Anzeichen für eine teleologische Tendenz, eine Zielgerichtetheit in der Evolution aufgrund von implizierten, grundlegenden menschlichen Motiven. In diesem Prozess kann man die Frage nach der Möglichkeit der Steuerung der Technik stellen und der bewußt gelenkten Entwicklung. „To continue this analysis, the actual kernel of technology must include goals, purposes, and desires; i.e., it must contain normative expressions. One could express this metaphorically: technology has to do with questions of human power and its human institutions. If this is true, technology has to be regarded as something that has to do with free will on the one side and natural law on the other side.“
Resümee
Als Problem der Diskussion kann festgehalten werden, daß wenn von intelligenten Maschinen gesprochen wird, diese Debatte stets die (meist unausgesprochene) Prämisse enthält, die den Menschen selbst als maschinelles Konstrukt begreift. Insofern können Maschinen als listig bezeichnet werden, als daß wir selbst solche Maschinen sind, die andere Maschinen (untergeordneter Kategorien) bauen und selbst bei dieser Prozedur listig sind und (uns selbst) betrügen indem wir versuchen die Ursachen unserer Handlungsmotivationen zu simulieren um damit die Wirkungen zu bewirken. „»Could a mashine think?« My own view is that only a mashine could think, and indeed only very special kinds of mashines, namely brains and mashines that had the same causal powers as brains.“ Bei der Frage nach den Intentionalen Kompetenzen von Maschinen geht es nicht um die Frage ob ein Computer listig sein kann respektive denken kann, denn alles kann ein Computer sein – die interessante Frage ist, ob Programmen diese intentionalen Eigenschaften zukommen können. „[S]trong AI has little to tell us about thinking, since it is not about machines but about programs, and no program by itself is sufficient for thinking.“ Zu sagen menschliche Intentionalität könne nicht übertragen oder simuliert werden ist ähnlich der Behauptung, verschiedene Maschinen können nicht den selben Input und Output haben, während sie auf verschiedenen formalen Prinzipien beruhen. Die Frage ob dabei der Computer tatsächlich versteht was er macht ist nebensächlich da die “kausalen Faktoren“ im formalen System des Maschinenprogramms eine Outputkette bewirken, die aufgrund der Ähnlichkeit mit menschlichen Handlungen als List oder Betrug interpretiert werden können. Das Verstehen beim Menschen und die Reflexion über Handlungen ist auch relativ und in der Komplexität der Definition nicht zu unterschätzen. Es kann nicht ein dichotomisiertes Modell von Wahr und Falsch bzw. neutraler formuliert, ein zweistelliges Prädikatensystem postuliert werden sondern das System scheint graduell in unzählige Nuancen des Verstehens abgestuft und in in Unterarten verzweigt zu sein. List besteht auch in der Verlagerung von Outputs auf die pure Form weg vom inhaltlichen Gewichtungen. Man ist als User mehr damit beschäftigt die Formstruktur (Syntax) zu erlernen (und damit auch weiterzuentwickeln), die nötigen Befehle abzuspeichern als daß der Inhalt (Semantik) bearbeitet wird. Der User hat in der Regel keinen Zugang zu einer Tiefenstruktur der Programme. Damit optimieren die User ohne eine inhaltliche Kommunikation zustande zu bringen die logische Strenge der Programme immer weiter. Programme haben insofern merklich einen “Willen“ da sie Ausdruck von Zielen, Werten, Nutzen, Intentionen und Wünschen darstellen (reflektieren die sie schaffende Gesellschaft), die Systeme sind damit immer normativ und präskriptiv (zugleich?). Die Gegenüberstellung von User als Subjekt und Maschine als Objekt resultiert im Auflösen des Subjektes durch die Anforderungen der Maschinen an die Subjekte in ihrer eigenen (objektiven) Logik zu funktionieren. Die Existenz des User ist teilweise mit und durch die Maschine formal klassifiziert und objektiviert. Mehr noch erfahren die traditionellen Gebräuche und Riten durch die Einschaltung der Maschinen eine Transformation in die Virtualität. Geographisch limitierte Handlungen sowie Kommunikationsformen formen sich zu Cyber-Sitten. Das Dazwischenschalten von Maschinen in die Beziehung “Ich-Welt“ bedeutet ein Unterbrechen und ein Moderieren dieser ursprünglichen Relation von Subjekt und Objekt. Im Verlauf dieses Trialogs geben Sie dem Benutzer vor, sie seien von ihm unabhängig und täuschen somit über die wahre physische Abhängigkeit von ihm hinweg. Nach Überschreiten des “Point Of No Return“ sieht sich der Mensch als passiver Beobachter und gewordenes, von den Maschinen physisch als auch psychisch abhängiges Werkzeug in seiner technisierten Umwelt gestellt. „Die Grundform »Trug« geht auf Traum und ein altnordisches Wort für Gespenst, listig schädigender Unhold zurück. Wie beim nächtlichen Diebstahl hat das Volk ursprünglich auch beim Betrug an Zauberwirkung gedacht. Es war die unheimliche Kraft, den Widerstand zu nehmen und geistig in die Sklaverei zu führen. In manchen Worten wie »fesseln«, »bestricken« (englisch enthrall und captivate) ist der Übergang von der äußeren Beherrschung zur inneren Unterjochung sichtbar.“ Als wesentliches Merkmal des Betruges sollte man aber die Tatsache hervorheben, daß im implizierten Wissen des Betrogen-werdens durch Maschinen sich die ursprüngliche Hierarchie in dem Sinne neu etabliert, da im Moment des Sich-bewußt-werdens einer Hintergehung das Opfer dieses sich automatisch über den Betrüger stellt da es nicht nur Wissen über seine ehemalige Situation hat sondern auch über die reflektierte Version als Betrogener und den Mechanismen des “Betrogen-Werden-Könnens“. Aufgrund der physischen Unterlegenheit der Maschinen scheint die Art der Vortäuschung eines Vorteils oder Nutzens (der in der Wirklichkeit des Benutzers im Endeffekt ein Nachteil ist) die logischste Art der Gleichstellung zu sein. Diese Methode ist effektiver und unriskanter als Gewaltanwendung. Zudem scheut das Opfer einer List noch mehr Schaden durch Spott zu erleiden und reagiert mit beschämter Schweigsamkeit bzw. Verdrängung. In einem solchen Prozess scheint ein perfider Selbstschutzmechanismus des Betrügers in Kraft zu sein, dessen positive Auswirkung sich aber einerseits in der Selbstreflexion des Opfers und seiner Position und andererseits der eventuellen Defizite die eine Überlistung überhaupt ermöglicht haben, zeigt.

„Alle Technik ist bisher kontranatural gewesen, weil sie Prinzipien eingesetz hat, die in der Natur so nicht vorkommen, zum Beispiel den Schnitt der klaren Messerklinge, die reine Rotation des Rades, die Flugbahn der Pfeils, der vom Bogen schnellt, die Knotenkunst und so weiter. Technik war über Jahrtausende hinweg meistens Allotechnik, daß heißt auf gegennatürliche Funktionen und Geometrien aufgebaute Mechanik. Allotechnischen Maschinen sieht man auf den ersten Blick an, daß sie Maschinen und keine Naturen sind. Jetzt ist zum ersten Mal die Schwelle erreicht, wo die Technik anfängt, eine naturähnliche Technik zu werden – Homöotechnik statt Allotechnik. Sie bricht nicht mehr so sehr mit dem modus operandi der Natur, sondern knüpft jetzt an, sie lehnt sich an, sie kooperiert, sie schleußt sich ein in Eigenproduktionen des Lebendigen, die aufgrund evolutionärer Erfolgsmuster im Gang sind.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert