<li><a href="../../index.html">e.journal</a> : [ <a href="../../toc-nf.html">Inhalt</a> ]<br> <li>b&uuml;.cher : [ <a href="../toc.html">Inhalt</a> ]<br> <li><b>Wort, Schrift, Druck, Kommunikation im Wandel</b> : [ <a href="toc.html">Inhalt</a> | <b>3</b> | <a href="quellen.html">Quellen</a> ]<br> <hr>
3. Die Informationsgesellschaft
3.1 Die Logik von Aristoteles bis zur Renaissance
3.2 Die Renaissance, Galileo und Descartes
3.3 Leibniz und der Calculus Ratiocinator
3.4 Babbage und die analytische Maschine
3.5 Boole und die Algebra der Logik
3.6 Frege und die konzeptuelle Schrift
3.7 Turing und seine Maschine
3.8 Der Tractatus logico philosophicus
3.9 Die Informationsgesellschaft
3.10 Abschliessende Betrachtungen

3. Die Informationsgesellschaft

Mit dem Aufkommen des Computers, und allgemein, der Elektronik und der Mikroelektronik ändert sich die menschliche Kommunikation derart schnell, daß eine klare Bewertung des Phänomens in seiner Gesamtheit noch nicht möglich ist. In der heutigen Informationsgesellschaft ist es möglich, Bilder und Laute sofort überallhin zu schicken und sie zugleich in elektronischen Archiven zu speichern.
Dies wiederum stellt die natürliche Entwicklung jenes Prozesses von Speicherung und Verteilung der Informationen, der zuerst von der Schrift und dann dem Buchdruck eingeleitet wurde, dar.
Schrift und Buchdruck haben jedoch keine wirklich aktive Rolle im Schaffen, Abändern oder Interpretieren von Informationen gespielt. Die von Schrift und Buchdruck verschaffte Information bleibt im wesentlichen passiv, auch wenn sie durch ihre besondere Struktur das Gedankengut des Benutzers tiefgreifend beeinflussen kann. Das Modell der Vereinigung von Informationen, das ist die analytische oder synthetische Denkweise, verwandelt die Daten in andere Daten, indem es aus letzteren neue semantische Informationen bezieht.
Mit dem Computer wechselt das Konzept eines aktiven Modells immer mehr (vor allem in bezug auf die Masse vielmehr als auf die innere Komplexität) von der subjektiven Denkweise in ein objektives Werkzeug. Das Ziel der Informatik ist nicht nur das, die Speicherung der Informationen zu mechanisieren, sondern auch das, der Denkweise selbst bis an die Grenzen der Möglichkeit nachzueifern.
Wir können uns in vereinfachter Weise vorstellen, dass der Computer der Konvergenzpunkt von zwei Linien paralleler Entwicklung ist: der logisch-mathematischen und der Entwicklung der Konstruktion von Rechenmaschinen.
Die Logik ist entstanden, um die grundlegenden Regeln die Denkweise, von der die Mathematik durch ihre deduktive Struktur das Modell geliefert und die Möglichkeiten der Mechanisierung aufgezeigt hat, zu individuieren.
Die Entwicklung der Rechenmaschinen, die wir ideell auf das Rechenbrett (abacus) zurückführen können, hat andererseits eine progressive Konsolidierung der zur Konstruktion des Computers nötigen Technik zugelassen. Dieser dritte Teil unserer kurzen Analyse der Entwicklung der Kommunikation beginnt also mit einer Untersuchung der Entwicklung der Logik.

3.1 Die Logik von Aristoteles bis zur Renaissance

·^· Die Griechen hatten ihre Analyse nicht nur auf die Natur der Dinge und auf Betrachtungen von Zahlen und Figuren beschränkt, sondern sie hatten auch begonnen, die Mechanismen des Denkens zu erforschen.
Aristoteles bestätigte, er sei der wahre Initiator dieser Disziplin gewesen: ...in bezug auf unser Werk hingegen, kann man nicht nur nicht sagen, daß es teilweise schon vollkommen ausgeführt sei, und teilweise nicht, sondern man muß sogar bekräftigen, daß es durchaus nichts Ähnliches gegeben hat (Sophistische Widerlegungen; 34, 183b).
Die aristotelische Logik wäre wahrscheinlich ohne das Werk Platons, der, wie wir im ersten Teil gesehen haben, eine Hypostatisierung der Konzepte begonnen hatte und so den Gehörsinn, die mündliche Kultur, mit dem für die schriftliche Kultur typischen Gesichtssinn ausgetauscht hatte, nicht aufgekommen. Platon führte, wenn auch nicht auf formale Weise, die ersten Elemente der Logik wie etwa das Prinzip vom Nicht-Widerspruch ein: Es ist klar, daß das identische Subjekt in der identischen Beziehung und in Bezug auf das identische Objekt nicht zugleich gegenteilige Dinge machen oder erleiden kann (Politeia, 436,b). Mit Platon kam außerdem die zentrale Rolle auf, die die Mathematik in der Entwicklung des Wissens (und also der Logik) haben würde.
Die Geometrie war damals die einzige deduktive Disziplin, und Platon bemerkte die Bedeutung ihrer Beweisstruktur, so daß er die Kenntnis der Geometrie als grundlegende Voraussetzung, das Studium der Philosophie zu bewältigen, ansah: ... die Geometrie ist das Wissen von dem, was ständig ist (Politeia, 527,b).
Mit Aristoteles jedoch kam die Logik wirklich auf, und mit ihr der Syllogismus, der den ersten Versuch von Mechanisierung der Denkweise darstellte. Die Logik wurde von Aristoteles als das Studium der bestehenden Beziehung zwischen Prämissen und Konklusion eines Denkaktes angesehen.
Ein Beweis war ein gültiger Syllogismus mit wahren Prämissen - nach Aristoteles war aber nicht das ganze Wissen beweisbar, man mußte also von selbsteinleuchtenden Wahrheiten beginnen.
Auf diese Weise schuf er die Grundlagen für jene axiomatische Methode, die in Euklids Geometrie den ersten großen Erfolg fand.
Aristoteles führte auch das Konzept von Form, das schließlich das grundlegende Element in der Struktur des Wissens wurde, ein: ...was aus etwas so zusammengesetzt ist, daß das Ganze eine einzige Sache ist, soll man nicht als ein Aggregat bezeichnen, sondern als etwas, das einer Silbe ähnelt. Die Silbe identifiziert sich in der Tat nicht mit den Buchstaben des Alphabets, und "ba" ist nicht dasselbe wie "b" oder "a"..die Silbe ist also etwas Individuelles... dieses Prinzip von Vereinigung ist ein Element... (das) sich noch einmal in der Überlegung selbst wiederholen wird... (Metaphysik, 1041, b10).
Auf diese Weise begannen die Dinge auch nichtmaterielle Dimensionen zu bekommen, und die Form ermöglichte das Generalisieren, wenn auch verschieden von Platons Ideen, von den einzelnen Einheiten ausgehend. Das hauptsächliche Sinnesorgan, mit dem man Wissen erlangte, war noch der Gesichtssinn: man sah die Formen, ebenso wie man die platonischen Ideen sah. Im Unterschied zur Idee Platons existierte die Form jedoch nicht von allein und sie bremste in gewisser Hinsicht die von Platon begonnene gesteigerte Objektivierung und Trennung zwischen Subjekt und Objekt.

Im Mittelalter nahm das Konzept von Form vor allem mit Thomas von Aquin eine grundlegende Rolle ein. Verstehen war ein Sehen, ein Erfassen der Formen. Für Thomas gibt es noch nicht eine präzise Trennung zwischen Subjekt und Objekt. Die Form, die nicht materiell war, war die Berührungszone zwischen Intellekt (immateriell) und der Realität (materiell), welche die beiden trennte. Bis zu Bacon war jene der Formen die höchste Erkenntnisart. Bacon begann sich aber von dieser Gedankenlinie zu entfernen, indem er behauptete, die Formen seien oft zu kompliziert, um sie sofort zu erfassen. Es brauchte eine mehr stufenweise und weniger direkte Verstehensweise. Langsam änderte sich die Beziehung zwischen Subjekt und Objekt, bis es zu einer vollständigen Trennung der beiden Realitäten kam.

3.2 Die Renaissance, Galileo und Descartes

·^· Wir haben bereits gesehen, wie der Buchdruck die kulturellen Gewohnheiten des europäischen Menschen auf tiefgreifende Weise geändert hatte. Die Manuskripte des Mittelalters erhielten auf gewisse Weise die kommunikative Struktur der Mündlichkeit aufrecht.
Nicht zufällig waren die bedeutendsten Texte von Platon bis Galileo häufig in Form von Dialogen geschrieben worden. Mit dem Aufkommen des Buchdruckes wurde die Struktur der Texte hingegen systematischer und zugleich spezialisierter. Gleiche und numerierte Seiten, Gliederung in Kapitel, Inhaltsverzeichnisse, Bezugstabellen und vor allem Schemata, Zeichnungen und Bilder schufen die Voraussetzungen für eine tiefgreifende Veränderung des Denkens. Die cartesianische Philosophie, auch wenn sie nicht direkt von der typographischen Revolution abzuleiten ist, wäre wahrscheinlich ohne letztere nicht in dieser Weise aufgekommen.
Auf Descartes, den ersten modernen Philosophen, übte auch das Denken Galileos, des ersten modernen Wissenschaftlers, einen grundlegenden Einfluß aus. Um die galileische Revolution zu begreifen, muß man wieder zu Platon zurückkehren. Für letzteren gab es zwischen Realem und Idealem eine Beziehung von Partizipation: ...alle Dinge partizipieren am Selben (Sophistes, 256,a), und es war gerade die Geometrie, welche, indem sie Formen von absoluter Generalität individuierte, es ermöglichte, das zu erkennen, was beständig ist.
Wenn die alte Geometrie eine Art war, mit der Natur in Kontakt zu treten, wurde mit Galileo die Natur selbst mathematisiert.
Da die Geometrie bereits ein Ganzes an symbolischen Darstellungen, die verschieden von den dargestellten vielfachen Dingen waren, wie Kurven für das Profil von Bergen, Kreise für den Umriß von Seen, Linien für die Flußläufe, geschaffen hatte, war es natürlich, daß sie das ideale Modell für die Darstellung liefern würde. Nach Galileo gab es in den gedanklich dargestellten geometrischen Formen, wenn auch mit einer gewissen Gradualität von mehr oder weniger Runden oder von mehr oder weniger Geraden, doch eine wesentliche Konformität mit der realen Form der Natur, die auf diese Weise in ihrem Innersten als geometrisch angesehen wurde.
Husserl sagt: ...In der galileischen Mathematisierung der Natur wird die Natur selbst unter Anleitung der neuen Mathematik in modernem Sinne idealisiert: Sie wird ihrerseits mathematische Vielheit ... Galileo begann auf die Art.. die der Geometrie zu einer einheitlichen Bestimmung verhilft, und man sagte: "Überall ist man dazu gekommen, eine ähnliche Methodik auszuarbeiten, dank welcher man auch die Relativität des subjektiven Verstehensprozesses überwunden hat".. so also lernen wir wirklich ein Seiendes an sich, wenn auch nur davon ausgehend, was empirisch und in der Form einer Annäherung an die ideale geometrische Form, die als leitender Pol fungiert, gegeben ist, kennen... (28)
Und dann fügt Husserl hinzu: ...indem Galileo die Welt von der Geometrie ausgehend betrachtet, von dem, was durch die Sinne erscheint und mathematisierbar ist, abstrahiert er von Subjekten, sofern sie Personen sind ... von allen kulturellen Qualitäten, die die Dinge in der menschlichen Praxis angenommen haben. Aus diesen Abstraktionen gehen die reinen körperlichen Dinge hervor, die jedoch für konkrete Realitäten gehalten werden... Man kann wohl sagen, daß sich mit Galileo die Idee einer Natur herauskristallisiert, die als eine wirklich in sich umschriebene Körperwelt aufgefaßt wird. (29)

Mit Galileo kam also eine neue Beziehung zwischen Individuum und Natur auf. Die universale Wissenschaft dieser mathematisierten Natur mußte eine "more geometrico", eine einheitlich rationale Theorie sein. An diesem Punkt war es für Descartes natürlich, das Denken als eine Projektion der Realität in unser Bewußtsein aufzufassen - anstelle der direkten Beziehung, die durch die mittelalterlichen Formen zustande kam.

Die res cogitans, also der Geist, sah (und sah ausschließlich) die Projektionen der Realität (d.i. die Darstellung) auf dem eigenen inneren Bildschirm. Das Denken war vollständig ein Sehen geworden, und die Mathematik das Beispiel des Gedankens als Darstellung. (30)

Von geometrischen Methoden geleitet, legte Descartes fest, das als Wahres nicht zuzulassen, was nicht so klar und deutlich war, jeden Zweifel zu eliminieren. Er beschloß, die großen Probleme in kleinere aufzutrennen und vom Einfachen zum Komplexen voranzuschreiten.

Mit Descartes war jedoch die vermittels der Sprache auf Darstellung (das ist auf Konzepte) abzielende Tätigkeit noch nicht völlig formalisiert (und also mechanisierbar). Auch wenn sie der mathematischen sehr ähnlich war, war sie noch ganz semantisch:
Die Konstruktion, die man im Denken schafft, ist nicht jene der Namen, sondern jene der von den Namen bezeichneten Dinge; und ich wundere mich, daß man häufig das Gegenteil glaubt... (Meditationen, 3. Einwand). Der Philosoph, auf den sich Descartes bezog, war Hobbes, mit dem der mechanistische Geist der europäischen Kultur die ersten Schritte machte:
.... Das Wahre und das Falsche sind Attribute des Wortes, nicht der Dinge (Leviathan, IV). Das Kriterium der Wahrheit war für Hobbes im sprachlichen System von Darstellung der Realität selbst und war nicht Teil der ontologischen Struktur derselben.

3.3 Leibniz und der Calculus Ratiocinator

·^· Wenn das Denken einmal auf Darstellungen begründet war, war es natürlich, zu versuchen, seine Funktionsweise zu verstehen. Das Denken war für Hobbes nichts anderes als die Folge von allgemeinen Begriffen, über die man sich einig ist, um unsere Gedanken zu bezeichnen, dazu- und wegzuzählen; (Leviathan, V). Von Hobbes Idee einer engen strukturellen Beziehung, zwischen den Namen ausgehend, entdeckte Leibniz in der Logik, sofern sie Systematisierung des Denkens ist, die beste Struktur für die Prüfung der Darstellungen. Außer Descartes und Hobbes wirkten jedoch zwei andere Denker tiefgreifend auf die Entstehung der Logik von Leibniz ein.
Der erste, Raymond Lull , hatte im 13. Jahrhundert eine allgemeine Kunst ausgearbeitet, die auf solchen Prinzipien beruhte, daß sie die Grundlagen aller Wissenschaften umfaßte. Lull's Werk, das Leibniz am meisten bewegte, war die"Ars Magna", wo eine Mechanik der Logik entwickelt wurde, in der Subjekte und Prädikate von theologischen Sätzen in konzentrischen Kreisen (und in anderen geometrischen Figuren) aufgeteilt waren, um den Zusammenhang und die Harmonie zwischen Gott, Mensch und Welt aufzuzeigen. In der Mitte der Kreise befand sich Gott, bezeichnet durch ein "A", und dieser Kreis selbst war in sechzehn Teile aufgeteilt, die ebensoviele göttliche Attribute darstellten.
Indem man auf günstige Art eine gewisse Zahl von Kreisen drehte, konnten verschiedene Propositionen konstruiert werden. Seine "rotierende Logik" hatte jedoch keinen Erfolg und war Objekt schwerwiegender Kritiken, bis sie gewissermaßen von Leibniz aufgenommen wurde, der in der "Ars Magna" eine Idee sah, welche zu einer universalen Algebra aller Wissenschaften fuhren konnte. Der andere Denker, der das Denken von Leibniz beeinflußte, war der Mathematiker Viète. Dieser hatte im 16. Jahrhundert eine Buchstabenschreibweise auch für die Koeffizienten der Gleichungen (der Art ax + bx + .) eingeführt und so die Voraussetzungen geschaffen, daß ein Buchstabe ohne Unterschied jedes Element einer vollständigen Kategorie von Zahlen darstellen konnte. Leibniz begriff, daß es auf diese Weise möglich wurde, einem System von Symbolen auch andere Interpretationen als die der bloßen numerischen oder geometrischen Größen zu liefern. Es mußte eine einzelne Ordnung geben, die durch ein Ganzes an Symbolen, die nach einer Struktur von Regeln, die nicht nur der Algebra und der Geometrie, sondern auch der Logik unterstanden, kombiniert waren, ausdrückbar ist: eine universale Mathematik. Leibniz wollte zu einer Polygraphie kommen, in der eine komplexe Darstellung symbolisiert wird, indem er jedes der Symbole, die einzeln mit verschiedenen Darstellungen vereinigt waren, zusammen in eine Sequenz brachte.
Leibniz glaubte, für die einfachen Darstellungen den chinesischen Ideogrammen ähnliche graphische Symbole schaffen zu müssen. Es wären die ersten Begriffe gewesen, mit denen alle anderen Darstellungen beschrieben werden.
In dieser Beziehung war er eindeutig von der Mathematik beeinflußt, in der die Ideogramme (wie etwa das Zeichen der Quadrat- oder der Integralwurzel) eindeutig effizienter als die graphischen Phoneme sind.
Außerdem war Leibniz überzeugt, daß alle Konzepte (oder zumindest die wissenschaftlichen) in einfache Elemente zerlegt werden können.
Das Denken hätte man auf diesen elementareren Konzepten, mittels des neuen ideographischen Symbolismus, führen sollen. Das Denken ist die Anerkennung von Verhältnissen der Einbeziehung von Konzepten, was die gewöhnliche Sprache nicht immer zeigt: Im Begriff "Mensch" ist es nicht offensichtlich, daß das Konzept von lebend oder von seelenhaft inbegriffen ist.
Ein System mit perfekter Schreibweise hingegen hätte es nach Leibniz dem Leser ermöglicht, mit einfachen Begriffen jede der komplexeren Darstellungen korrekt zu analysieren, so wie man in der algebraischen Quantität ax(b+c) sofort die Kombinationen elementarer Symbole erkennt. Somit wäre es möglich gewesen, die Gedanken ohne Verzerrungen darzustellen.
Die Universalsprache von Leibniz hatte so zwei hauptsächliche Ziele: die Schaffung einer einzigen Gemeinschaft durch ihre eigene Universalität (characteristica universales) und eine korrekte logische Analyse durch geeignete Ideogramme, die auf algorithmische Weise lenkbar waren (calculus ratiocinator).
Wenn aber die Sprache die Gedanken korrekterweise darstellte, wie konnten dann letztere die Realität beschreiben?
Leibniz war wie die mittelalterlichen Denker überzeugt, daß die Dinge aus einer für sie typischen Essenz bestünden, und, daß gerade diese Essenzen in den Darstellungen reflektiert würden.
Erst als das nicht mehr offensichtlich war, mußte man sich an die Induktion (d.i. an die empirische Erkenntnis) wenden.
Vor allem aber die Art, in der gewisse Darstellungen andere enthielten (seelenhaft enthält Mensch), machte das Denken möglich: seelenhaft ist lebendig, jeder Mensch ist seelenhaft - also ist jeder Mensch lebendig.
Die zwei Hypothesen von Leibniz (die Logik als deduktives System und die Konzepte als Listen von Proprietät) und die Möglichkeit, Rechenmaschinen herzustellen (wie es bereits Schickard, Pascal, Morland und Leibniz selbst getan hatten), gaben die Möglichkeit vor, ein mechanisches Objekt, das zu denken imstande ist, zu schaffen. Leibniz behauptete sogar im Vertrauen auf die Logik: Wenn wir eine verallgemeinerte Mathematik hätten, durch welche der Gedanke durch die Rechnung ersetzt werden könnte, könnten wir im metaphysischen und moralischen Bereich auf dieselbe Weise wie in Geometrie und Analyse denken.

Leibniz führte übrigens auch die binäre Schreibweise ein, in der er sogar etwas Mystisches sah: Gott konnte durch die Einheit, und das Nichts durch die Null dargestellt werden. Da Gott alles aus dem Nichts geschaffen hat, können die Null und die Eins zusammen das ganze Universum darstellen!
Man muß jetzt bemerken, daß, wenn mit Leibniz erstmals die Idee, der Gedanke könne durch schriftliche Symbole, die ihrerseits durch eine Maschine ausgetauscht werden können, ersetzt werden, aufkam, diese Symbole noch einen semantischen Inhalt hatten.

Mit Kant kam in der Analyse unserer Denkprozesse ein konzeptueller Symbolismus auf, der nicht mehr effektiv die Wirklichkeit an sich beschreibt. Nach Kant sind die Gedanken das Resultat dessen, was unsere erkennende Struktur durch die sinnlichen Eindrücke erarbeitet hat. Was wir von der Welt erlernen können, kommt nicht direkt aus ihr, sondern vielmehr aus unseren Erkennungsmechanismen: Die Welt wird nur durch die Kategorien erkannt, die der Verstand, der begreift, liefert. Die Unterscheidung zwischen Form und Inhalt, die mit Descartes und Leibniz aufgekommen war, wurde so definitiv konsolidiert.

3.4 Babbage und die analytische Maschine

·^· Bevor wir die Entwicklung der Logik durch Boole und Frege untersuchen, muß man für einen Augenblick die andere für das Aufkommen des Computers nötige Entwicklungslinie untersuchen - jene der Rechenmaschine.
Seit dem Aufkommen des Rechenbrettes waren verschiedene Rechenmaschinen entwickelt worden, aber erst mit Babbage begann das Projekt von Leibniz'ens idealer Sprache auch wirklich durchgeführt zu werden.
Um die Organisation zu schaffen, die es seiner Maschine ermöglichte, durch eine zusammenhängende Sequenz von Aktivitäten vorzugehen, beschloß Babbage, das System zu verwenden, das Jacquard für die Webstühle entwickelt hatte. Außerdem rüstete er die von ihm projektierte Maschine, die sog. analytische Maschine, mit einem speziellen "Gedächtnis" aus, in welches die Teilergebnisse von den verschiedenen, in Folge ablaufenden Operationen, eingeschrieben wurden. Dies ist der fundamentale Punkt seiner technisch konzeptuellen Erneuerung: um Teilergebnisse zu erhalten, mußte man das Instruktionskonzept einführen, das imstande ist, mit im Gedächtnis enthaltenen variablen Größen zu operieren. Auf diesem Wege kam es zur Schaffung eines symbolischen Systems, dessen von einer Maschine nur grammatikalisch behandelte Größen für sukzesssive semantische Interpretationen empfindlich waren, wie beim heutigen Computer. Babbage's Idee war ursprünglich die gewesen, eine Maschine zu schaffen, die komplexe mathematische Rechnungen ausführen konnte. Die analytische Maschine war jedoch imstande, Symbole nach einer weiteren Grammatik als der Mathematik zu behandeln: Die Möglichkeiten eines mechanischen Rechners konnten also über die reine Rechnung hinausgehen, um, allgemeiner, die Mechanisierung des Denkens anzugehen.

3.5 Boole und die Algebra der Logik

·^· Die mit dem aristotelischen Syllogismus aufgekommene formale Deduktion und die mit Archimedes aufgekommenene mathematische Analyse liefen zunehmend mit den Arbeiten von Boole und Frege zusammen. Durch die Anwendung der Algebra auf die Syllogistik schuf Boole als erster eine echte Mechanisierung der Logik. Die Deduktionsregeln im aristotelischen Syllogismus wurden in der einfachen Sprache ausgedruckt: Alle Menschen sind sterblich, Sokrates ist ein Mensch, also ist Sokrates sterblich. Boole gelang es, aufzuzeigen, wie es dagegen möglich ist, die verschiedenen Syllogismen in einer rigorosen symbolischen Form zu formulieren. Mit einem derartigen Symbolismus und einem günstigen Regelwerk war er imstande, verschiedene Syllogismen zu prüfen und ihre Richtigkeit durch eigene Operationen der Algebra der Arithmetik aufzuzeigen. Boole's Interpretation der Algebra ist heute in der Theorie der elektrischen Stromkreise sehr nutzreich. Diese Interpretation wurde 1910 von P. Ehrenfest angenommen und in der Folge, 1938, in analytischer Weise von C.Shannon (A Symbolic Analysis of Relay and Switching Circuits). Seit damals war Boole's Algebra für die Projektierung der Stromkreise von Computern grundlegend. Die Stromkreise werden durchaus als logische Formulierungen angesehen und als solche können sie mit geeigneten Regeln auf ein Mindestmaß herabgesetzt und dann wieder auf einfachere Stromkreise übertragen werden. Ohne den elektrischen Strom und ohne Boole's Algebra wäre es unmöglich gewesen, einen wirklich effizienten Computer herzustellen.

3.6 Frege und die konzeptuelle Schrift

·^· Wenn die Mathematik bis zu Frege das Modell des Denkens gewesen war, drehte sich diese Annäherung jetzt um: Es war die Mathematik, die von den Regeln der Logik abstammte, welche nach Frege allgemeiner waren. (31) Als er aufzuzeigen versuchte, daß die Mathematik von einem Ganzen an Axiomen ausschließlich logischer Art abhing, bemerkte Frege, daß die traditionellen logischen Instrumente, wie vor allem der Syllogismus, nicht ausreichten. Argumentationen der Art wenn jede Zahl eine folgende hat, gibt es keine Zahl, die größer als alle anderen ist weisen nicht nur verschiedene Ebenen von Generalität (wie "jede" oder"alle") auf, sondern auch logische Beziehungen unter Sätzen, die nicht Beziehungen unter Klassen wie in der traditionellen Syllogistik sind (alle Menschen.., Sokrates ist ein Mensch, also ... ). Frege beschloß deshalb, die Logik völlig neu zu gründen, wie es bereits, in einem gewissen Ausmaß, von der stoischen griechischen Logik, die zu Beginn dieses Jahrhunderts wieder entdeckt wurde, gemacht worden war.
Heute wissen wir, daß, während die aristotelische eine Klassenlogik, die stoische eine Logik der Sätze war. Außerdem besaß die stoische Logik ein Schlußfolgerungssystem, das fünf Grundschemata verwendete, die durch ihre Evidenz keinen Bedarf an weiterer Beweisführung hatten, wie etwa: Wenn der erste, dann der zweite; der erste.., dann der zweite. (32) Frege kannte jedoch nicht die stoische Logik - seine Originalität bestand darin, einen Symbolismus zu schaffen, in dem es möglich war, die verschiedenen Sätze gemäß ihren verschiedenen Generalitätsgraden darzustellen.
Nach Frege waren verschiedene Sätze nur scheinbar verschieden. Die zwei Sätze: "Paolo liebt Francesca" und"Francesca wird von Paolo geliebt" haben unterschiedliche Subjekte. Und doch kann jede aus ersterem gezogene Schlußfolgerung auch aus dem zweiten gezogen werden. Weil das, was beide Sätze charakterisiert, ein Bedeutungsinhalt ist, glaubte Frege, eine Behauptung sei in Wirklichkeit die Funktion eines Argumentes, wie in der Mathematik. Die zwei Sätze können als dieselbe Funktion "x liebt y" betrachtet werden, wobei "liebt" der funktionelle Operator ist und "x,y" die Argumente sind.
Es wurden also eine vollständige Analyse der vorhandenen Generalitäten und eine Prüfung der internen Struktur der Sätze möglich, beide im Syllogismus unmögliche Dinge. Statt Paolo und Francesca konnte man "jeder Mann" oder "irgendeine Frau" sagen und Sätze der Art "jeder Mann liebt irgendeine Frau" formulieren. Sätze der Art "jeder Mann liebt" oder "mancher Mann liebt" waren das Ergebnis der Anwendung der sog. Quantifikatoren, universale oder existenzielle, die von Frege eingeführt wurden, XX oder XX auf dieselbe Funktion "P(x)" (das ist x liebt). Die beiden Sätze konnten in der Schreibweise Freges neu geschrieben werden wie XXP(X) (für jedes x, x liebt) oder XXXX (es gibt ein solches x, das x liebt). Die menschliche Sprache kam so zu einem Grad von Objektivierung, der weiter ging als das ursprüngliche Bedürfnis von mechanischer Memorisierung; und die Mathematik schien endlich von einem reduzierten Ganzen an Axiomen und Regeln, wie die euklidische Geometrie, ableitbar. Frege bekräftigte jedoch: Meine Absicht war es nicht, die abstrakte Logik in Formeln darzustellen, sondern einen Inhalt durch geschriebene Zeichen auszudrücken, sodaß er deutlicher und präziser als die Sprache sei. Ich wollte nicht einen reinen "calculus ratiocinator", sondern vielmehr eine "lingua characteristica" im Sinne von Leibniz schaffen.

3.7 Turing und seine Maschine

·^· Das Werk Freges war jenes gewesen, zu versuchen, eine Theorie zu schaffen, die imstande ist, die Arithmetik von den einfachsten Vorstellungen über die Welt abzuleiten, indem er die geeigneten Abstraktionen für Konzepte wie "mancher", "anderer", "alle", usw. geschaffen hatte. Hätte sein Projekt Erfolg gehabt, und hätte man eine Methode gefunden, Wahrheit oder Falschheit jedes logischen Satzes zu bestimmen, hätte es diese Methode ermöglicht, die Wahrheit jedes mathematischen Satzes zu bestimmen - unabhängig von seiner Komplexität. Das System Freges war jedoch nicht in der Art angemessen, in der es formuliert wurde. Bertrand Russell, der eine innere Anomalie in der Arbeit Freges entdeckt hatte, war schließlich in der Lage, ein Ganzes an logischen Axiomen und Regeln zu identifizieren, wovon er die ganze Mathematik ableiten konnte. Die Entwicklung der Nachforschungen über die Grundlagen der Mathematik führte langsam zu Stufen von absoluter Abstraktion, und die so formalisierte Mathematik begann selbst als ein Spiel zu erscheinen, wie etwa das Schachspiel. Die Figuren und die Quadrate auf dem Schachbrett entsprachen den einfachen Zeichen des Rechners; die auf dem Schachbrett erlaubten Positionen den Formeln des Rechners; die ursprünglichen Positionen der Figuren den Axiomen (das ist den anfänglichen Formeln); die während des Spiels angenommenen Positionen den Theoremen; die Spielregeln den Deduktionsregeln des Rechners.
Beim internationalen Kongreß der Mathematiker 1928 warf Hilbert, der damals als größter lebender Mathematiker betrachtet wurde, mit aller Klarheit die Frage auf, welche die Grenzen eines solchen Schach-Systems der formalisierten Mathematik seien. Die Fragen, die Hilbert formulierte, waren im großen und ganzen folgende:
Die vollständige Mathematik: Ist jede korrekte Konfiguration der Figuren auf dem Schachbrett (das ist ein Theorem) mit den Regeln von den Anfangspositionen her erreichbar (das ist beweisbar)? Die kohärente Mathematik: Ist es sicher, daß man mit den gegebenen Axiomen (das ist den Startpositionen) und den Regeln nicht eine unerlaubte Konfiguration erreicht (wie etwa 2+2=5)? Die entscheidende Mathematik: Gibt es eine Methode, die als Prinzip auf eine beliebige Konfiguration der Figuren auf dem Schachbrett angewandt (das ist auf ein beliebiges Theorem), besagt, ob sie korrekt oder falsch ist?
Hilbert hoffte, die Antwort auf jede Frage könne bejahend sein - sie war hingegen in allen Fällen verneinend. Im Umfeld der logisch-mathematisehen Nachforschungen war bereits zu Beginn des Jahrhunderts ein seltsames Paradox, das die folgende konzeptuelle Revolution anmeldete, aufgetreten. 1911 formulierte Löwenheim ein Theorem (das in der Folge von Skolem perfektioniert wurde), nach dem ein System von gedachten Axiomen, um eine gewisse Klasse von Objekten zu charakterisieren, auch für andere Klassen gilt. Wenn wir eine Gruppe von Axiomen finden, welche die Klasse der ganzen Zahlen charakterisieren, entdeckt man, daß eine solche Gruppe auch alle realen Zahlen, deren Gruppe viel weitläufiger ist, charakterisieren kann. Das zeigte auf, daß es in den axiomatischen Systemen etwas noch Unbekanntes gab. Die Logik begann Überraschungen zu bieten. 1931 bewies Kurt Gödel definitiv, daß kein System von Axiomen, das wenigstens die Arithmetik beschreiben konnte, vollständig war: Es würde immer ein gültiges Theorem geben, aber dieses sei von den Axiomen selbst mit den gegebenen Regeln nicht ableitbar. Außerdem bewies Gödel, daß das selbe System von Axiomen aus seinem Inneren heraus die eigene Kohärenz nicht beweisen konnte. Die Antwort auf die zweite Frage Hilberts war negativ. In einem gewissen Sinne könnten wir die Bestürzung und die Enttäuschung der Logik-Mathematiker mit der der Pythagoräer vergleichen, als die Irrationalzahlen entdeckt wurden. Jetzt wurde die Deduzibilität, der Angelpunkt jedes logischen Systems, selbst in Frage gestellt.
Zu diesem Zeitpunkt tritt die "rätselhafte" Figur Alan Turing auf (33). Auch wenn Gödel gezeigt hatte, daß ein axiomatisches System nicht vollständig und kohärent sein konnte, blieb dennoch die Möglichkeit der sog. "Entscheidbarkeit" offen, das ist ob es wenigstens möglich wäre, eine definierte (und also mechanisierbare) Vorgangsweise zu individuieren, die imstande ist, die Gültigkeit jedes mathematischen Satzes zu verifizieren. Auf überraschend elegante und wirksame Weise begrenzte Turing das Problem auf die Analyse der Zahlen. Er bewies, daß es möglich war, die verschiedenen Zahlen durch den Algorithmus zu charakterisieren, der nötig ist, um sie zu berechnen. Die transzendente Zahl xx 3,14159 ... etwa hat eine unendliche dezimale Ausdehnung, aber es ist dennoch möglich, einen relativ kurzen Algorithmus zu schreiben, um eine Annäherung jener Ausdehnung zu erzeugen. Turing zeigte, daß es für gewisse Zahlen solche Algorithmen von begrenzten Dimensionen nicht gebe. Mit der bekannten Überlegung der Diagonale hatte Cantor gezeigt, daß das Rationale Ursprung des Irrationalen sei. Mit einer analogen Denkweise zeigte Turing, daß das Berechenbare Ursprung des Unberechenbaren sei. Dazu schuf Turing eine logische Maschine (das Gerät von Turing), durch die er aufzeigen konnte, daß es keine definite Methode gebe, um allen mathematischen Fragen zu antworten: Es gab wenigstens Zahlen, die nicht durch einen mechanischen Prozeß erzeugt werden konnten. Mit seiner logischen Maschine aber machte Turing noch mehr: er definierte auf logische Weise das Konzept vom Computer und seine Möglichkeiten. Um auf Hilberts dritte Frage zu antworten, die eine Methode der Bewertung der Gültigkeit einer mathematischen Behauptung betraf, versuchte Turing, mit Präzision gerade das Konzept von Methode zu definieren. Er ging von jener Idee einer Methode aus, die im wesentlichen der Algorithmus ist, das ist eine Vorgangsweise, die mechanisch, ohne kreativen Eingriff, ausgeführt werden kann. So kam er dazu, ein detailliertes Modell des Rechenprozesses zu beschreiben, in dem jeder Algorithmus in eine festgelegte Sequenz von einfachen Schritten zerlegt wurde. Das Ergebnis einer solchen Nachforschung war eine logische Konstruktion, die "Gerät von Turing" genannt wurde.

Jedes Gerät dieser Art kann seinerseits auf einem allgemeinen logischen Gerät simuliert werden, dem universellen Gerät von Turing. Jeder heutige Computer ist logisch einem universellen Gerät von Turing gleichzusetzen: im wirklichen Computer werden jedoch Einfachheit und Klarheit der Operationen der Schnelligkeit und der Effizienz geopfert.

Mit den Geräten von Turing (und mit den gleichzeitig von Church betriebenen Nachforschungen) wurde auch das Konzept von rekursiver Funktion definiert. Eine rekursive Funktion ist das formale Pendant zur effektiven Rechenbarkeit, und nach einigen kann ihre Formulierung in der Geschichte der Mathematik eine fast so bedeutsam Rolle wie jene der natürlichen Zahl spielen. Die sogenannten limitativen Theoreme von Löwenheim-Skolem und Gödel zeigen gerade, daß die mathematische Wahrheit nicht rekursive Natur hat.(34) Das galt nicht für die elementaren Wahrheiten der Algebra und der Geometrie, die einen rekursiven Charakter hatten (d.i. sie waren wirklich berechenbar). Auch die Kenntnis von logischer Wahrheit, wie sie gegen Ende des 19. Jahrhunderts erschien, war auf Prinzipien der Rekursivität begründet. Nach den limitativen Theoremen kam jedoch eine andere Natur der mathematischen Wahrheit auf. Die nichteuklidische Geometrie hatte mathematische Wahrheiten aufgezeigt, die über die euklidischen Wahrheiten hinausgingen. Der Mensch entdeckte jetzt, daß die ganze Mathematik ein unvollständiges Spiel ist, das des beständigen Beitrags der menschlichen Kreativität bedarf, um von Mal zu Mal neu definiert zu werden.

3.8 Der Tractatus logico philosophicus

·^· Wittgensteins Tractatus ist eine überraschende philosophische Antizipation der Informationsgesellschaft und auch gewissermaßen ihrer Widersprüche. Wittgenstein hatte einmal in einer Zeitung die Beschreibung eines Autounfalls gelesen und seine vor Gericht gemachte Rekonstruktion. Die Beziehung zwischen den verschiedenen Elementen der Beschreibung und denen des realen Vorgangs schien ihm anzuzeigen, daß es ein tiefgreifendes Verhältnis zwischen den zwei Strukturen geben müsse: der realen und der beschriebenen. Wittgenstein wußte aber, daß es wenigstens in der Physik möglich ist, reale Vorgänge nach einer eindeutigen und zusammenhängenden Sprache, der mechanischen, zu beschreiben. Die Idee, die Wittgenstein sehr bald entwickelte, war die, daß die menschliche Sprache mit der Realität grundlegend gleichförmig ist. Wittgenstein, der Freges Theorie studiert hatte, überzeugte sich, daß die logische Struktur der Sprache selbst nur gewisse Sätze möglich machte.
Nach Thomas von Aquin standen Welt und Mensch durch die Form in Kontakt. Mit Wittgenstein wurde die Mitteilbarkeit der Sprache der Begegnungspunkt zwischen den zwei Realitäten, und das Wesen der Mitteilbarkeit beruhte gerade auf der Logik: Die Logik ist keine Doktrin, sondern ein Spiegelbild der Welt. Die Logik ist transzendental (Tractatus Logico-Philosophicus), Wir könnten nämlich von einer "unlogischen" Welt nicht sagen, wie sie aussehen würde (TLP 3,031). Das logische Universum Wittgensteins scheint jenes der Informationsgesellschaft zu sein, in der das Symbol das primäre Element ist.
Mit Wittgenstein gibt es nicht mehr die Notwendigkeit, das Problem des cartesianischen Dualismus Geist-Körper anzugehen, da die Welt nunmehr jene der Ereignisse ist, der Information, in der das, was zählt, nicht die Natur der Ereignisse selbst, sondern ihr Ablauf ist. Bei den informatischen Modellen ist nicht nur die Abfolge der Ereignisse bestimmend, sondern die Informationen selbst, seien sie Laut, Bild oder Text, sind aneinandergereiht. Damit die Informatik wirklich effizient sein kann, braucht es also ein Universum, das selbst sehr strukturiert ist, und Wittgenstein sagte in der Tat: Im Sachverhalt hängen die Gegenstände ineinander, wie die Glieder einer Kette (TLP 2.03).
Wittgensteins "Tractatus" enthält in einer sehr bündigen Ontologie die Elemente der kulturellen Umwälzung, die heute als Informatisierung der Gesellschaft bezeichnet wird: Die Welt ist alles, was der Fall ist (TLP 1), Die Welt ist die Gesamtheit der Tatsachen, nicht der Dinge (TLP 1,1). Wir machen uns Bilder der Tatsachen (TLP 2,1), Das logische Bild der Tatsachen ist der Gedanke (TLP 3), Der Gedanke ist der sinnvolle Satz (TLP 4), Das Wesen des Satzes angeben heißt, das Wesen aller Beschreibung angeben, also das Wesen der Welt (TLP 5.471 1). Nach Wittgenstein war die Realität gerade das Ganze an begründeten logischen Kombinationen aller elementaren Sätze. Wenn man sie auf geeignete Weise klassifizierte, wäre es möglich, eine Beschreibung der Welt zu geben: Die Wahrheitsmöglichkeiten der Elementarsätze bedeuten die Möglichkeiten des Bestehens und Nichtbestehens der Sachverhalte (TLP 4,3) (Der elementare Satz ist ein sehr weitreichendes Konzept Wittgensteins, das wir hier nicht untersuchen können). Die bis hierher von Wittgenstein beschriebene Welt erscheint uns wirklich wie die Welt der Computer, in der, wie wir gesagt haben, das, was geschieht, eine Sequenz von Ereignissen ist (Ausführung von Anleitungen, Umgang mit Störungen, Speicherzugänge usw.), die an sich ohne Bedeutung sind, deren komplexe Logik aber jene des Computers selbst ist, also ein algorithmischer Determinismus. Natürlich verwirrt uns in einer solchen Welt gerade ihr Determinismus. Wittgenstein hatte hinzugefügt: ...Darum kann es in der Logik nie Überraschungen geben (TLP 6.1251), was gerade das ist, was wir in einer nach mathematischen Regeln völlig informatisierten Welt erwarten. Und doch hatte Wittgenstein bereits im Tractatus ein Gebiet ausgemacht, das wir als der Welt der Kommunikation fremd bezeichnen könnten: Es gibt allerdings Unaussprechliches. Dies zeigt sich, es ist das Mystische (TLP 6.522). Später, als er in Oxford lebte, kam es eines Tages zu einer Diskussion, mit einem seiner Freunde, dem Wirtschaftler Piero Sraffa. Wittgenstein versuchte Sraffa zu überzeugen, daß die Sprache mit der Wirklichkeit so gleichförmig ist, daß die Regeln der Syntax ausreichen, um die möglichen Wahrheiten auszumachen. Darauf machte Sraffa eine typisch neapolitianische Geste und fragte Wittgenstein nach einer logisch-syntaktischen Analyse.(35) Wittgenstein wird später erzählen, daß der Tractatus von jenem Moment an für ihn beinahe ein metaphysischer Mythos geworden war - wie die Ideenwelt Platons. Von da an versuchte er aufzuzeigen, daß es nicht möglich ist, eine allgemeine Theorie der Sprache zu formulieren: Die von den Menschen effektiv verwendete Sprache ist ein Ganzes an Ausdrücken, die sehr unterschiedliche Funktionen ausüben und zwar im Umfeld von unterschiedlichen und für andauernde Neuerungen empfindlichen Umständen und Vorgängen. Wittgenstein bezeichnete diese Kontexte als Sprachspiele, wie es eben auch die Episode mit Sraffa gewesen war.
Mit Wittgenstein wurde das Problem der Darstellung, das mit Platon und Aristoteles aufgekommen war und durch zwei Jahrtausende hindurch zur Formalisierung einer Sprache geführt hatte, in der die Konzepte progressiv objektiviert worden waren und beinahe jeglichen Sinn verloren hatten, in seiner ganzen konzeptuellen Dramatik aufgeworfen. Wittgenstein, der bestätigte, daß wenigstens die Logik nie Überraschungen liefern würde, wurde scheinbar von den limitativen Theoremen, die gerade in jenen Jahren sogar die Grundlagen der Mathematik erschütterten, nicht verunsichert. Seine tiefe moralische Aufrichtigkeit hatte ihn schließlich doch zur Problematik der Grundlagen der Ethik hingeführt. im Tractatus hatte er bereits gesagt: Kein Satz kann die Bedeutung der Welt oder des Lebens ausdrucken, da die Sätze zufällig sind, während, wenn es einen Wert gibt, dieser nicht okzidental sein kann ... wenn es einen Wert, der Wert hat, gibt... muß er außerhalb der Welt sein ... es ist klar, daß sich die Ethik nicht aussprechen läßt... (TLP 6.41/421).

3.9 Die Informationsgesellschaft

·^· Die Nachforschungen allein, die über die Logik des Denkens, die Grundlagen der Mathematik und die sprachlichen Strukturen geführt wurden, machen jedoch nicht das Aufkommen der sogenannten Informationsgesellschaft aus. Ein anderes Element von grundlegender Bedeutung muß in Betrachtung gezogen werden: die unglaubliche Entwicklung der Physik, im besonderen der Elektronik und der Mikroelektronik, in diesem Jahrhundert.
Mit der Entwicklung von Telephon, Radio, Kino, Fernsehen und der Informatik wurde nach und nach eine Kommunikationsstruktur geschaffen, die die ganze menschliche Gemeinschaft umfaßt, und die Mc Luhan mit einem sehr treffenden Ausdruck als "globales Dorf" bezeichnet hat.
Wie die Schrift die Mündlichkeit nicht ausgelöscht hat, und wie der Buchdruck die Schrift nicht völlig ersetzt hat, so hat die neue Kommunikationsstruktur nicht nur einen Teil der bereits vorhandenen Kommunikationstechniken beibehalten, sondern überraschenderweise sogar einige von ihnen aufgewertet, wie vor allem die Mündlichkeit. Fernsehen, Kino und Radio schaffen darüber hinaus das Problem einer Konfrontation zwischen einer extensiven Kultur, die in großem Umfang verbreitet und ohne Grenzen ist, und einer lokalisierten intensiven Kultur, die mit den Traditionen verankert und strukturell sehr stark ist.
Vor allem mit der immer größeren Verbreitung von Bildern, begleitet von der neuen Mündlichkeit, stellen sich ganz neue Erziehungsprobleme: Es gibt keinen Zweifel, daß es eine Pädagogik der Bilder braucht, so wie es eine Pädagogik der Schrift und des Rechnens gibt.
Das Konzept dynamischer Anhäufungen von Informationen ist in der typographischen Kultur fast unbekannt. Im Falle einer Nachforschung muß der Leser im allgemeinen einen oder mehrere Texte konsultieren, und dann selbst die Informationen zusammenstellen. In den heutigen elektronischen Archiven ist die Dynamik der Zusammensetzung ein Element von primärer Bedeutung geworden. Außerdem, wenn die Computer anfänglich nur imstande waren, Zahlen und Buchstaben zu memorisieren, ist heute viel mehr möglich. Die Informatik hat ein neues kommunikatives Paradigma definiert: den Hypertext. Laute, Bilder und Texte werden digitalisiert und von den informatischen Systemen wie Größen behandelt, die genau bestimmt sind. Mit dem Computer wird aber nicht nur die Speicherung der Informationen noch mehr mechanisiert. Auch das Denken wird zum ersten Mal in einen realen Versuch von progressiver Mechanisierung einbezogen. Wie wir gesehen haben, ist es dazu infolge einer konzeptuellen Entwicklung gekommen, die die Deduktion (sofern mechanisierbar) als korrekte Forin des Denkens betrachtet hat.
Die Nachforschungen in dieser Hinsicht haben beinahe paradoxe Ergebnisse erbracht, und wir verstehen, daß es letztendlich nicht anders sein konnte. Die verschärfte Formalisierung des Denkens, um es zu mechanisieren, hat es erlaubt, Strukturen von wunderbarer konzeptueller Effizienz zu schaffen, wie das universelle Gerät von Turing, das Paradigma jedes beliebigen Algorithmus.
Der technische Fortschritt hat es dann ermöglicht, Computer von zunehmender Kapazität zu realisieren: Vielleicht wird es in wenigen Jahren möglich sein, einen zu konstruieren, der besser als jeder Mensch Schach spielen kann. Was ist der Sinn von all dem? Ist es wahr, wie Goethe sagte, daß das Schachspiel der "Probierstein des Intellekts" ist, oder ist es vielmehr nichts anderes als eine Tautologie von 10 verschiedenen Partien in einem logischen Raum? Noch haben wir das Geheimnis der menschlichen Intelligenz nicht entdeckt: Wir haben die Algorithmen mechanisiert, und wir haben verstanden, daß die Aktivitäten, die wir als logisch wenig bedeutsam betrachtet haben, wie das Erkennen eines Bildes, einer Melodie oder einer Stimme, viel weniger leicht mechanisierbar sind als ein komplexen Algorithmus. Wir haben noch kein Modell der "res cogitans", und wir haben keine Kenntnis der physischen Welt, um die "res extensa" des Gehirns vollständig zu beschreiben.
Einer der größten lebenden Mathematiker, Roger Penrose, behauptet, daß das menschliche Bewußtsein nicht nur über die Möglichkeiten des Computers hinausgeht, sondern wahrscheinlich von physikalischen Gesetzen gelenkt ist, die wir noch nicht kennen.(36) Das menschliche Bewußtsein basiert etwa auf einem Gefühl (das asymmetrisch zwischen Zukunft und Vergangenheit ist), das im größten Teil der physikalischen Gesetze nicht berücksichtigt ist, welche fast alle symmetrisch in bezug auf eine Zeit, die ohne Unterschied in beide Richtungen ablaufen kann, sind. Die Kapazität, das deduktive Denken nach Möglichkeit zu mechanisieren, scheint also nicht eine reale Perspektive im Gebrauch des Computers zu bieten.
Vielmehr in der Symbiose von Modellen (Programmen) und verteilten Archiven, unter einer Ansammlung von Benutzern (ein sogenannter aufgeteilter Hypertext), realisiert die menschliche Kommunikation einen überraschenden Fortschritt, indem sie nicht nur der Welt der Nachforschung, sondern vor allem der Arbeitswelt ganz neue Möglichkeiten erschließt. Wie es auf analytische Weise gezeigt wurde (37), bieten die neuen informationstechniken denen, die im Dienstleistungssektor und in der Industrie arbeiten, eine ganz neue Art, ihre Arbeit zu organisieren. Wenn die Mechanisierung der Industriellen Revolution den Arbeitern das Verständnis der eigenen Aktivität erschwert hatte, schafft die Informatik entgegengesetzte Wirkungen. Leibniz'ens Ziele scheinen so auf dem Wege der Realisierung durch die informatischen Instrumente, die echte Fenster sind, die auf die ganze Organisation hin, an der ein Individuum Teil hat, geöffnet sind. Die Informatik schafft in Wirklichkeit viel komplexere Effekte als jene einer allgemeinen Verbesserung in der Produktivität. Sie verändert den gesamten Kontext der Kommunikation und folglich die Struktur der Kultur selbst. Auf sehr vereinfachte Weise können wir in einer spezifischen Kultur einige grundlegende Elemente individuieren: unter den wichtigsten sind das Zeitgefühl, die Kommunikationspraxis und das Modell von Wahrheit. Beim Übergang von Mündlichkeit zu Schrift, Buchdruck und also zur Informationsgesellschaft können wir sehen, daß sich einige dieser Elemente stark geändert haben.
Die zeitliche Orientierung war in der mündlichen mykenischen Gesellschaft eine bloße Zukunft, mit einer in beispielhafte Mythen ohne Zeit fixierten Vergangenheit. Mit der Schrift, mit Herodot, ist die Geschichte aufgekommen. Wenn heute in der Informationsgesellschaft das Gefühl für die Geschichte aufrechterhalten wird, wird auch ein neues Gefühl für die Zukunft erworben, die als Vielheit unmittelbarer Aktionen aufgefaßt wird. Die Aktivitäten des Computers werden in Zeiten ausgeführt, die jenseits des menschlichen Bewußtseins liegen. Im Zugang zu den Informationen schafft das Gefühl der augenblicklichen Erfassung des Ganzen einen vom traditionellen völlig verschiedenen psychologischen Zeitraum.(38) Während der Lektüre eines Buches wechseln sich oftmalige Reflexionspausen mit Perioden direkten Einsatzes ab. In der Informatik hingegen wird der zeitliche Rhythmus vor allem vom Computer bestimmt: Die Videospiele sind diesbezüglich noch anspruchsvoller.
Das Fernsehen bietet außerdem eine weitere Möglichkeit zur Simultaneität und augenblicklichen Vielfältigkeit von Informationen und Kontexten durch den Gebrauch des sogenannten Telekommanders.
Die Kommunikation war in der mündlichen mykenischen Welt hauptsächlich Kontextualität, da die Individuen in der selben Umgebung zur selben Zeit kommunizierten. Mit der Schrift und vor allem mit dem Buchdruck hat sich der Kontext sehr erweitert. Der Schriftsteller wendet sich an ein Leservolk, das er nicht kennt und nicht sieht. Dies schafft die Notwendigkeit einer Universalität der Botschaft. Die grundlegenden Texte sind gewissermaßen definitive Texte, und als solche verlangen sie eine andauernde Interpretation und kritische Analyse. Im aufgeteilten Hypertext der Informationsgesellschaft tendiert dieses Erfordernis der Universalität dazu, kleiner zu werden, durch eine steigende Bewegung der Botschaften: die sogenannten "databases" sind in andauernder Reorganisation. Der kritische Sinn, der vor allem Frucht der Reflexion ist, zeigt so eine sinkende Tendenz und verursacht einen potentiellen Konformismus. Auch das Modell der Wahrheit hat sich geändert. In der mündlichen Gesellschaft war es im Vortrag und in der Erinnerung begründet, wogegen sich Platon in der "Politeia" so sehr entrüstete. Mit der Schrift und mit Platon kam die Theorie als Modell von objektiver Wahrheit. Sie fand gerade in der typographischen Gesellschaft, mit Descartes, Galileo und Newton, ihren höchsten Ausdruck. Durch seine sofortige Wirksamkeit ist das Wahrheitsmodell heute die operative und sogar spielerisch vorhersehende Simulation geworden.
Wenn die für die Behandlung der Informationen verwendeten Modelle (bzw. Programme) besonders effizient sind, ist es möglich, kognitive Nachforschungen von größerer Weite als der der traditionellen anzustellen. Es wurden bereits neue Ausdrücke wie "virtuelle Realität", "kybernetischer Raum" (cyberspace) oder "künstliche Realität" geprägt, um imaginäre Welten zu bezeichnen, in denen es möglich ist, die verschiedensten Realitäten zu simulieren. Durch die Verwendung von interaktiven Graphiktechniken auf Computer kann man die Illusion herstellen, in absolut phantastischen Welten zu "surfen", die ebenso real wie die reale Welt scheinen. Es ist etwa möglich, von Computern konstruierte Bilder mit kinematographischen Bildern zu kombinieren, um überraschende Wirkungen zu erreichen. In einer Zeit tiefgreifender Veränderungen der kulturellen Modelle wie jener, in der wir offenbar leben, ist es natürlich, daß auch eine gewisse Desorientierung aufkommt, die mit konservativen Verhaltensweisen, die kritisch den Neuheiten gegenüberstehen, verbunden ist. Dies geht von einem allgemeinen Luddismus, nach dem die Technik der moderne Dämon ist, weil die Erde ohne sie ein unberührtes Paradies sei, hin zu den philosophischen Positionen von Husserl und Heidegger. (39)
Wir wollen hier nicht eine so weitläufige Problematik untersuchen. Es ist jedoch wichtig, sie im Kontext der Entwicklung der menschlichen Kommunikation präsent zu halten, da auch letztere eine Technik geworden ist. Wir können sogar sagen, daß der Mensch im Laufe seiner Geschichte zwei große Techniken entwickelt hat: die der Kommunikation und die der Utensilien. Beide unterscheiden ihn tiefgreifend von allen anderen Lebewesen. Nach Husserl stammt die moderne Technik, über Galileo, vom griechischen Gedankengut her, das das Schicksal (telos) des westlichen Menschen auf absolut originelle Weise in bezug auf die anderen Zivilisationen bestimmt hat. Husserl verficht jedoch, daß dieses "telos", eine Menschheit auf dem Grundstock der philosophischen Vernunft sein zu wollen und nur so sein zu können, verlorengegangen ist. Nach Husserl hat sich trotz der wunderbaren Entwicklung der Wissenschaft eine Krise abgezeichnet, die zugleich die Krise des westlichen Menschen ist. Die Wissenschaft scheint über die grundlegenden Werte des Menschen nichts zu sagen zu haben.
Die von Platon begonnene Objektivierung der Konzepte führt sicherlich zu einer bestimmten Form von Entfremdung, und in einer völlig entfremdeten Gesellschaft tauschen Dinge und Menschen schließlich die Rolle. Mit größerer Achtsamkeit auf die Phänomene von Sprache und Kommunikation als Husserl hat auch Heidegger seine Philosophie auf das Erbe des griechischen Gedankenguts in der westlichen Welt begründet, und vor allem auf die entfremdende Rolle, die die Technik übernehmen konnte.
Heidegger ist in vielem Nachfolger Husserls, aber er hat meiner Meinung nach sein Konzept mit weniger Kohärenz entwickelt, auch wenn viele seiner Intuitionen sicherlich einer Betrachtung würdig sind.(40)

3.10 Abschliessende Betrachtungen

·^· Es ist schwierig, den großen Problemen der Technik-Gesellschaft, in der wir leben, eine Antwort zu liefern. Die Techniken der Utensilien und der Kommunikation scheinen sich schneller zu entwickeln als unsere Fähigkeit der Anpassung. Das hat den technischen Errungenschaften gegenüber eine unbewußte Feindseligkeit erzeugt, die vom relativen Wohlstand, in dem die westliche Gesellschaft lebt, nicht aufgewogen wird. Und doch glaube ich, daß der Mensch nach einer unvermeidlichen Periode der Anpassung in der Lage sein wird, eine ausgewogenere Haltung zurückzugewinnen.
Schließlich kann nur die Technik die von ihr selbst begangenen Fehler ausmerzen, und die Rolle der Informatik kann sich diesbezüglich als entscheidend herausstellen. Die Gesellschaft, in der wir leben, unterscheidet sich von den vorhergehenden vor allem in der großen Komplexität von Problemen, die es zu lösen gilt.
Es gibt eine steigende Anzahl von Transportmitteln zu verwalten, von Kommunikationen, Energie und Lebensmitteln zu verteilen, von Individuen zu unterrichten und zu verwalten, von Umweltverschmutzungserscheinungen zu kontrollieren, usw. Der gemeinsame Nenner einer solchen Komplexität ist gerade die Verwaltung der steigenden Menge von Informationen. Der Computer ist das einzige Mittel, das zu unserer Verfügung steht, um von ihnen nicht überrollt zu werden. Die Komplexität, bzw. das sogenannte deterministische Chaos ist heute eine regelrechte Wissenschaft geworden.
Diese Wissenschaft ist 1963 infolge der von E. Lorenz geführten Studien aufgekommenen, ein reduziertes und deterministisches Ganzes an Gleichungen aufzustellen, die für eine korrekte meteorologische Vorhersage nötig sind. Lorenz gelang es aufzuzeigen, daß es solche Gleichungen gibt, daß sie aber nicht linear sind. Eine kleine Variation der anfänglichen Bedingungen kann sehr sichtbare Effekte bewirken: Prinzipiell kann ein Flügelschlag eines Schmetterlings auf Kuba einen Taifun über China erzeugen! Das Studium des deterministischen Chaos ist eine von anderen wie der Quanten-Mechanik oder der Relativität verschiedene Wissenschaft, sofern sie eine Wissenschaft der Aktivitäten aller Tage wie Kunst, Wirtschaft, biologische Rhythmen oder Verkehrsprobleme ist.(41) Der Computer ermöglicht es uns, das Verhalten von Gleichungen, die solche Phänomene beschreiben, zu untersuchen. Wie uns das Teleskop in der Renaissance dem unendlich Entfernten genähert hat und uns im 19. Jahrhundert das Mikroskop den Weg zum unendlich Kleinen geöffnet hat, so scheint der Computer das ideale Mittel für das unendlich Komplexe unserer heutigen Welt zu sein.
Aber es gibt einen anderen bedeutsamen Aspekt der Wissenschaft der Komplexität. Es gibt in der Biologie, Physik, in Wirtschaft und in Soziologie Probleme, die mit ähnlichen Methoden angegangen werden können, da die abstrakten Techniken, die nötig sind, um sie zu lösen, ähnlich sind. Das ermöglicht es, dieselben Modelle auf verschiedene Problematiken anzuwenden, um Beziehungen oder Analogien zu individuieren.
Seit jeher ist die Menschheit durch große konzeptuelle Analogien vorangeschritten. Algebra, analytische Geometrie und die Bool'sche Logik sind solche Beispiele von interdisziplinären Metaphern. Und das führt uns zu einer vielleicht überraschenden Konklusion: Der Computer könnte die sogenannte humanistische Kultur der sogenannten wissenschaftlichen wieder näherbringen. Im Laufe der letzten Jahrhunderte sind Humanismus und Wissenschaft wechselseitig auseinandergerückt und schufen die Voraussetzungen für jene ideologische Fraktur, in der der heutige Mensch eine Wertekrise erlebt.

Im Griechenland Platons oder in der Renaissance, als die Kultur ein tiefgreifend einheitliches Faktum war, war dem nicht so.Auch wenn die Mathematik die beste Sprache, die Realität zu begreifen und zu beschreiben zu sein scheint, scheint es dennoch etwas Unmeßbares zwischen der Realität selbst und unserer Fähigkeit zu begreifen zu geben. Wir haben gesehen, daß infolge der limitativen Theoreme die formalen Systeme, auch in ihrer ganzen Stärke, nicht in der Lage sind, ihre eigene Semantik zu rechtfertigen. Die Mathematik verlangt eine innerste Kreativität, um die Welt, die sie beschreiben soll, immer besser zu definieren.

Das Fehlen von Strenge und Klarheit in der menschlichen Sprache kann Ambiguität, aber auch Vitalität und Kreativität sein.(42)

Albert Camus sagte: ...die Welt ist göttlich, da sie frei ist. Deshalb ist nur die Kunst in derselben Freiheit imstande, sie zu erfassen. Kein Urteil umfaßt die Welt, aber die Kunst kann uns lehren, sie zu wiederholen, wie sich die Welt in ewiger Wiederkehr wiederholt. Auf demselben Kiesgrund wiederholt das ursprüngliche Meer, ohne zu ermüden, dieselben Worte und wirft dieselben Seienden hervor, die sich wundern, daß sie leben. (43)

Ich glaube, daß wir, wenn durch die neue kommunikative Struktur die ganze komplexe Struktur von ästhetischen und wissenschaftlichen Symbolen des modernen Menschen wieder in einen einzigen Typus von Kultur zusammenfließen kann, in der das geistige Gleichgewicht der Griechen oder des Menschen der Renaissance wiedergefunden wird, eine neue Morgendämmerung entstehen sehen werden, Tochter des Lichts und mit rosigen Fingern - wie Homer gesagt hätte.

Wiedergabe im Electronic Journal Literatur Primaer mit freundlicher Genehmigung des Autors
Aus dem Italienischen übersetzt von Gert Frick
Deutschprachige Erstpublikation in Distel - Kulturelemente Nr.:58/59/60; Bozen


<li><a href="../../index.html">e.journal</a> : [ <a href="../../toc-nf.html">Inhalt</a> ]<br> <li>b&uuml;.cher : [ <a href="../toc.html">Inhalt</a> ]<br> <li><b>Wort, Schrift, Druck, Kommunikation im Wandel</b> : [ <a href="toc.html">Inhalt</a> | <b>3</b> | <a href="quellen.html">Quellen</a> ]<br>
·^·