Liebe M.d.S.,
ein interessantes Interview.
An dieser Stelle will ich aber nur an dem Punkt anknüpfen, wo du über "Abstrakte Literatur" in Bezug auf Informatik und digitale Bücher sprichst. Das erinnert mich an Versuche, die ich vor vielen Jahren nebenbei mit einem (CDC)-Computer anstellte, als es noch gar keine PC gab. Was ich da mit Philosophie machte, habe ich dann auch mit Poesie angestellt.
Was war die Grundidee? Nimm... mehr anzeigen
Liebe M.d.S.,
ein interessantes Interview.
An dieser Stelle will ich aber nur an dem Punkt anknüpfen, wo du über "Abstrakte Literatur" in Bezug auf Informatik und digitale Bücher sprichst. Das erinnert mich an Versuche, die ich vor vielen Jahren nebenbei mit einem (CDC)-Computer anstellte, als es noch gar keine PC gab. Was ich da mit Philosophie machte, habe ich dann auch mit Poesie angestellt.
Was war die Grundidee? Nimm eines der gängigen philosophischen Wörterbücher und übertrage eine genügend große Anzahl philosophischer Fachausdrücke und Grundbegriffe auf geeignete Datenträger. Sortiere sie vor in getrennten Wortklassen. Die Klasse der Substantive enthalte z.B. Begriffe wie Vernunft, Sinn, Subjekt etc. Unter den Adjektiven seien z.B.: absolut, finit, objektiv. Die Verben enthalten Termini wie: transzendieren, definieren, konstituieren etc. Es gibt auch Klassen mit grammatikalischen Füllseln und auch Deklinations- wie Konjugationsformen. Das alles werden Eingabedaten für das Computerprogramm CAP (Computer aided philosophy), das eine bestimmte Grammatik möglicher Satzformen festlegt, die durch Input aus den verschiedenen Wortklassen zu füllen sind.
Ein mathematischer „Zufallsgenerator“ mit seinem algorithmischen Kalkül füllt die Leerformen der Satzstrukturen mit philosophischen Begriffen, die nach dem Zufallsprinzip, einer mathematischen Simulation der philosophischen Kategorie Zufall, aus dem Dictionnaire der Eingabe-Datei ausgewählt werden. Ergebnis : Gleiche Satzformen mit unterschiedlichen Ausfüllungen. Zwei Beispiele:
„Das Sein transzendiert apriori die sinnliche Anschauung, weil jedes Denken eine Finalität impliziert. Kant bestimmte eindeutig das Wesen des Willens, solange der Wille jeden Wert produziert.“
Aber nicht nur die Begriffe bleiben variabel, sondern auch die Satzformen selbst. Beide werden bei jedem Durchlauf aus einem Eingabefundus nach dem mathematisch simulierten Zufall ausgewählt, und da selbst der Anfangswert jeder vom Computer produzierten Satzfolge ganz dem Zufall unterworfen wird, kommt bei jedem Computerlauf eine andere Urteilsserie heraus. Eine andere Satzstruktur, die jedes Mal anders durch Konstanten gefüllt wird, sah z. B. so aus: „Entweder wählte Hegel die Intuition, oder der zureichende Grund ist unbestimmt.“
Der Programmierer sei nicht ein Technokrat, sondern Philosoph genug, diese Zufallstreffer nicht als Gottesurteile, als Deus ex machina, zu verehren, sondern nur als "philosophische Rohlinge", die zu überarbeiten, auszudeuten und zu veredeln sind. Immer wieder betone er, daß er nicht ganz dem Computer das Denken überlassen wolle und ihn nicht zum Superphilosophen mache. Aber der Datenprozessor produziert in wenigen Sekunden Abertausende von Begriffs- und Urteilskombinationen, indem er unvereinbare Termini zu Sätzen zusammenzwingt, welche die menschliche Assoziationsgewohnheit so kaum jemals miteinander verbunden hätte. Diese Maschine ist eben nicht gehemmt durch konventionelle Sinnvorgaben und Bedeutungsmuster. Der Programmierer legt vorweg nicht nur Wortschatz und Satzgrammatik fest, sondern trifft am Ende auch aus den Computerausdrucken seine Auswahl von Zufallskombinationen, die ihm ein neuartiges „semantisches Potential“ zu enthalten scheinen. Durch diese Auswahl bewahrt er ein wenig seine Würde als Philosoph auf zwei Beinen.
Heute hätte man da noch ganz andere Möglichkeiten.
Vielleicht amüsiert dich diese kleine Erinnerung, auf die mich dein Interview wieder brachte ...
LG
Fritz.
.
Das klingt auf jeden Fall interessant.
Deutsch ist ja allerdings sehr komplex, da sind die Skript schon ziemlich umfangreich, wenn sie selber lesbare Sätze bilden sollen.
Wenn du dir mal anguckst, was etwa über die Sprache Toki Pona zu finden ist, wird auffallen, daß die viel... mehr anzeigen
Das klingt auf jeden Fall interessant.
Deutsch ist ja allerdings sehr komplex, da sind die Skript schon ziemlich umfangreich, wenn sie selber lesbare Sätze bilden sollen.
Wenn du dir mal anguckst, was etwa über die Sprache Toki Pona zu finden ist, wird auffallen, daß die viel einfacher zu behandeln und zu erlernen ist, also weniger komplexe Skripte erfordert.
Zwangsläufig neige ich da zum Minimalismus, weil das ja nur nebenbei entwickelt wird, also nicht so viel Zeit beanspruchen darf. Da wäre Toki-Pona-Posie als nächster Schritt eine noch überschaubare Option für ein weiteres Projekt.
Bei Deutsch (oder etwas einfacher: Englisch) ist es hilfreich, bereits digitale Datensätze mit Wörterlisten zu haben, eine Möglichkeit wären auch Pidgin-Sprachen wegen der geringeren Komplexität der Grammatik.
Das wären alles Ansätze, um den Gedanken weiter zu verfolgen, von Skripten erstellte lesbare Texte zu bekommen.
Schrittweises Vorgehen mit absehbaren Zwischenergebnissen ist hilfreich, um sich in komplexe Probleme langsam vorzutasten.
So als vereinfachtes Scrum-Verfahren bieten gute und schöne Zwischenergebnisse auch Erfolgserlebnisse, die anspornen, sich der nächst komplexeren Herausforderung stellen.
Als Bergsteiger wird jemand ja auch eher erst einmal mit einer Kletterwand oder dem Hügel in der Nähe beginnen, nicht gleich hunderte von Metern senkrecht eine Felswand ohne Sicherung hoch ;-)
Die Abstrakte Literatur hat allerdings mit dem Aspekt des Abstrakten auch noch einen anderen Anknüpfungspunkt. Die Abstraktion kann sich ja ergeben aus einer Minimalisierung, Vereinfachung von etwas Konkreten, kann allerdings ebenso auf einer komplett abstrakten Ebene beginnen und dort ein freies Assoziationsfeld eröffnen.
Von daher war es bei den bereits bestehenden Büchern von vorne herein die Idee, etwas zu erschaffen, was zunächst nahezu komplett abstrakt ist, eben nur auf statistischer Ebene eine gewisse Ähnlichkeit mit Sprachwerken eröffnet.
Die verwendeten Regelwerke und Strukturen werden allerdings von Werk zu Werk komplexer, nähern sich also bislang eher von der rein abstrakten Seite her einer Konkretisierung oder Kondensation zu einer Sprache an.
Spannend ist so oder so für Autoren die Beschäftigung mit formalen Aspekten von Sprache, Linguistik.
Gerade auch durch unser Skript zur quantitativen Textanalyse von digitalen Werken (EPUBs) wie im Buch 'Ic' erläutert und mit Beispielen nicht nur von BppkRix im Gebrauch, ergeben sich Einblicke in die Semantik, den Sprachgebrauch von Autoren.
Aufgrund des verwendeten Formates EPUB ergibt sich so natürlich auch ein Einblick, ob semantische Textauszeichnung überhaupt sinnvoll verstanden und verwendet wird.
Vielen Dank der ausführlichen Reaktion auf meine Reaktion.
Ich werde deinem Tipp mal folgen und es mit einer "Toki-Pona-Philosophie" oder "Toki-Pona-Literatur" versuchen, sobald dieses Tool verstanden ist.
Damals hatte ich natürlich auch den fachspezifischen Wortschatz und die... mehr anzeigen
Vielen Dank der ausführlichen Reaktion auf meine Reaktion.
Ich werde deinem Tipp mal folgen und es mit einer "Toki-Pona-Philosophie" oder "Toki-Pona-Literatur" versuchen, sobald dieses Tool verstanden ist.
Damals hatte ich natürlich auch den fachspezifischen Wortschatz und die historisch überkomplexe deutsche Grammatik ziemlich reduziert auf einen Set der gängigsten konsequenzlogischen Urteils- und Schlussformen, wie sie in wissenschaftlichen (und philosophischen) Begründungen und Argumentationen so üblich sind. Irgendwann habe ich mir den Komplexitätsgrad dann nicht mehr weiter erhöht, da die Ergebnisse semantisch, pragmatisch und syntaktisch schon ausreichend fruchtbar waren. So hat der (zweckentfremdete) Großcomputer verschiedene ganze "Zufallsbücher" dann in wenigen Sekunden "errechnet" und in wenigen Minuten ausgedruckt, jedesmal ein völlig anderes Buch. Inzwischen gibt es wohl schon viele Computer-Lyrik und Computer-Prosa, steht zu vermuten - damals war das Neuland.
(Mein Skript-Programm war noch in der Programmiersprache FORTRAN verfasst, die wohl heute niemand mehr kennt und benutzt. Der Zufallsgenerator hieß RANF (Random Function), erinnere ich mich noch.)
Auch ein Interview kann beim Leser alte Erinnerungen lostreten ...
Doch, also Fortran geht im wissenschaftlichen Bereich schon noch, ist nicht mehr so ganz Hip und gerade bei Text etwas sperrig, bei Sachen wie Datensatz rein - anderer Datensatz wieder raus hingegen ganz praktisch.
Hübsch ist ja besonders bei alten Fortran77-Programmen der noch... mehr anzeigen
Doch, also Fortran geht im wissenschaftlichen Bereich schon noch, ist nicht mehr so ganz Hip und gerade bei Text etwas sperrig, bei Sachen wie Datensatz rein - anderer Datensatz wieder raus hingegen ganz praktisch.
Hübsch ist ja besonders bei alten Fortran77-Programmen der noch von den Lochkarten stammende Zwang zu einer festgelegten Menge von Leerzeichen am Anfang einer Zeile, das hat auch etwas meditatives,
Der Einrückungsfetisch wird wohl etwa in Python wieder aufgegriffen, auch in ein paar anderen.
Unsere Skripte sind relativ einfach, auch nicht schnell, mit PHP ist das gemacht. Die Sprache hat den Vorteil, daß sie ziemlich viele fertige Funktionen hat, besonders zur Textverwurstung, denn PHP wird ja oft verwendet für dynamische Projekte im Netz - damit wiederum sind wir ja schon sehr dicht dran an den Dokumenten, die in einem EPUB stecken, das harmoniert also.