cmwsm.jpg (5760 Byte)

 

 

Lingua Franca? 

Human Markup Language

Das Internet lebt in dem Dilemma, zwar über die fortgeschrittenste Kommunikationstechnologie zu verfügen, die je auf dieser Erde entwickelt wurde, aber die Barrieren der Sprachen und Differenzen der Kulturen lassen sich telepräsent längst nicht so einfach überspringen wie geophysikalische Grenzen. Dabei sind die phänomenologischen Ausgangsvoraussetzungen des "cultural interface" aus Computer und Netzanschluss tendenziell polyglott. Die HTML-Programmierung einer typischen Webpage in der Mischung von Schrift, Bildern, Filmen und Hyperlinks ist tendenziell trans- oder interkulturell vermittelbar, wie die globale Praxis der Webkultur belegt.[1] Die Mischung aus abstrakten Interface-Elementen wie sich überlappenden Fenstern, sich ausrollenden Seiten und hierarchischen oder rhizomatischen Hyperlink-Verweisungsstrukturen auf der einen Seite und andererseits konkreten bildsprachlichen Elementen - JPEGs, (animated)GIFs, Flash oder QuickTime - stößt zwar kulturell auf verschiedene Interpretationsweisen, Konnotationen und Gewohnheiten, begründet aber keine unüberwindbaren Hindernisse für ein zumindest elementares Verstehen. Insoweit gibt es in der Codierung amerikanischer, europäischer, arabischer oder asiatischer Webseiten zumindest keinen technischen "clash of civilizations". Aber dieser kleinster gemeinsame Nenner der Interface-Basis wird eben in der Sprache verlassen, die gegenwärtig noch einen erheblich höheren Anteil in der Netzkommunikation besitzt als bildsprachliche Elemente. Es stellt sich also die Frage, ob die babylonische Sprachverwirrung, die gleichermaßen für das Off- wie Online-Leben prägend ist, zumindest teilweise stärker der Programmierung von Webseiten und den Eigenschaften des kulturellen Interface aufgebürdet werden kann.  

Die Übersetzungshilfen der einschlägigen Software wie z.B. Babelfish[2] sind noch recht skurrile Helfer, die zwar lexikalische Angebote machen, eine akzeptable Übertragung feingliedriger Sprachgewebe in eine fremde Sprache ist indes längst nicht in Sicht. Übertragungen setzen ein avancierteres Verstehen voraus. Englisch gilt zwar als lingua franca des Internet, aber damit sind für Millionen von Nutzern auch bereits die Barrieren einer sprachlich orientierten Verständigung klar markiert. Über die Sprachschwierigkeiten hinaus gibt es zahlreiche kulturelle Momente, die sich der Verständigung entziehen. OASIS (Organisation for the Advancement of Structured Information Standards)[3] will aber auch dieses Hindernis auf dem Weg zur kommunikativen Eingemeindung der Welt überwinden.  

Das internationale Non-Profit-Konsortium hat erste organisatorische Voraussetzungen geschaffen, eine offene Sprache zu entwickeln, die nichtverbale menschliche Kommunikationsmomente in einen nichtproprietären Programmcode verwandeln soll. Das HumanMarkup Technical Committee von OASIS soll HumanML (Human Markup Language als XML-Standard (Extensible Markup Language) entwickeln. Ranjeeth Kumar Thunga, Vorsitzender des Komitees glaubt, dass sich die Besonderheiten, die Kommunikationen jenseits der mehr oder minder sturen Übersetzung von Sprache erst sinnvoll kontextualisieren, in einen technischen Code überführen lassen. Examples of human characteristics include emotions, physical descriptors, proxemics, kinesics, haptics, intentions, and attitude. Applications of HumanML include agents of various types, AI systems, virtual reality, psychotherapy, online negotiations, facilitations, dialogue, and conflict resolution systems.”[4]  

Kommunikation ist ein komplexer Prozess, der den Teilnehmern regelmäßig ein großes gemeinsames Hintergrundwissen der jeweiligen Kultur abverlangt, um annäherungsweise zu begreifen, was ihr jeweiliges Gegenüber meint. Das folgt G.H. Meads Studien, dass Sprachkompetenz allein nicht ausreicht, interkulturelle Verständigungsschwierigkeiten zu überbrücken.[5] Die Rede Samuel P. Huntingtons vom "clash of civilizations" oder Edward W. Saids Untersuchungen über den "Orientalismus sowie "Kultur und Imperialismus" führen sich nicht zuletzt auf diese zahllosen, filigranen Bedeutungsstrukturen zurück, die den Anderen zum Fremden und Feind machen, weil wir ihn nicht verstehen. Das HumanML-Programm antwortet auf diese Untiefen des kulturellen Verstehens keck bis tollkühn: Nicht nur Applikationen im Bereich der künstlichen Intelligenz, der virtuellen Realität, sondern auch differenzierte Kommunikationsszenarien der Psychologie, Kunst, Werbung oder Diplomatie sollen nun weltweit verständlich codiert werden. Wäre das ohne Abstriche möglich, würden ganze Berufsgruppen arbeitslos, die sich der mühseligen Vermittlung, Übersetzung, Übertragung von differenzierten Zusammenhängen in andere Kulturen widmen. Außenminister Fischer müsste ein chinesisches Politikerlächeln dann nicht mehr fehl interpretieren, sondern wüsste dank HumanML die Mimik, die Europäern vordergründig zustimmend erscheint, als frostiges Nein zu deuten. Sicherlich würden einige mehr oder minder differenzierte Smileys für einen solchen Code, der ein transkulturelles Verständnis des Gegenübers gewährleisten will, kaum ausreichen.  

Dieser prätentiöse Code droht zum tendenziell unendlichen Rückgriff auf kommunikativ vorgelagerte Verständigungshorizonte zu werden. So würde ein interreligiöses Gespräch zwischen einem Christen und einem Moslem nicht nur bibel- und koranfeste Kenntnisse, sondern auch die gesellschaftliche Einordnung der Religion und das jeweilige persönliche Verständnis des Gesprächspartners erfordern. Michael Harrison, Experte für Mensch-Computer-Interaktionen von der  University of York in Großbritannien konzediert zwar, dass ein höheres semantisches Niveau des Netzes gegenwärtig ein wichtiges Thema sei. Aber Harrison zweifelt daran, dass dieser Wunsch nach einer vertieften Kommunikation von Menschen aus verschiedenen Kulturkreisen durch das hochambitionierte HumanML-Programm einzulösen ist.  

Die Idee, das Netz für kognitive Zwecke und Kommunikationen komfortabler zu gestalten, liegt dem von WWW-Gründervater Tim Berners-Lee[6] initiierten "semantic web" zu Grunde. Nach Berners-Lee handelt es sich um die Kooperation von Computern, die "alle Daten im Web" analysieren, sodass idealtypisch Handel, Bürokratie und Alltag von Computern übernommen werden können.[7] Die Menschen liefern Gefühl, Inspiration und Intuition, den Rest erledigen intelligente Agenten. Klingt gut, aber auch dieses elektronische Schlaraffenland dürfte eine zu schnell gestrickte Utopie sein, die ohne die dunkle Seite der Macht auskommen will, während doch das alltägliche Chaos im Angesicht der Rechner nicht eben geringer geworden ist. So erfüllen die gegenwärtigen Suchmaschinen ihre Aufträge noch sehr ungenau, anders formuliert: Man kann die Suchaufträge noch nicht so präzisieren, dass aus dem Wust des Datenmülls die benötigten Informationen leicht zu filtern wären. Je allgemeiner das Suchwort bzw. der Name, umso diffuser werden die Suchergebnisse. Die klassische Anordnung von Daten in einer HTML-Programmierung kann der Computer nicht in eine Informationshierarchie mit relevanten und irrelavanten Daten verwandeln.[8] Daten der Seitenstruktur bzw. Präsentation werden mit semantischen Daten so vermischt, dass der Computer vor lauter Wald die Bäume nicht sieht. So müssten einer Suchfunktion im Quelltext in einer ihr verständlichen Sprache semantische Einheiten vermittelt werden. Das "semantic web" vertraut hier auf drei Fundamente: Extensible Markup Language (XML), Resource Description Framework (RDF) und "Ontologien" wie DAML+OIL[9].  XML ist für die maschinenlesbare Syntax zuständig, RDF formt einfache prädikative Aussagen, die sie so erscheinen wie kognitive Sätze. Per RDF lassen sich also genauere Zuordnungen von Begriffen bzw. Namen zu dem jeweiligen Sachgebiet erstellen. Ontologien, "eine Art Fachjargon" (Cai Ziegler), erkennen Äquivalenzrelationen - lieben/love/aimer - und klassifizieren die begrifflichen Rangordnungen von Abstrakta und Objekten bzw. Allgemeinem und Besonderem. Im Grunde sind diese "Ontologien" noch relativ einfache logische Regelsysteme, die aus bestimmten Eigenschaften einen Syllogismus, also einen logischen Schluss gewinnen. Das "semantic web" lässt sich zweifelsohne gegenüber seiner bisherigen Konstitution noch erheblich verfeinern, um Suchagenten zukünftig mit besseren Ergebnissen in kommunikativen, insbesondere wissenschaftlichen Kontexten auszustatten. Das ganze Konzept steht und fällt aber vor allem mit der Bereitschaft von Usern, sich diesem Mehraufwand der Seitenprogrammierung zu stellen und gemeinsame Standards zu beachten. Zum stärksten Motiv einer Semantisierung des Webs dürfte langfristig der Umstand werden, dass die Datenmasse exponenziell wächst und irgendwann das Internet gerade keine Wüste wird, wie Clifford Stoll behauptet, sondern gerade umgekehrt mehr noch als gegenwärtig ein Datendschungel, der immer unergiebiger werden könnte, je mehr Daten er spendet. Praktisch bedeutet das, die maschinenlesbare Aufbereitung von Netzwissen solchen Programmen anzuvertrauen, die ähnlich der WYSIWYG ("What you see is what you get")-Software Fertigfunktionen bereitstellen, um das semantische und logische Gerüst menschlicher Kommunikation komfortabler sicherzustellen.   

HumanML als XML-Standard soll schlicht für jedes Moment der menschlichen Kommunikation eingesetzt werden, ob nun physikalische Charakteristika des Sprechers, seine Gefühle, inneren Zustände oder gar komplette kulturelle Bedeutungsgefüge. Dabei hatte Berners-Lee bereits vor XML gewarnt: Es sei "Segen als auch eine Bedrohung für den Traum vom Web".[10] Zwar können viele Informationsverluste verhindert werden, aber zugleich droht über die Einführung von vielen inkompatiblen Sprachen letztlich doch wieder die babylonische Verwirrung. Berners-Lee hält es zwar für möglich, die Spannung zwischen allgemein gültigen und proprietären Sprachanteilen fruchtbar aufzulösen, aber das könnte mehr als ein Problem der Programmierung sein. George H. Mead wies darauf hin, dass interkulturelle Verständigungsleistungen die Rolle des anderen gedanklich nachvollziehen müssen. Die Ent-Fremdung des Anderen ist danach ein aufwändiger Aneignungsprozess einer fremden Kultur, der die während einer Lebenszeit geprägte Identität mächtig provoziert und daher oft widerwillig oder gar nicht zugelassen wird. Der Massentourismus belegt besonders anschaulich, wie das Fremde allenfalls in "homöopathischen Dosierungen" zugelassen wird, wenn nicht ohnehin künstliche Enklaven der Pseudoexotik aufgesucht werden. Menschen sind ihren Muttersprachen und Kulturkreisen verhaftet. Gerade hierin wurzeln keine geringe Widerstände gegen die globale Eingemeindung, gegenüber "Cross-Culture" und pseudoliberalen Multikulti-Mixturen, insbesondere wenn sie zusätzlich verdächtig sind, euroamerikanisch hegemonial konstruiert zu sein. So könnte es der "menschlichen Auszeichnungssprache" so gehen wie dem 1887 vom Zamenoff erfundenen "Esperanto", das als internationale Weltsprache so künstlich und einseitig konstruiert wurde, dass es von der Menschheit nicht akzeptiert wurde. Aber vielleicht gelingt es dem HumanML-Projekt ja die paradiesische Universalsprache, die Johann Gottfried Herder allerdings bereits im 18. Jahrhundert als versteckten Unsinn denunzierte, wieder zu finden.  

Human MarkupZwar mögen sich theoretisch alle diese kulturellen und individuellen Prägungen in eine Markierungssprache für Dokumente umsetzen lassen. Ein Code, der dieses Feld vollständig abbildet, würde aber unzählige Informationen voraussetzen. Der Sprachphilosoph Wilhelm von Humboldt hatte bereits die Konstruktion einer Sprache und das jeweilige Selbst- und Weltbild in seiner Sprachabhängigkeitstheorie in einem unzertrennlichen Zusammenhang gesehen. Es ist dann aber kaum damit getan, dass die Human-Markup-Sprache etwa einen Verfasser als dreißigjährigen weißen, konfessionslosen Europäer mit athletischen Körperbau ausweist, wenn auch zugleich dessen Seelenverfassungen und biografischen Werdegänge zum kommunikativen Totalverständnis codiert werden sollen. Hinzu kämen für nichteuropäische Adressaten noch einige läppische Jahrtausende europäischer Geschichte, Kultur etc. Gerade diese Konstitutionen von kollektiven und individuellen Besonderheiten sind aber regelmäßig auch dem Selbstverständnis von Menschen in ihrer Kultur nur in sehr reduziertem Umfang zugänglich. Ihre Artikulation in einem Programm würde daher die individuellen Selbstbeschreibungsmöglichkeiten des Anwenders sehr schnell vergeblich strapazieren.

Wäre das alles codierbar, würde es sich wirklich um die jetzt von OASIS angekündigte Revolution menschlicher Verständigung handeln. Was bisher interkulturellen Philosophen, Ethno(psycho)analytikern, Ideologiekritikern oder transkulturellen Konversationsanalytikern nicht in nennenswertem Umfang gelang oder kurzerhand als unmöglich erklärt wurde, soll nun einem Code der Codes aufgebürdet werden. Die von dem HumanML-Projekt vorausgesetzte idealtypische Verständigungssituation trifft zudem auf den nur vordergründig provokanten Einwand, dass gerade interkulturelle Missverständnisse für soziokulturelle Veränderungen von Gesellschaften fruchtbar sind. Eine völlige globale Angleichung der Internet-Kommunikation wäre zunächst lediglich ein Differenzierungsverlust. Leibniz` Ziel, einer vollkommenen Idealsprache, ein "Alphabet der Gedanken" zu schaffen, scheiterte genau so wie zahllose weniger prominente Versuche, die babylonische Sprachverwirrung aufzuheben.[11] Nicht erst die vernetzte Kommunikation über Kultur- und Sprachkreise hinaus wirft das Phänomen auf, dass Menschen einander nie vollständig verstehen. Wenn Menschen das akzeptieren, legt das die ersten Voraussetzungen für ein tolerantes Miteinander. Ob ein Universalcode, der mehr als die Vermittlung kognitiver Inhalte leistet, wirklich wünschbar ist, ist anzuzweifeln, wenn dadurch zugleich fruchtbare Spannungen zwischen den Kulturen und die Vielzahl sprachlich-virtueller Ausdeutungen der Welt letztlich beseitigt würden: "Jede Sprache stellt ein semiotisches Modell des Universums dar, ein semiotisches System des Weltverständnisses, und wenn wir 4000 verschiedene Arten von Weltbeschreibung haben, macht uns das reicher. Wir müssten uns um die Bewahrung der Sprachen ebenso kümmern wie um die Ökologie."[12]  

Immerhin mag es sein, dass das HumanML-Projekt dazu beiträgt, die blinden Flecken menschlicher Kommunikation zu reduzieren und zu einem besseren Verständnis des Nichtvermittelbaren beizutragen. Die Schlusserklärung des Projekts könnte aber auch zum Selbstläufer werden: Als fundamentales Ziel von HumanML gilt es, menschliche Missverständnisse zu vermindern. Gerade dieses Ziel birgt aber die Gefahr, die Anzahl der menschlichen Missverständnisse, die ja ohnehin nicht gering sind, um eine neue Variante zu bereichern. Wenn nun nämlich der Code den Anspruch erhebt, authentische Geltungsansprüche einzulösen, könnten Kommunikationsschwierigkeiten, die zuvor dem verzeihlichen Umstand einer anderen Kulturkreiszugehörigkeit zugerechnet wurden, nunmehr als absichtsvoll bis aggressiv interpretiert werden. "Doppelte Kontingenz" (Niklas Luhmann), die Freiheit des Aneinandervorbeiredens und der thematischen Neuanknüpfungen birgt da kommunikative Vorteile, wo konsensorientierte Standpunktabgleichungen an ihren kulturellen, religiösen oder sozialen Prämissen scheitern würden. Das Moment der Toleranz wäre also unter der vollmundigen Prämisse einer vollkommenen Verständigung gerade gefährdet.  


[1] Vgl. dazu Lev Manovich (2001), S. 69 f.

[2] http://www.babelfish.com/

[3] http://www.oasis-open.org/

[4] http://www.oasis-open.org/committees/humanmarkup/

[5] George H. Mead (1968), S. 366 ff.

[6] http://www.w3.org/People/Berners-Lee/#Bio

[7] Tim Berners-Lee (1999), S. 229 ff.

[8] Dazu und im Folgenden: Cai Ziegler (2002), S. 132 ff.

[9] Vgl. etwa Boris Stumm, Das Semantic Web – Ontologien, RDF, DAML+OIL, unter: http://wwwdvs.informatik.uni-kl.de/courses/seminar/WS0102/ausarbeitung3.pdf

[10] Tim Berners-Lee, aaO., S. 234.

[11] Zur Suche nach der vollkommenen Sprache vgl. Umberto Eco (1997), insbesondere S. 276 ff.

[12] Vyacheslav V. Ivanov, zitiert nach: Umberto Eco (1997), S. 342.

Textbaustelle Goedart Palm

 

Aktuell - Aphorismen - Autor - Bioethik - Email - Galerie - Home - Impressum - Krieg - Literatur - Personen - Satiren - Telepolis

Home ] Nach oben ]

 

Copyright. Dr. Goedart Palm 1998 - Stand: 05. Juni 2018.