Rethinking Leibniz – Transhumanismus in der Dekonstruktion

Veröffentlicht am von unter Persönliche Blogposts.

Es folgt der gesamte Beitrag – vorab die bibliographischen Daten plus Bezugsquelle des Buches

jbpaed2014_400Rethinking Leibniz –
Transhumanismus
in der Dekonstruktion

in: Kluge, Sven; Lohmann, Ingrid; Steffens, Gerd (Red.) –
Jahrbuch für Pädagogik 2014
– Menschenverbesserung
– Transhumanismus,
Jahrbuch für Pädagogik (Band 29),
Verlag Peter Lang, Frankfurt a.M., Berlin, Bern, Bruxelles, New York, Oxford, Wien, 2014.
393 S.,  S. 191-204

Zusammenfassung: Der Beitrag versucht, die in einem Pro-und-kontra-Schema ge­fangene Debatte um das Verhältnis zwischen Humanismus und Transhumanismus zu dekonstruieren durch Infokusnahme eben dieses Gegensatzes und seiner Vor­aussetzungen. Der Transhumanismus und seine Ideen sind insbesondere verstrickt in die durch die westliche Schriftkultur vorgegebenen Konditionen des Humanen. Damit schlagen die Einschränkungen der positivsprachlichen Einschreibungsweisen als Einschränkungen zurück auf die grundlegende Idee einer technologiebasierten selbstgesteuerten Weiterentwicklung der Menschen. Als möglicher Ausweg aus dem Dilemma der Selbstgefangenheit wird ein Rückgriff auf das Leibnizsche Projekt einer Universalsprache identifiziert, jetzt bereichert um eine neuere Reflexion der wissenschaftslogischen und philosophischen Randbedingungen der Konstruktion einer formalen Sprache, die widerspruchsfreie Beschreibungen komplexer Zusam­menhänge nicht nur in den Lebenswissenschaften erlaubt. Dabei wird auch die inter­kulturelle und damit politische Dimension des Projekts Transhumanismus gestreift.

Abstract: The contribution tries to deconstruct the debate about the relationship between humanism and transhumanism, which is caught inside a scheme of pros and cons, by focussing on the very contradiction and its preconditions. Transhu­manism and its ideas are particularly mired in the conditions of Human purported by the Western culture of writing. Thereby the limitations of inscriptions based on positive languages as limitations strike back on the basal idea of a technolo­gy-based and selfcontrolled advancement of humans. As a possible way out of the dilemma of self-imprisonment a recourse of the Leibnizean project of a universal language is identified, now enrichened by a newer reflection of scientific-logic and philosophical boundary conditions of the construction of a formal language, which allows consistent descriptions of complex interrelations not only suited for life sciences. Thereby also the intercultural and therefore political dimension of the project transhumanism is touched.

Keywords: Dekonstruktion, Transhumanismus, Polykontexturalität, Universalsprache, Komplexität

In einem Interview mit Nick Bostrom und David Pearce, den Gründern der World Transhumanist Association, einer nicht-kommerziellen Organisation mit der Zielsetzung, die menschlichen Fähigkeiten mittels Technologie zu verbessern, fasst der Interviewer Andrés Lomeña den Diskurs zur Begriffsbestimmung dessen, was Transhumanismus sei und bedeute, und die Kritik daran reichlich verkürzt zwischen zwei Polen zusammen, deren unterschiedliche Ansätze er als optimistisch und pes­simistisch bzw. dystopisch bezeichnet (vgl. Bostrom, Pearce 2007). Optimistisch meint hier, dass der Mensch aus eigener Kraft als Homo technicus sich selbst und seine Umgebung – gewissermaßen jenseits der alle anderen Lebewesen betreffen­den natürlichen Evolution – bewusst und zielgerichtet weiterentwickelt und opti­miert. Unter den Adjektiven „pessimistisch“ und „dystopisch“ hingegen werden alle Positionen versammelt, die in den unter dem Titel Transhumanismus zusammenge­fassten Bestrebungen eine Gefahr sehen, angefangen von der Undurchführbarkeit über das Terminator-Argument, dass die Ängste vor Maschinenherrschaft bzw. der Überflüssigkeit des Menschen zum Ausdruck bringt, das Frankenstein-Argument der Unkontrollierbarkeit eines künstlichen Supermenschen bis hin zum ethisch-mo­ralisch motivierten „Gott-spielen“-Argument. Als häufiger Kritikpunkt, oft als Vor­wurf gegen transhumanistische Bestrebungen formuliert, wird im Zusammenhang mit dem „Gott-spielen“-Argument auch die „eschatologische Vision“ genannt (vgl. Bostrom, Pearce 2007). Damit unterstellen die Kritiker den Vertretern der optimis­tischen Sicht quasi-religiöse Züge. Des Weiteren zu bemerken ist, dass Lomeña der Struktur der Debatte um den Transhumanismus durch seine verkürzte Darstellung einen Dualismus gewissermaßen durch die Hintertür beschert.

Zum Zweck der Präzisierung und der Anschlussfähigkeit an andere, in ihrer Struktur sehr analoge Debatten der letzten drei Jahrzehnte wird daher vorgeschla­gen, die beiden Positionsfelder deutlich aufzuweiten, zu öffnen, und mit den tref­fenderen Adjektiven „technikeuphorisch“ und „kulturpessimistisch“ zu belegen (vgl. Paul 2005). Denn die Frage nach dem Transhumanismus berührt zweifellos direkt die Frage nach der Technik des Menschen, nach unserer Technik, und er­öffnet somit die Möglichkeit, das einfache duale Schema aufzubrechen bzw. zu­gunsten von Neuem zu verlassen.

Bereits 1951 schrieb der Semiotiker Max Bense zur anthropologischen und ontologischen Bedeutung der Technik in seinem Aufsatz Kybernetik oder Die Me­tatechnik einer Maschine: „Beide, Intelligenz und Welt, bedingen einander; und das ist ebenso ein kybernetischer wie auch ein anthropologischer Satz.“ Bense weist damit deutlich auf die Selbstrückbezüglichkeit bzw. die Möglichkeit der Selbstrückbezüglichkeit als eine Grundbedingung des Menschlichen hin. Sein Aufsatz endet mit der Formulierung eines Auftrags: „Der Mensch als technische Existenz: das scheint mir eine der großen Aufgaben einer philosophischen Anth­ropologie von morgen zu sein.“ (Bense 1999, S. 482f).

In der konkreten Debatte zur Provokation „Transhumanismus“ wäre damit – zunächst unter Rückgriff auf Bense – ein weiteres Mal die Frage nach der Technik aufzuwerfen, und zwar einer Philosophie der Technik, die jenseits der zwischen Kulturpessimismus und technischen Allmachtsphantasien verlaufenden Frontli­nien das Grundverhältnis zwischen Konstrukteur und Konstruiertem, die wechselseitige Bedingtheit von Mensch und Technik und damit die Stellung des Menschen im Kosmos thematisiert. Diese Ebene hat die bisherige Debatte um den Transhumanismus jedoch noch nicht erreicht. Hier verharrt man wie oben gezeigt undialektisch im einfachen dualen Schema von pro und contra und ist nicht in der Lage, diese Gefangenschaft zu sehen, geschweige denn zu verlassen.

Die Verbesserung des Menschen und seiner Umgebung durch den Menschen selbst – vermittels der eigenen technischen Potenz – bis hin zur Vision der Über­windung des Todes, ist das zentrale Narrativ, gewissermaßen der Gründungsmy­thos des Transhumanismus.

In der Regel werden dabei jedoch zumindest drei weitere Kontexte oder Berei­che übersehen. Ein erster Bereich hat sich mit auf die conditio humana bezogenen Fragen zu befassen. Ein weiterer hat neben den methodisch-philosophischen auch politische und politikhistorische sowie interkulturelle Implikationen zu berück­sichtigen. Das in alle drei Bereiche hineinspielende Methodisch-Philosophische gewinnt noch einmal eine besondere Bedeutung, wenn im dritten Bereich theore­tische Einschreibungsweisen zu diskutieren sind. Alle drei Kontexte liefern signi­fikante Beiträge, das oben genannte dichotome Positionsschema gewissermaßen zu transformieren. Denn eine Reflexion des dichotomen Schemas ist unmöglich, wenn innerhalb des Schemas verblieben wird. Aus diesem Grund muss metho­disch eine weitere zu leistende Denkbewegung eingefordert werden, die sich deutlich jenseits dieser Dichotomie von Technikeuphorie und Kulturpessimismus bewegt bzw. diese selbst mit in die Behandlung des Themas hinein nimmt. Eine solche Denkbewegung muss daher eine doppelte sein, um den Anforderungen ei­ner sinnvollen Dekonstruktion der Fragestellung genüge zu leisten. Sie wendet sich einerseits kritisch gegen die Gefangenschaft im dichotomen Schema und an­dererseits sowohl gegen den Technikskeptizismus eines Günther Anders – der Mensch wird nebengeschichtlich –, und den Heidegger’schen Vorwurf der Seins­vergessenheit gegenüber Wissenschaft und Technologie, als auch gegen kritiklose Phantasmen der technologischen Mach(t)barkeit.

Darüber hinaus schließen die schon als Ziel gefassten Begriffe der Weiter­entwicklung und Optimierung weitere Fragen mit ein, die die Fragenkontexte bereichern: Warum? Damit ist die Frage nach dem bzw. einem Zweck gestellt. In welche Richtung? Unter der Vorab-Annahme des technisch Machbaren muss gefragt werden: Wie groß und wie beschaffen ist eigentlich der Möglichkeitsraum der Richtungen? Optimierung? Nach welchen Kriterien? Wer fällt Entscheidun­gen über wen? Das heißt, wie verhalten sich die Subjekte, die Designierenden und die Objekte, die Designate der Entscheidungen? Jeweils zu sich selbst, also selbstreferentiell, sowie zueinander, also heteroreferentiell? Denn die Selbstan­wendung menschlicher Technologie durch den Menschen auf den Menschen verändert zwangsläufig die Selbstverhältnisse sowie die Fremdverhältnisse des Menschen.

Gerade zur Zeit besteht der berechtigte Verdacht, dass mit „Kriterien der Op­timierung“ vornehmlich ökonomische gemeint sein können, denn die Dominanz des orthodox ökonomischen Denkens ist weltweit allgegenwärtig und krisenhaft. Insofern ist „Optimierung“ schon zu kritisieren als ein von vornherein dem Ver­dacht eines Ideologie-unterworfenen Zwecks ausgesetzter Begriff. Ob er sich da­von durch andere Interpretationen befreien lässt, scheint fraglich.

Evolutionsprozessen hingegen – auch denen des Menschen – als Prozessen der Natur kann eine ganz prinzipielle Zweckfreiheit unterstellt werden. Zuletzt ist es der Philosoph Jean-Luc Nancy, der auf die „Zwecklosigkeit der Zwecke“ hinweist, die am Anfang aller unserer Technik steht (vgl. Nancy 2008; 2011). Oder anders gewendet: Die Zweckfreiheit in der Evolution des Menschen ist der Zweck der Freiheit.

Seit Paul Alsberg wissen wir zudem um eine weitere Möglichkeit unseres Blicks auf die techné. Der Arzt und Anthropologe führt in seinem 1922 erstmals erschienenen Werk Das Menschheitsrätsel den Begriff der Körperausschaltung ein und liefert damit neben Anpassung einen notwendigen zweiten Begriff, mit dessen Hilfe nun an eine Weichenstellung innerhalb der menschlichen Evolution gedacht werden kann (vgl. Alsberg 1922/1979). Sein gedankliches Konzept kann erfolgreich gegen die im 20. Jahrhundert sehr populäre und dominante Auffassung gewendet werden, die Technik in erster Linie als Mittel des Menschen sieht, einen Anpassungsmangel – und damit einen Zweck – gegenüber den optimal an ihre Umgebung angepassten Tieren zu kompensieren (vgl. Gehlen 1940).

Für die conditio humana ist festzuhalten, dass der Mensch im Rahmen des Humanen als sterbliches Wesen bestimmt ist. Wenn Transhumanismus nun nahe­liegenderweise das Ziel hat, eine Position zu entwickeln, die diese Bestimmung übersteigen soll, die neben Verbesserung sogar die Nicht- oder Unsterblichkeit adressiert, dann ergibt sich für die Dichotomie vom Leben und Sterben des Men­schen eine Paradoxie „insofern, als es weder dem Humanismus, der seine Kraft aus der Vergangenheit schöpft, noch dem Transhumanismus, der sich seiner Zu­kunft sicher wähnt, gelungen ist, zu bestimmen, was Leben und damit Sterben für den Menschen überhaupt bedeuten“ (Kaehr 2010a). In dieser Aussage des Philo­sophen und Logikers Rudolf Kaehr wird auf die ganz prinzipielle und nicht nur dem Zeitgeist geschuldete Verdrängung des Begriffs der Bedeutung hingewiesen und die Situation des Unfertigen, des nicht Abgeschlossenen thematisiert, in dem Sinne, dass der Humanismus seinen selbst gestellten Anspruch der Bestimmung des Menschen bislang nicht erfüllt hat, nicht vollständig erfüllen konnte.

Ganz analog kritisiert Stephen Toulmin in seiner Kosmopolis die unerkannten und daher nicht gelösten Aufgaben der Moderne und gelangt zu der Schlussfolge­rung, dass es einer neuen Humanisierung der Moderne bedarf. Seiner Auffassung nach „können wir uns weder an die Moderne in ihrer historischen Form klammern noch sie völlig ablehnen – und gewiss nicht verachten.“ Aufgabe sei es „vielmehr, unsere ererbte Moderne zu reformieren, ja richtig wiederherzustellen, indem wir sie humanisieren. Das ist keine leere Mahnung“ (Toulmin 1994, S. 288f). Eine Mahnung zu einer Re-Humanisierung also. Ganz offensichtlich stünde eine solche Rehumanisierung vor strukturell identischen Problemen wie eine Transhumani­sierung. Der Humanismus und dessen unerfüllter Anspruch verkörpert selbst das Dilemma, unter dem sich eben auch die Fragen nach Re- und Transhumanisierung versammeln.

Damit ist der Vollständigkeit halber des Weiteren für die politische Dimension unbedingt zu erwähnen, dass der Humanismus einen ideologischen Hegemoniean­spruch des Westens darstellt bzw. sich als ein solcher interpretieren lässt. Insofern ist die Frage berechtigt, ob – und wenn ja – was dieser Umstand für eine Bedeu­tung für den Transhumanismus und seine Ansätze haben könnte. Die dialektische Verschränkung von Identität und Differenz – Identität und Differenz bedingen einander – bildet das Grundmuster, über das die Selbsterfahrung des einzelnen Ich erst möglich wird, d.h. in einer Konkretheit des Beziehungsgeflechts zwischen uns Menschen. Hier bewegen wir uns mitten im politischen Raum, in dem wir „das Wir“ antreffen und damit die dynamischen Relationenfelder zwischen uns Menschen und Menschengruppen. Der Humanismus hingegen lässt diese Kon­kretheit vermissen, er setzt auf das abstrakte Prinzip Menschheit, auf eine quasi statische, von alten männlichen weißen Europäern des 19. Jahrhunderts konstru­ierte überhistorische Norm, von der aus das Wesen des Menschen bestimmbar sei. Als Momentaufnahme markiert der Humanismus somit den – nicht abgeschlos­senen – Abschluss einer historischen Entwicklung, an dessen logischem Ende ein Vorschlag für ein allgemein verbindliches ethisches Wertesystem steht. Zukünf­tigen Entwicklungen und Entfaltungen ist damit jedoch der Raum genommen. Der Humanismus mit seinem Anspruch, als denkerisches Metasystem über den Entwicklungen zu stehen, erweist sich als nicht mehr geschichtsfähig und damit nicht zukunftsfähig. Wird der Humanismus als Fanal der Freiheit zur Entfaltung des jeweils einzelnen menschlichen Individuums interpretiert, löst er sich sogleich auf in einem Selbstwiderspruch. Auch neuere, als evolutionärer Humanismus be­zeichnete Überlegungen ändern hieran nichts, denn eine Redynamisierung eines prinzipiell statischen Konzepts ist wenig mehr als Augenwischerei, sie verändert oder erweitert das Konzept als solches nicht (vgl. Paul 2013a). Der Humanismus kann die Konkretheit des Wir nicht kennen, die gerade aktuell durch das wel­tumspannende elektromagnetische Feld des Internet eine Entbindung von unserer biologisch bedingten optischen und akustischen Kommunikationsreichweite und damit eine völlig neue Qualität erfährt.

Der tiefere Grund liegt in der Konstruktion des Humanismus auf der Basis der strukturarmen klassischen Ontologie, die nur das einzelne Subjekt und die Welt kennt, jedoch nicht das Du und damit auch nicht die Verbindung von Ich und Du, das Wir. Vilém Flusser löst dies humoristisch auf, indem er dem Humanisten fol­genden Satz in den Mund legt: „Ich liebe die ganze Menschheit, es sind die Leut’, die mir auf die Nerven gehen!“ (Flusser 1999)

Dies soll hier jedoch nicht weiter verfolgt werden, da dieser Aspekt zweifellos eine ganz eigene detaillierte politologische und politikhistorische Analyse wert ist. Dennoch wird darauf zurückzukommen sein.

Darüber hinaus ist für den Raum der Einschreibungsweisen festzuhalten, dass sowohl die Theorien des Trans- und Posthumanismus als natürlich auch der Hu­manismus sich weiterhin als verstrickt in die Konditionen des Humanen erwei­sen, so wie sie durch die westliche Schriftkultur vorgegeben sind. Damit ist eine Einschreibungsweise vorbestimmt, die ganz allgemein Erörterungen aller Art in positivsprachliche Konzeptionen zwingt. Schon durch die auf den Axiomen der zweiwertigen Aristotelischen Logik basierende basale Trennung zwischen Signifikant und Signifikat, zwischen Designierendem und Designat, Operator und Operand, ist eine grundlegende hierarchische Struktur vorgegeben, die eine irreduzible Darstellung von Simultaneität und Parallelität ganz prinzipiell verun­möglicht und in die hierarchische Struktur der Sequenz, des Vorher und Nachher, der Linearität, der Linie zwingt. Erörterungen von Möglichkeitsräumen sowie die Erzeugung von Neuem sind hier verwehrt.

Dies ist nicht intuitiv und unmittelbar einzusehen, da unser Denken allzu sehr in Kausalitätsketten verhaftet ist. Zur Verdeutlichung der Problemstellung mag ein stark vereinfachter Zusammenhang aus der Biochemie der Lebensprozesse dienen. Die Erbsubstanz DNA dient der Information für die Synthese von Protei­nen aus den Aminosäuren. Es lässt sich also sagen, dass die DNA einen Opera­tor repräsentiert, der auf die Aminosäuren als Operanden prozesshaft einwirkt, so dass am Ende der Kette Eiweiße herauskommen. Umgekehrt wissen wir aber um die Möglichkeit der Reparatur des Genoms, etwa bei Schädigungen. Der Mecha­nismus des Gene-repair seinerseits besteht aus einem Einwirken von Proteinen auf die DNA-Sequenzen. Das Operator-Operanden-Verhältnis ist hier genau um­gedreht. Es gibt nun kein formal widerspruchsfreies Operator-Operanden-Modell, dass diese Vertauschung erlaubt bzw. das den Gesamtzusammenhang zwischen Genom und Proteinen umfassend beschreiben kann.

Ein gutes Beispiel für die Gefangenschaft des Denkens innerhalb dichoto­mer hierarchischer Strukturen ist die unter Transhumanisten diskutierte Idee des Transfer-Uploading. Unter Upload wird die Absicht verstanden, Geist oder Mind als die aktuellen Prozessdaten eines menschlichen Gehirns oder Nervensystems in toto auf eine z.B. siliziumbasierte Maschine zu übertragen unter Erhaltung der Identität der Person. Hier setzt man sich gleich drei Denkfallen aus.

Zunächst hierzu Nick Bostrom: „Ich denke, dass beim Uploading unter den richtigen Voraussetzungen sowohl das Bewusstsein als auch die persönliche Identität erhalten werden können. Aber ich würde mich nicht als Dualisten be­zeichnen. Ich denke, dass mein Geist derzeit auf einer Art Proteincomputer läuft. Wenn exakt die gleichen Prozesse auf einem Silikoncomputer ablaufen würden, könnte ich vermutlich überhaupt keinen Unterschied feststellen“ (Bostrom, Pe­arce 2007).

Denkfalle Dualismus: Bostrom würde sich nicht als Dualisten bezeichnen, je­doch das hier Gesagte weist ihn exakt als einen solchen aus, denn im Moment des Uploads auf die Maschine, im Moment der Übertragung wird schon zwischen dem alten Carrier, dem Körper, und dem neuen, dem Siliziumcomputer auf der einen sowie dem zu Übertragenden auf der anderen Seite getrennt. Das ist präzise der alte Leib-Seele- oder Geist-Körper-Dualismus durch die Hintertür, dieses Mal im Gewand von Software und Hardware. Die auch von Transhumanisten erklär­termaßen bevorzugte Idee des Materialismus ist hier nicht exakt durchgeführt, sondern verstrickt sich im Widerspruch. Zudem werden Identität und Materialität apriori voneinander separiert.

Denkfalle Digitalismus: Es ist von Siliziumcomputern die Rede, Maschinen also, die Analoges in digitale Codes übersetzen. Damit setzen sich die Autoren im­plizit dem Digitalismusvorwurf aus. Der Digitalismus als philosophische Schule, „digital philosophy“, deren prominenteste Vertreter die US-Amerikaner Gregory Chaitin, Rudy Rucker, Edward Fredkin und Stephen Wolfram sowie Konrad Zuse sind, postuliert, dass das Universum als ein gigantischer Turing-vollständiger zel­lulärer Automat verstanden bzw. beschrieben werden kann. Dies ist unter ver­schiedenen theoretischen Gesichtspunkten schwerlich haltbar, Fredkins Ansatz (vgl. Fredkin 1992) führt zu Widersprüchen gegenüber Einsteins allgemeiner Re­lativitätstheorie, die eine rein analoge Theorie ist, und Wolframs Ansatz benötigt sogenannte „weird universes“ (vgl. Wolfram 2002, Kap. 9). Dies soll hier aber nicht weiter ausgeführt werden.

Für die Diskussion transhumanistischer Ansätze ist insbesondere eine infor­mationstheoretische Betrachtung interessant, da sie tatsächlich mit Digitalem aus­kommt und schon dort zu Widersprüchen führt. Im Rückgriff auf die Hermeneutik Heideggers kritisierte Hubert Dreyfus in „Cybernetics as the Last State of Meta­physics“ bereits 1968 Marvin Minskys Statement „There is no reason to suppose machines have any limitations not shared by men“, indem er auf einen infiniten Regress bzw. einen circulus vitiosus hinwies (vgl. Dreyfus 1968; Kaehr 1980). Dreyfus’ Argumentationsgang kann wie folgt nachgezeichnet werden:

Nehmen wir an, dass unsere Welt aus einer indefiniten Mannigfaltigkeit von Informationseinheiten – also Bits – besteht, dann müssen auch Entscheidungen bzw. Kontexte anerkannt werden, die angeben, welche Informationen, welche Bits für bestimmte Berechnungen wichtig sind und welche nicht. Wird dies akzeptiert, dann besteht die Welt eben nicht mehr homogen nur aus Informationen, sondern auch aus Kontexten von Informationen. Dies steht im Widerspruch zur Ausgang­sannahme. Wird jedoch nun der Kontext selbst zur Information erklärt, so entsteht der Zirkelbezug, dass alles, was eine Information bestimmen soll, selbst wieder Information ist. Dies ist aber das Problem des Verhältnisses von Information und Bedeutung. Nach dem klassischen Paradigma wird nun Bedeutung auf Informa­tion reduziert, wodurch eine Binnenstruktur der Kontexte in sich zusammen fällt. Wiederum Kaehr wies deutlich darauf hin, dass jedoch „das transklassische Para­digma … auf der Irreduzibilität von Information und Bedeutung besteht.“ (Kaehr 1989) D.h. es gibt eine nichtklassische Forderung der Aufrechterhaltung der Kon­texte, wonach das Eine nicht auf das Andere zurückführbar ist. Soweit zum Ver­hältnis von Transklassik und Digitalismus (vgl. Paul 2013b).

Denkfalle Ortsinvarianz der Identität der Person: Diese dritte Denkfalle steht in mittelbarem Zusammenhang mit der zweiten und in unmittelbarem mit der ers­ten Denkfalle, mit der Frage nach Identität und Materialität des Menschen, sie kann jedoch separat diskutiert und verstanden werden. Im obigen Statement von Bostrom wird implizit ohne jedes Nachfragen angenommen, dass die Identität einer Person unabhängig von ihrem Ort in der Raumzeit sei. Denn eine Übertra­gung, ein Upload des Selbst vom biologischen Körper auf einen Siliziumcomputer bedeutet ja auch einen Ortswechsel. Nun ist Ort, Örtlichkeit etwas, das im line­aren Denken nur allzu leicht vernachlässigt wird, da gerade in der Physik recht häufig mit Ortsinvarianzen gerechnet wird. Und im Bereich der Computer ist es eine Selbstverständlichkeit, denn dem in Software gefassten Code ist es „egal“, auf welcher Hardware er abläuft. Verstehen wir ohne Rückgriff auf einen Dua­lismus die Identität einer Person als Eigenschaft oder Resultat der Physiologie eines bestimmten biologischen Körpers, dann ist es aber nicht selbstverständlich, davon zu abstrahieren. Diverse Untersuchungen haben gezeigt, dass ganz generell Individualität und damit Prozessidentität von Lebewesen bis „hinunter“ auf die physiologische Ebene reicht (vgl. Williams 1979).

Argumentationshilfen dazu könnten interessanterweise nicht nur aus der Bio­logie, sondern auch aus der hardwarenahen Informatik selbst kommen. Vor ei­niger Zeit stellte sich heraus, dass der von Leon Chua bereits 1971 geforderte vierte passive elektronische Baustein, der sog. Memristor (Chua 1971), technisch realisierbar ist. Der Memristor kann als geschichtsabhängiger elektrischer Wider­stand verstanden werden, er „erinnert“ sich an den Strom, der zuletzt durch ihn geflossen ist. Entwickler von Hewlett Packard sprechen nun zwar davon, dass bislang „Lernen“ nur über Software simulierbar war, es aber mit dem Memristor möglich sein soll, dass nun die Hardware selbst lernt. Dass damit aber ein Problem der Lokalisierung innerhalb der Hardware auftaucht, wurde noch nicht erkannt.

Jedoch wies Kaehr darauf hin, dass die „Materialität des Lernens“ ihre eigene Raum-Zeit-Struktur impliziere. Denn jedes Verhaltensmuster wie z.B. eine logi­sche Operation in einem solchen System ist dann auch gekennzeichnet durch den Platz im System, den es einnimmt. Insofern sind die strukturellen Gesetze durch die „memristive Materie“ gegeben und nicht etwa durch ein Programm eines the­oretischen formalen Systems „von außen“ (vgl. Kaehr 2010b, S. 6).

Nach der Betrachtung der vorderhändigen Problemstellungen und Denkfal­len ist nun zurückzukommen auf das Beschreibungsproblem und damit auf die etablierte Einschreibungsweise, so wie sie in der westlichen Schriftkultur entwi­ckelt wurde. In diesem Zusammenhang zwar implizit, aber noch nicht explizit in der Argumentation aufgetaucht ist das zentrale Problem der Selbstreferenz und ihrer formalen Beschreibung. Es wurde gesagt, dass die basale Unterscheidung zwischen Designierendem und Designat, zwischen Signifikant und Signifikat qua Struktur in die Heteroreferenz und darüber hinaus in die Hierarchie der Se­quenz, der Linie führt. Es erschließt sich unmittelbar, dass heteroreferentiell ope­rierende Systeme/Kalküle zu einer formal korrekten Behandlung von Selbstre­ferenz nicht geeignet sind. Damit ist selbst die klassische Logik hinfällig. Zur Rechtfertigung dieser Fragestellung gibt es eine ganze Reihe von Indizien aus verschiedensten Wissenschaften (vgl. Paul 2013c, S. 379ff). Stellvertretend sei hier der theoretische Physiker Walter M. Elsasser genannt, der speziell auf das bislang nicht behandelbare wissenschaftslogische Problem der formalen Unter­scheidbarkeit von Gleichheit und Selbigkeit – das Problem von Ort und Identität in anderem sprachlichen Gewand – in der Biologie in seinem Aufsatz A Form of Logic Suited for Biology hinwies (vgl. Elsasser 1981). Zu Lösungsansätzen lohnt eine Beschäftigung mit den umfangreichen Werken der Philosophen und Lo­giker Gotthard Günther und Rudolf Kaehr zum Thema Polykontexturalität, die sich allerdings einer detaillierten Behandlung in nur einem Aufsatz erfolgreich widersetzen.

Aus der neueren französischen Philosophie ist es neben dem „wilden Denker“ Deleuze vor allem Jacques Derrida, der mit einer ganz eigenen Sicht zu Serialität und Linie und ihrem Verhältnis zur Erkenntnis aufwartet und weitere Hinweise auf eine Strategie des Vorgehens auch zum Problem des Transhumanismus er­laubt: „Das rätselhafte Modell der Linie ist also gerade das, was die Philosophie, als sie ihren Blick auf das Innere ihrer eigenen Geschichte gerichtet hielt, nicht se­hen konnte. Diese Nacht hellt sich in dem Augenblick ein wenig auf, wo die Line­arität – die nicht der Verlust noch die Abwesenheit, sondern die Verdrängung des mehrdimensionalen symbolischen Denkens ist – ihre Unterdrückung lockert, weil sie allmählich die lange Zeit von ihr begünstigte technische und wissenschaftliche Ökonomie zu sterilisieren beginnt“ (Derrida 1974, S. 153).

Das Gegenteil von Sterilität ist Fruchtbarkeit, das von Verdrängung Entber­gung. Es geht also, folgen wir Derrida, um nicht mehr und nicht weniger als die Emanzipation von Wissen und Wissenschaft. Wäre das ein Weg zu einem Tran­shumanismus? Wie können wir dorthin gelangen?

Auf einen möglichen Zugang weist uns schon Ernst Cassirer hin: „Was die Loslösung des theoretischen Denkens von dem Untergrund des mythischen Be­wusstseins erschwert…, ist die Abhängigkeit, in der es sich von der Sprache be­findet… Seine volle Autonomie erlangt das theoretische Denken erst dann, wenn es sich entschließt, den letzten Schritt zu tun; wenn es sich in den Symbolen der Mathematik statt der ‚natürlichen‘ Sprache eine ‚künstliche‘ Sprache erschafft. Die natürliche Sprache bleibt immer wie mit unsichtbaren Fäden mit der mythi­schen Denk- und Vorstellungsart verknüpft“ (Cassirer 1939, S. 88).

Cassirer macht hier auch überdeutlich, dass es mit der Konstruktion einer Kunstsprache nicht um eine Entdeckung oder einen Existenzbeweis geht, sondern vielmehr um eine Willensentscheidung, um ein Entschließen, wenn man so will, um einen kreativen Akt. Die unmittelbare Assoziation hierzu ist die Leibniz’sche Konzeption einer characteristica universalis. Aber schon Leibniz erkannte unter dem Einfluß seiner Beschäftigung mit der chinesischen Kultur, dass „der Rechen­formalismus nur die äußere Seite einer viel tiefer gehenden Weltauslegung ist“ (Holz 1997, S. 122). Als Analytiker von Format kommt Leibniz zu dem Schluss, dass „über das rein zerlegende Denken […] die Einsicht in den Zusammenhang ei­ner Lebensganzheit“ zu setzen ist, „die allein mit den Mitteln der Analyse nicht zu erfassen ist. Dialektisch denken (wie wir heute sagen) heißt für ihn: die lebendige Ganzheit der Natur als Wirkungszusammenhang einsehen“ (Holz 2013, S. 32f).

Zu den Ermöglichungsbedingungen der Beschreibung solcher Wirkungszu­sammenhänge gehört aber notwendig die Option des Neuen, die in den positiv­sprachlichen Einschreibungsweisen der westlichen Schriftkultur aus ganz prin­zipiellen Gründen nicht enthalten sein kann. Mit dem Mathematiker Engelbert Kronthaler (1986) ist zu sagen, dass in der technikorientierten westlichen Zivili­sation „hauptsächlich nur ein Aspekt gesehen“ wird, der der „Wiederholung als Wiederkehr des ewig Gleichen“, der Aspekt der Iteration. Jenseits davon gibt es aber noch einen zweiten oft vernachlässigten Aspekt, den der Akkretion oder der Wiederholung des Neuen, dessen erste Ansätze in der zweiten Negation Hegels zu finden sind und die Gotthard Günther zum Anlass nahm, daraus einen Forma­lismus abzuheben.

Mit der Referenz auf die Leibniz’sche characteristica universalis und ihre Ermöglichungs-bedingungen ist parallel auch der Bogen zurück ins Po­litische geschlagen, denn: „Darin besteht heute in einer Welt, die ökonomisch, verkehrstechnisch und weltpolitisch zu einer eng vernetzten Einheit zusammen­gewachsen ist, die Aktualität des Leibnizschen Universalismus. Wir müssen ler­nen, aus verschiedenen Ursprüngen gewachsene Kulturen ineinander übersetzbar – oder genauer: aufeinander abbildbar – zu machen, gerade auch dann, wenn wir sie in ihrer Besonderheit nicht nivellieren, sondern ihre Vielfalt als den geistigen Reichtum unserer Welt erhalten wollen“ (Holz 1997, S. 122).

Der Beginn einer planetaren Zivilisation – mit anderen Worten der Geschichte der Menschheit als eines Ganzen – fiele also mit dem ersten Abschluss der Kon­struktion einer Kunstsprache zusammen, die nicht ausschließlich dem hierarchi­schen Gesetz der Serie verpflichtet ist. Denn dieses reicht, wie schon gezeigt, strukturell nicht aus. Und diese Sprache sollte in der Lage sein, strenges Denken, wie es Heidegger nennt, gleichzeitig exaktes Denken sein zu lassen. Bislang ken­nen wir nur das exakte Denken der Mathematik und der Naturwissenschaften, das jedoch nicht streng ist, im Gegensatz zu philosophischem Denken, das aber, wie Gotthard Günther es ausdrückt, zu früh von der Exaktheit dispensiert (vgl. Gün­ther 1978, S. 170).

Die Konstruktion einer solchen Kunstsprache setzt jedoch als Basis ein Vor­dringen mit dem Tastsinn des Geistes in den Raum des Nicht- oder Vorsprachli­chen voraus, in jene Räume, in denen Sprache verstummt. Hierzu bedarf es des Auslotens von Möglichkeitsräumen. Dies leisten nach Kenntnis des Verfassers bislang nur die Günther/Kaehr’schen Konzeptionen von Polykontexturalität, Kenogrammatik und Negativsprache (vgl. Günther 1973, 1979; Kaehr 2001), als konkludente Fortsetzung des Leibniz’schen Vorhabens und als notwendige Be­dingung für eine – diesmal konstruktive – Inangriffnahme des Projekts Transhu­manismus.

Literatur

Alsberg, Paul: Der Ausbruch aus dem Gefängnis. Zu den Entstehungsbedingungen des Menschen. In: Das Menschheitsrätsel. (1922) Bearb. Neuaufl., hrsg. von Dieter Claes­sens, Gießen 1979.

Bense, Max: Kybernetik oder Die Metatechnik einer Maschine. (1951) In: Pias, Claus, et al.: Kursbuch Medienkultur, Stuttgart 1999, S. 472-484.

Bostrom, Nick; David Pearce: Interview von Andrés Lomeña, 2007, http://www.hedweb.com/transhumanism/deutsche.html.

Cassirer, Ernst: Axel Hägerström. Eine Studie zur schwedischen Philosophie der Gegen­wart, Göteborgs Högskolas Årsskrift XLV (1939) 1.

Chua, Leon O.: Memristor – The Missing Circuit Element; IEEE Transactions on Circuit Theory, Vol. ct-18 (1971) 5, S. 507-519; http://ieee-ghn.org/wiki/images/b/bd/Memris­tor_chua_article.pdf.

Derrida, Jacques: Grammatologie. Frankfurt a. M., 1974.

Elsasser, Walter M.: A Form of Logic Suited for Biology. In: Progress in Theoretical Bio­logy, Ed. Rosen, Robert; Vol 6 (1981), S. 23-62, http://www.vordenker.de/elsasser/we_logic-biol.pdf.

Flusser, Vilém: Die Informationsgesellschaft, Phantom oder Realität? Vortrag auf der Cul­Tec, Essen, 23.11.1991, Köln 1999, timecode 00:40:00ff.

Fredkin, Edward: Finite Nature. Proceedings of the XXVIIth Rencotre de Moriond (1992).

Gehlen, Arnold: Der Mensch. Seine Natur und seine Stellung in der Welt. Berlin 1940.

Günther, Gotthard: ‚Life as Poly-Contexturality‘, in: H. Fahrenbach (Hrsg): Wirklichkeit und Reflexion, Festschrift für Walter Schulz. Pfullingen 1973, S. 187-210. Abgedruckt in: Günther, Gotthard; Beiträge zur Grundlegung einer operationsfähigen Dialektik, Bd. 2, Hamburg 1979, S. 283-306, http://www.vordenker.de/gg- philosophy/gg_life_as_polycontexturality.pdf.

Günther, Gotthard: Idee und Grundriß einer nicht-Aristotelischen Logik, 2. Aufl. Meiner, Hamburg 1978.

Günther, Gotthard: Identität, Gegenidentität und Negativsprache, Vortrag, Int. Hegel-Kon­gress, Belgrad 1979, Hegeljahrbücher 1979, S.. 22-88, http://www.vordenker.de/gg-philosophy/gunther_identitaet.pdf.

Holz, Hans-Heinz: Characteristica universalis und Yijing in metaphysischer Perspektive. In: Wenchao Li & Hans Poser (Hrsg.): Das Neueste über China: G.W. Leibnizens No­vissima Sinica von 1697; Int. Symp, Berlin, 4.-7.10.1997, S. 105-124.

Holz, Hans-Heinz: Leibniz. Das Lebenswerk eines Universalgelehrten. Hrsg. von Jörg Zimmer, Darmstadt 2013.

Kaehr, Rudolf: Neue Tendenzen in der KI-Forschung. Metakritische Untersuchungen über den Stellenwert der Logik in der neueren Künstlichen-Intelligenz-Forschung, Stiftung Warentest, 1980, online: http://www.vordenker.de/ggphilosophy/rk_meta.pdf.

Kaehr, Rudolf: SUFI’S DRAI: Wozu Diskontexturalitäten in der AI? ÖGAI-Journal (Ta­gung der Österreichischen Gesellschaft für Künstliche Intelligenz) Bd. 8, Wien 1989, S. 31-38, http://www.vordenker.de/sufi/sufi.htm.

Kaehr, Rudolf: Skizze eines Gewebes rechnender Räume in denkender Leere. Glasgow 2001, http://www.thinkartlab.com/pkl/media/SKIZZE-0.9.5-Prop-book.pdf.

Kaehr, Rudolf: Memristik. Zur Technologie des Posthumanen? Ankündigungstext zur Keynote auf der Tagung der HfG Karlsruhe „Was wird Denken heißen?“ – Kognition und Psyche im Posthumanen Zeitalter,16.-18.07.2010 (a), http://www.hfg-karlsruhe.de/Memristik.

Kaehr, Rudolf: Memristics: Why memristors won’t change anything. Remarks to Todd Hoff’s „How will memristors change everything?“ Glasgow 2010 (b); http://memris­tors.memristics.com/Why-Not/Why-Not.pdf.

Kronthaler, Engelbert: Grundlegung einer Mathematik der Qualitäten – Zahl, Zeichen, Spur, Tao. Bern, New York 1986.

Nancy, Jean-Luc: Destruktion als Erinnerung oder Struktion der Techné, Vortrag am Bo­chumer Kolloquium Medienwissenschaften, 08.12.2008, http://www.ruhr-uni-bochum.de/bkm/archivseiten/12_nancy.html, Video timecode 01:15:00ff.

Nancy, Jean-Luc: Von der Struktion. In: Erich Hörl (Hrsg.), Die technologische Bedin­gung: Beiträge zur Beschreibung der technischen Welt. Berlin 2011.

Paul, Joachim: Medienphilosophie – ein interdisziplinäres Thema? (2005) In: ders., TRANS – Reflexionen über Menschen, Medien, Netze und Maschinen. Berlin 2013 (a), S. 120-139.

Paul, Joachim: Zugänge – oder: Das Wir und unsere Technik. In: ders., TRANS – Reflexi­onen über Menschen, Medien, Netze und Maschinen. Berlin 2013 (b), S. 16-38.

Paul, Joachim: Denken denken. In: ders., TRANS – Reflexionen über Menschen, Medien, Netze und Maschinen. Berlin 2013 (c), S. 225-391.

Toulmin, Stephen E.: Kosmopolis, Die unerkannten Aufgaben der Moderne; Frankfurt 1994.

Williams, Roger J.: Biochemical Individuality; Univ. of Texas Press 1979, Neuauflage 1998.

Wolfram, Stephen: A New Kind of Science. UK 2002.

Forschungsförderung bei Tierversuchen und Alternativen

Veröffentlicht am von unter Persönliche Blogposts.

Dies ist meine Antwort auf eine Frage bei Abgeordnetenwatch zur Forschungsförderung bei Tierversuchen im Münsteraner Labor der Firma Covance: Als Abgeordneter der Opposition und vor allem auch als Mitglied er Piratenfraktion ist es mir sehr daran gelegen, Missstände im Parlament zu thematisieren ..und aufzudecken, was womöglich unter dem Schleier des „weiter so“ seit Jahren oder Jahrzehnten schief läuft […]

Aber alles leuchtet doch so hübsch bunt…

Veröffentlicht am von unter Persönliche Blogposts.

Ich war dieses Mal nur einen Tag beim Congress des CCC (Chaos Computer Club). Ich habe da eigentlich ohnehin nichts zu suchen. Ich kenne einige Menschen dort, die ich mag und bei denen ich mich gefreut habe, sie nach mehr oder weniger langer Zeit wiedergesehen zu haben. Und am Rande diskutiert man dann über Überwachung, Verschlüsselung und so.

Outing: Ich habe davon nur relativ wenig Ahnung. Ich schaffe es, meine Kommunikation einigermaßen zu verschlüsseln (PGP, OTR, TextSecure und das ganze Zeug). Für Verschlüsselung auf dem Rechner reicht es vermutlich in Ansätzen auch. Programmieren habe ich immer mal angefangen. Und eigentlich wäre es durchaus schön, mehr davon zu verstehen, ich weiß aber schlicht nicht, wann ich das auch noch machen soll.

Neben dem Job, Aktivismus, Vernetzung, ehrenamtlichem Engagement, Sprachen lernen, Bücher lesen zu unterschiedlichsten Themen, Musik machen (wollen), Texte schreiben usw. muss irgendwann auch Zeit sein für Freund*innen, reisen, abschalten, zur Ruhe kommen.

Irgendwas fällt also weg. Bei mir ist das sowas wie programmieren lernen. Auf so einer Konferenz fühlt es sich aber an, als wäre das falsch. Es ist nicht so, dass ich mich wirklich unwohl fühle, aber es ist das Gefühl, eigentlich besser keine (blöde) Frage stellen zu wollen, für die man sicher ausgelacht würde. Und die Frage: Ist das alles nicht arg elitär? Ganz naiv wünsche ich mir ja, dass die, die das können, Möglichkeiten für Verschlüsselung etc. einfacher/hübscher/freundlicher gestalten, so dass mehr Menschen das intuitiv nutzen können. Klar. Ich verstehe, dass man erfassen soll, was dahinter passiert. Aber das ist doch nichts für die “Mehrheitsgesellschaft”.

Ich befürchte, wenn wir einem übermächtigen System etwas entgegenstellen wollen (und uns entscheiden, die technischen Geräte nicht alle wegzuwerfen), müssten wir weg vom Elitären (und das gilt für die ITler genau wie für die Anarchist*innen und vermutlich zig andere Gruppen). Was uns vielleicht helfen könnte (so man sich auf gemeinsame Ziele überhaupt einigen könnte), liegt auf der Hand: Vernetzung. Jede/n das tun lassen, was sie/er gut kann, gerne macht und Support leisten auf den Gebieten, die wir halt so können, lernen lassen, ohne andere abzuwerten. Total banal. Und im Alltag dann doch irgendwie schwierig, oder?

Vielleicht gibt es aber auch zu wenig Anarchist*innen unter den ITlern. Im Grunde ergötzt man sich vielfach an Herrschaftswissen, hält Informationen zurück und gibt sie erst preis, wenn es Ruhm oder Ehre dient. Das schafft Hierarchien, die gewollt sind. Oder sehe ich das zu schwarz?

Was, wenn es nur darum geht, Macht zu erhalten? Auch dort. Irgendwie frustrierend. (Am Ende also alles wie immer. Oder wie das Känguru sagt: “Alles Nestlé, alles Kapitalismus.”)

Und. Ach. Scheiße. Ich mag das mit den bunten Lichtern….

(Weiterführende Frage: Gibt es eigentlich ein Kollektiv für IT-Dienstleistungen?)

Weihnachtsansprache

Veröffentlicht am von unter Persönliche Blogposts.

Liebe Fraktion, liebe Piraten, hallo Welt, Euch vielen Dank für das schöne Jahr 2014! Wir haben in diesem Jahr zusammen eine Menge geschafft, viel verändert, einiges erreicht. Lasst uns 2015 auch darüber reden. „Tue Gutes und rede darüber“ ist ein vielleicht konventioneller aber sicherlich guter Vorsatz für 2015. :) Wir haben in 2014 unsere gute […]

Rede: Zur Änderung des Baugesetzbuches

Veröffentlicht am von unter Persönliche Blogposts.

18.12.2014 Top 5. Gesetz zur Änderung des Gesetzes zur Ausführung des Baugesetzbuches in Nordrhein-Westfalen – BauGB-AG NRW Gesetzentwurf der Fraktion der CDU und der Fraktion der FDP Drucksache 16/6131 (Neudruck) Abstimmungsempfehlung: Ablehnung Audiomitschnitt der Rede von Oliver Bayer als Download

Im Gespräch mit angehenden Fachinformatikern Systemintegration

Veröffentlicht am von unter Persönliche Blogposts.

Gruppenbild

Heute besuchte mich eine Gruppe Auszubildender des Fachbereichs Fachinformatik Systemintegration des Berufskollegs für Gestaltung und Technik der Städteregion Aachen. Neben zunächst vielen Fragen zur Piratenfraktion und ihrer Rolle als Oppositionspartei im Landtag NRW wurden viele netz- und medienpolitische Themen angesprochen. Wir sprachen unter anderem über unsere Positionen und parlamentarischen Initiativen im Bereich Breitbandausbau, Netzneutralität und diskutierten die Position der Piratenpartei zum Urheberrecht. Auch die “Drosselkom” und die Zentralisierungstendenzen im deutschen Kabelmarkt waren ein Thema.

Daniel

Unsere Positionen zur Netz- und Medienpolitik, mit dem wir zur Landtagswahl 2012 angetreten und gewählt wurden könnt ihr hier nachlesen: http://www.piratenpartei-nrw.de/landtagswahl-2012/wahlprogramm/

Netzneutralität: Frau Merkel, Sie spielen falsch!

Veröffentlicht am von unter Persönliche Blogposts.

joker-390863_640Folgenden Gastbeitrag habe ich am 17.12. beim Handelsblatt veröffentlicht.

„Frau Merkel, Sie spielen falsch!“

Dass Merkel Spezialdienste bevorzugt durchs Netz leiten will, ist abwegig. Es gibt nur einen Grund, manche Datenpakete im Internet anders zu behandeln als andere: Wenn davon alle profitieren. Ein Gastbeitrag der Piraten.

Bundeskanzlerin Angela Merkel hat Anfang Dezember auf der Veranstaltung „Digitising Europe“ des Vodafone Instituts für Gesellschaft und Kommunikation die Netzneutralität grundsätzlich in Frage gestellt. Ihrer Meinung nach lässt sich Netzneutralität angesichts neuer Spezialdienste, wie fahrerlose Autos oder Telemedizin, nicht aufrechterhalten. Dieses Argument ist auf den ersten Blick genauso einleuchtend wie letztlich falsch: Alles nur Rauch und kein Braten.

Jeder weiß, dass das mobile Netz nicht überall lückenlos verfügbar sein kann. Verbindungsprobleme in abgelegenen Gegenden sind allseits bekannt, doch auch in der Stadt im Windschatten von Hochhäusern oder Unterführungen steht kein Internet zur Verfügung. Die Konstruktion von selbstfahrenden Autos, die im Verkehr nur mit stabiler Internetverbindung sicher navigieren können, wäre also mehr als fahrlässig.

Selbstverständlich muss ein fahrerloses Auto in der Lage sein, ohne Datenverbindung, aufgrund der eigenen Sensoren, im Straßenverkehr Hindernissen auszuweichen und einer vorgegebenen Route folgen zu können. Ein Auto, welches ohne Internet stehen bliebe, stellt eine Gefahr für den Straßenverkehr dar. Lediglich für die Routenplanung und Verkehrsinformationen ist eine Datenverbindung erforderlich.

Da spielt es aber keine Rolle, ob diese Informationen bevorzugt im Netz transportiert werden, oder einige Sekunden später eintreffen. Auch ein herkömmliches Navigationssystem stellt seinen Dienst nicht ein, wenn mal kurzzeitig kein GPS-Signal zur Verfügung steht. Ein fahrerloses Auto braucht bei verantwortlicher Programmierung nicht mehr oder stabileres Internet als irgendjemand anderes.

Auch das Telemedizin-Argument klingt so gut, wie es in die Irre führt. Das Internet ist nicht für Echtzeit-Kommunikation konzipiert worden. Der Schwerpunkt der Entwicklung lag darauf, dass sich das Netz selbst organisiert, und die zu transportierten Daten, aufgeteilt in Pakete, selbst ihren Weg durch das Netz suchen. Eine bestimmte Transportgeschwindigkeit sieht das Netz nicht vor. Eine physische Verbindung zwischen zwei Teilnehmern gibt es nicht, die Kommunikation verläuft grundsätzlich asynchron über eine Reihe von Verbindungspunkten.

Dennoch wird das Internet heute für Echtzeit-Kommunikation genutzt. Neben Chat und IP-Telefonie stellt auch unterbrechungsfreies Streaming von Ton und Video hohe Anforderungen an die Verbindungsqualität. Diese Dienste funktionieren, weil das Internet einen bestimmten Ausbaustandard erreicht hat – eine Garantie, dass diese Dienste tatsächlich lückenlos laufen, gibt das Internet dennoch nicht.

Mit dem Begriff „Single Point of Failure“ bezeichnet man den Bestandteil eines Systems, dessen Defekt den Ausfall des ganzen Systems verursacht. Bei lebenswichtigen Systemen wird darauf geachtet, dass es keine solchen Fehlerpunkte gibt – jedes entsprechende Teil wird dann redundant, also mehrfach ausgelegt. Deswegen gibt es Notstromversorgungen, Backups und Standby-Systeme, die im Fall des Falles eintreten. Auch Anschlüsse und Leitungen müssen doppelt ausgelegt werden, wenn mal ein Bagger ein Glasfaserkabel durchtrennt.

Bei einer herkömmlichen Internetverbindung gibt es zahlreiche Fehlerquellen, deren Ausfall nicht automatisch kompensiert werden kann. Dazu zählen Router, Internetknotenpunkte auf dem Weg zwischen Sender und Empfänger, und die Leitung der letzten Meile.

Wer also eine lebenswichtige Operation als Telemedizin über das herkömmliche Internet ausführen möchte, riskiert das Leben seines Patienten. Solche Dienste über das Internet auszuführen, ist Körperverletzung – auch das Bevorzugen gewisser Datenpakete ändert nichts an der Lebensgefahr, wenn das System selbst plötzlich nicht verfügbar ist.

Eine Fern-Operation darf nur über ein dediziertes System ausgeführt werden, bei dem zwischen Sender und Empfänger jede einzelne Komponente garantiert ausfallgesichert vorhanden ist. Das Internet ist dafür nicht geeignet. Ein Gespräch zwischen Arzt und Patient, eine Fern-Untersuchung und Beratung hingegen braucht keine garantierten Antwortzeiten.

Es gibt überhaupt nur einen Grund, gewisse Datenpakete im Internet anders zu behandeln als andere: Wenn davon alle profitieren. Das kann sinnvoll sein bei Rundfunk – also da, wo viele Nutzer den gleichen Datenstrom empfangen. Diesen sollte man dann zu Gunsten der restlichen Bandbreite nur einmal übertragen, und dann an alle Nutzer verteilen.

Dass man diesen Datenpaketen dann entsprechend ihrer Bedeutung für viele Empfänger einen höheren Stellenwert einräumt, darf nicht dazu führen, dass das Netz für alle langsamer wird – setzt also einen entsprechenden Netzausbau voraus. Eine Verpflichtung der Provider zur Bevorzugung zum Beispiel des öffentlich-rechtlichen Rundfunks gibt es nämlich im Grunde bereits jetzt.

Doch auch bei diesen Diensten muss Plattformneutralität gelten: Der Zugang zu diesen Diensten muss allen Teilnehmern – Anbietern wie Nutzern – gleichermaßen und diskriminierungsfrei zur Verfügung stehen. Das ist nicht nur technisch möglich, das ist nötig und geboten.

Spezialdienste machen nur auf eigenen, dedizierten Systemen Sinn. Dann wird aus dem Spezialdienst eine Zusatzleistung, die eine eigene Bepreisung rechtfertigt. Eine Ausrede, damit auf den dringend notwendigen Netzausbau zu verzichten, dürfen Spezialdienste nicht sein. Die Ausgliederung eines Teils von Internetdiensten ist jedenfalls immer eine Verletzung der Netzneutralität. Und durch diese Tür sollten wir nicht gehen.