Das Denken der Dinge

16. Mai – 7. Juni 2018

Städtische Galerie Haus Seel

 

 

Marc Babenschneider ·  Andrea Freiberg ·  Günter Hähner  ·  Thomas Kellner  ·  Mustafa Kizilcay ·  Kai Uwe Körner  ·  Kristian Kosch ·  Stella Kown-Mockenhaupt  ·  Michael G. Müller   ·  Petra Oberhäuser  ·  Bruno Obermann  ·  Michael Schumann  ·  Susanne Skalski

als Gäste:   Mara Samea Stroot  ·  Arno Dirlewanger

 

Eröffnung:  Mittwoch · 16. Mai 2018 · 19 Uhr

Begrüßung:  Verena Böcking, Stellv. Bürgermeisterin der Universitätsstadt Siegen

Einführung:  Dr. Jochen Dietrich

 

 

Zur Ausstellung

Die thematische Gruppenausstellung „Das Denken der Dinge“ stellt die Frage nach der Ethik der Digitalisierung. Die Arbeitsgemeinschaft Siegerländer Künstlerinnen und Künstler untersucht eine Welt, die zunehmend von lernenden Algorithmen und künstlicher Intelligenz bestimmt wird. Welche sozialen Risiken bergen die virtuellen Datenumgebungen? Bleiben wir noch Herr über uns, unseren freien Entscheidungen und unserem eigenständigen Handeln? Unterschiedliche künstlerische Positionen geben dazu Denkanstöße.

Die Ausstellung wird begleitet von öffentlichen Gesprächen und Diskussionen während des ASK-Kunststammtisches am 7. Juni mit einem Expertenvortrag von Prof. Dr.-Ing. Klaus-Dieter Kuhnert, Uni Siegen.

 

Video „Denkspirale“  motorisierte Installation von Michael G. Müller

 

 

Das Denken der Dinge – Gedanken eines Un-Dings

Rede zur Eröffnung der Ausstellung Das Denken der Dinge, ASK Siegen,
Dr. Jochen Dietrich, Städtische Galerie Haus Seel, 16.5.2018

Siri sagt: Hallo.

Alexa sagt: Hallo zurück.

Siri: Siri grüßt Dich ebenfalls.

Alexa: Leider habe ich Sie nicht verstanden. [Pause]

Siri: Okay? Soll ich im Internet nach „Leider habe ich Sie nicht verstanden“ suchen?

Alexa: Leider kenne ich die Antwort nicht. Wollen Sie im Internet suchen? [Pause]

Siri: Das kann ich nicht beantworten. Aber wenn Du möchtest, kann ich im web danach suchen.

Alexa: Leider habe ich Sie nicht verstanden.

Siri: Wenn Du möchtest, kann ich im web nach „Abschalten“ suchen [Zitat Ende] [I]

Hoffentlich hat Siri im Web was zu „Abschalten“ gefunden. Das Gespräch der beiden jedenfalls – leicht finden Sie bei Youtube weitere Beispiele dafür, wie sich zwei Dinge miteinander unterhalten – lässt wohl auch die optimistischeren Beobachter etwas ratlos zurück, wenn sie sich der schönen, vermeintlich neuen Welt der denkenden Dinge zuwenden. Und das, verehrte Anwesende, wollen wir ja heute Abend tun.

Aber: Seit wann können Dinge denken? Seit uralten Zeiten, glaubt man Heinrich Heine [II], der in der Harzreise über Märchen nachdenkt und schreibt: „Nähnadel und Stecknadel kommen von der Schneiderherberge und verirren sich im Dunkeln; Strohhalm und Kohle wollen über den Bach setzen und verunglücken; Schippe und Besen stehen auf der Treppe und zanken und schmeißen sich.“ Durch „Unmittelbarkeit“, so Heine 1826 [II], sei dies entstanden, und er berichtet vom Besuch bei frühindustriellen Bergarbeitern in Clausthal: „Die steinalte (…) Frau, die, dem großen Schranke gegenüber, hinterm Ofen saß, mag dort schon ein Vierteljahrhundert lang gesessen haben, und ihr Denken und Fühlen ist gewiß innig verwachsen mit allen Ecken dieses Ofens und allen Schnitzeleien dieses Schrankes. Und Schrank und Ofen leben, denn ein Mensch hat ihnen einen Teil seiner Seele eingeflößt.“ Sind Strohalm, Bohne und Kohle denkende Wesen, KI´s avant la lettre? Das könnte eine Ihrer Fragen sein, wenn Sie später in der Ausstellung umhergehen.

Oder war es 1999? Da taucht das Konzept Internet der Dinge erstmals auf, bei Neil Gershenfeld vom MIT Media Lab in seinem Buch „Wenn die Dinge denken lernen“.

Andere sagen, das war der 8. Juni 2011. Ein Mittwoch. Wieso da? Haben wir gar nicht gemerkt… Passiert ist in etwa folgendes: die IP-Adressen, also die Zeichenkombination, die jedem Rechner, Smartphone u.a. Endgeräten zugewiesen wird und anhand derer das Gerät identifizierbar ist, diese Adressen waren 2011 aufgebraucht. Wie in einem Dorf mit dreistelligen Telefonnummern, wenn eines Tages der 1000ste Anschluss dazukommt. Man muss dann mehr Stellen einführen, und genau das hat man am 8.6.2011 erfolgreich erprobt. Seitdem gibt es viele Adressen. So viele, dass laut Internetverwaltung ISOC für jeden Quadratmeter Erdoberfläche weit über 1000 IP-Adressen da sind, Ozeane eingeschlossen. Oder pro Mensch 340 Millionen. Das sollte reichen. Reichen auch dafür, dass noch der unbedeutendste Alltagsgegenstand vernetzt werden oder als Tor zwischen Dingwelt und Datenwelt dienen kann.

Hier scheint in der Tat alles möglich – wir brauchen uns nicht mehr zu beschränken, wenn künftig jeder Kühlschrank, jedes Auto, jede Brille, jede Uhr eine IP-Adresse bekommen soll, wie auch jede smarte Bombe, jede Drohne, jeder Jet. Ich habe aber zugleich so viele Adressen, dass ich mir den Luxus leisten kann, auch jedem Menschen eine zuzuweisen. Trotz aller denkenden Dinge sind die ja auch noch da, schon vergessen? Johannes Caspar, seinerzeit Hamburgischer Datenschutzbeauftragter, warnte deshalb (Zitat): „Bisher hat der Nutzer Möglichkeiten an der Hand, sein informationelles Selbstbestimmungsrecht auf einen anonymen Internetzugang zu schützen. Mit der Einführung des IPv6-Protokolls droht dies nun gänzlich unter die Räder zu kommen, da die neuen Internetadressen viel mehr über den Nutzer verraten und ihn lebenslang identifizieren können.“

Es gibt heute Rechner, die alles das, was insgesamt zwischen 1960 und 2000 auf der ganzen Welt von Maschinen gerechnet wurde, in wenigen Minuten nochmal neu rechnen können. Rechen-und Speicherleistung wachsen exponentiell, auch weiterhin. Und die physischen Dimensionen schrumpfen, weiterhin. Nichts scheint mehr unmöglich.

“Ain`t you glad that things don´t talk” Bist du nicht froh darüber, dass die Dinge nicht reden können? Das fragt der amerikanische Singer Songwriter Ry Cooder [III], in einem ziemlich frühen Song, so etwa Anfang der siebziger. Darin entwirft er ganz beiläufig die Vision einer Welt, in der die Dinge miteinander und mit uns kommunizieren. Diese Idee gerät ihm dann ganz schnell zu einer Dystopie, also einer schwarzen Utopie, denn Cooder scheint sich in einer Welt wohler zu fühlen, in der die Menschen miteinander reden und die Dinge einfach Dinge sind.

Aber unsere Welt scheint sich anders zu entwickeln. Plötzlich ist alles nur noch 4.0. Alles wird anders, alles wird neu. Connected Driving, Smart Home. Mein Kühlschrank und mein Herd unterhalten sich nachts in meiner Küche, und morgens früh hat eine Drohne längst Wurst und Käse gebracht. Leider Zungenwurst. Und Käse ess ich gar nicht. Aber man soll nicht kleinlich sein, wenn es um den Fortschritt geht.

Allerdings: die Dinge, über die ich mich hier ein wenig lustig mache, gehören, wenn man sauber argumentieren möchte und nicht polemisch, zu einem Bereich, den selbst die Apologeten nur schwache KI nennen. Schwache KI zeichnet sich dadurch aus, dass sie jeweils nur auf ein Gebiet spezialisiert ist; dazu zählen Schachcomputer, der selbst bestellende Kühlschrank, aber auch Smartphones oder unsere Freundin Siri.

Obwohl dem Namen nach schwach, gibt es hier absolut faszinierende Beispiele, die auch uns Laien eine Ahnung davon verschaffen, dass und in welchem Ausmaß Computer lernen können: google translate zum Beispiel hat man beigebracht, einmal aus dem Englischen ins Koreanische zu übersetzen und einmal aus dem Japanischen ins Englische. Offenbar hat das Programm, 2016 in ein neuronales Netz umcodiert, in kürzester Zeit unterhalb der sichtbaren Ebene eine Kunstsprache entwickelt, die gewissermaßen zwischen Ursprungs- und Zielsprache entsteht und nun Koreanisch in Japanisch übersetzt offenbar ohne Rückgriff auf das Vokabular des Englischen als der ursprünglichen Brückensprache oder irgendeiner anderen ursprünglich einmal eingegebenen/gelernten Sprachen. Was das Programm da macht, verstehen seine Entwickler bereits jetzt nicht mehr vollständig.

Nun aber starke künstliche Intelligenz: der Sprung – und den haben die Rechnersystem noch nicht geschafft – der Sprung bestünde darin, dass eine KI die Schlüsse, die sie in einem Bereich erfolgreich zieht, auf einen völlig anderen Bereich übertragen könnte. Die spannende Frage ist daher, wie es gelingen kann, diesen Sprung zu vollziehen.

Das Problem lässt sich beschreiben mit den Begriffen der Taxonomie unterschiedlicher Lerntypen, wie sie der Mathematiker und Philosoph Bertrand Russel vorgeschlagen hat. Basierend auf der Grundannahme, dass Organismen auf ihre Umwelt reagieren (bereits hier müssten wir erweitern: auch Schaltungen können das), basierend also auf dieser Vorstellung, löst ein Reiz eine Reaktion aus. Geschieht dies unwillkürlich, nennt Russel das Lernen Null; klassische Konditionierung führt zu Lernen I, denn per Erfahrung wird der ursprüngliche Reiz mit einem zweiten Reiz verkoppelt und schließlich ausgetauscht. Lernen II bedeutet dann, dass der ursprüngliche Kontext, in dem die Umcodierung stattfand, mit anderen Kontexten verglichen wird, um zu überprüfen, ob die Umcodierung auch hier vorteilhaft sein könnte. Lernen III schließlich reflektiert die Operation des Abgleichens von Kontexten und vergleicht sie mit anderen Operationen, und hier wird es allmählich kompliziert. Entscheidend für unsere Fragestellung ist dabei eines: Lernen kann man schon lange vor den denkenden Dingen als eine Aktivität entwerfen, die nicht zwangsläufig nur dem Menschen vorbehalten ist – überall in der Belebten Materie finden Reiz-Reaktions-Abläufe statt. Entscheidend scheint jedoch zu sein, ob es einem Lernenden Wesen oder lernenden Ding gelingt, den Problemraum, in dem das Lernen sich jeweils ereignet, zu verlassen und so einen Blick gewissermaßen von außen (oder von höherer Warte) auf diesen Problemraum zu werfen. – Den eigenen Lernkontext überschreiten, das ist die Schwelle, die die denkenden Dinge bislang nicht überschritten zu haben scheinen. Kein Grund allerdings, sich nun selbstgefällig im Sessel zurückzulehnen, denn auch Menschen tun sich ausgesprochen schwer, die – logisch eigentlich unabgeschlossene – Abfolge von Kontextüberschreitungen über das Level III hinaus zu bringen.

Mit einer letzten, reizvollen Idee möchte ich sie, verehrtes Publikum, in die Ausstellung entlassen: ich verdanke sie einem Vortrag bei den Bielefelder Fototagen, damals in den 90ern, aber ich kann mich beim besten Willen nicht mehr an den Namen des Redners erinnern. Es ging damals schon um KI, genauer um die Frage, ob unsere Welt eine virtuelle Welt ist. Denn wenn sie es wäre, müsste man künstliche Intelligenz von anderer gar nicht mehr unterscheiden. Der Vortragende sprach einige Zeit über Descartes und dessen Vertrauen darein, dass der liebe Gott uns schon nicht beschwindeln würde. Ob oder ob nicht, das ist eins der Probleme an Descartes, wir werden es nicht erfahren, jedenfalls nicht, solange wir unseren Erfahrungsraum nicht verlassen. Wir haben nun mal keine Außensicht auf unser Leben, solange wir das Leben selbst noch haben. Hm… wenn der Weg nicht nach außen geht, geht er womöglich nach innen: des Vortragenden etwas abenteuerlicher Vorschlag war, dass wir Menschen denkende Dinge bauen, virtuelle Welten , und wir tun dies aus der Kenntnis unserer eigenen Welt heraus. Wenn aber jetzt innerhalb der von uns gebauten virtuellen Welt intelligente Einheiten/Wesen/KIs entstehen, und zwar starke KIs, solche, die den Kontextsprung schaffen, dann könnten die eines Tages sich mit der Frage befassen, ob denn ihre Welt eine virtuelle Welt sei. Und dann gucken wir, was die machen!! Und wenn die dann auf die Idee kommen, ihrerseits eine virtuelle Welt zu entwerfen, dann haha, ….. ja dann können wir aus dem Vergleich dieser beiden Welten miteinander in einer Art Extrapolation eine Außensicht auf unsere Welt konstruieren. Und so womöglich erfahren, ob der liebe Gott tatsächlich keinen Schmu macht.

Ehrlich gesagt, bloß das interessiert mich an denkenden Dingen. Ich freue mich über jeden verdammten Tag, an dem ich noch nicht mit einer Zahnbürste reden muss, einem Eierkocher oder Fahrstuhl. Connected driving wird mindestens lästig sein, vermutlich aber sterbenslangweilig. Smart Homes sind lächerlich, selbst wenn sie funktionieren, was sie nicht tun, wie ehrliche Elektriker hinter vorgehaltener Hand zugeben. Smart Cities sind nicht lächerlich, aber neben den tollen Hoffnungen auf weniger Ressourcenverschwendung, weniger Verkehrstote, weniger Smog stehen apokalyptische Bilder von totaler Kontrolle, amoklaufenden Killerrobotern, allwissenden Krankenkassen oder von Autos, die im Falle eines Unfalls blitzschnell entscheiden, ob sie lieber das spielende Kind umfahren oder den 53 Jahre alten Motorradfahrer, also mich.

Ich weiß nicht, ob Dinge wirklich denken sollten. Aber beschließen wir unser Nachdenken versöhnlich, und zwar mit Nietzsche: der unterschied offenbar zwischen bösen Dingen und den guten, die heiter sind und ganz ohne Bewusstsein: Zitat:

„Alle guten Dinge haben etwas Lässiges und liegen wie Kühe auf der Wiese.“ [IV]

 

[I]  Transskript eines Videos, https://www.youtube.com/watch?v=epdXTAela8Q ; eigentlich spricht Siri hier mit S-Voice; ich habe in Alexa umgetauft, weil es einfach schöner klingt

[II]  Heine, H.: Die Harzreise, Kap. 3 , zit.n. Projekt Gutenberg

[III]  auf Paradise and Lunch, 1974 (Original von Bobby Miller)

[IV]  Friedrich Nietzsche, II, Aph. 107, Hervorhebung J.D.

 

 

Pressestimmen

Siegener Zeitung vom 16. Mai 2018