Название: Ausweitung der Kontingenzzone
Автор: Christian Schuldt
Издательство: Bookwire
Жанр: Социология
isbn: 9783863935832
isbn:
Aus systemtheoretischer Sicht bedeutet „Digitalisierung“ daher vor allem: Die Gesellschaft wird intransparent und kontingent – undurchschaubar und unberechenbar. Menschen können die algorithmischen Prozesse und Effekte der Computer von außen nicht einsehen oder verstehen, und diese Intransparenz prägt mit fortschreitender Vernetzung auch zunehmend die soziale Kommunikation.
Luhmann verdeutlichte diese Intransparenz am Beispiel des Computer-Bildschirms: Das Display bildet eine Oberfläche, die mit der undurchschaubaren Tiefe der „unsichtbaren Maschine“ (Luhmann 1997, 304) konfrontiert. Denn an der Schnittstelle zwischen Mensch und Maschine werden Operationen ausgeführt, die keine eindeutigen oder kausalen Beziehungen zwischen Ein- und Ausgabe zulassen. Diese Unterbrechung von Eindeutigkeit oder Kausalität kennen wir bislang nur aus sozialen Situationen, etwa im Bereich der Kunst. Und, in vorhumanistischen Zeiten: aus Magie und Religion. In beiden Fällen geht es um zeichenhafte Oberflächen, die auf verschlossene Tiefen verweisen.
Die Analogie zu Kunst und Religion macht zugleich verständlich, weshalb wir – positiv wie negativ – fasziniert sind von Prozessen der Automatisierung, warum die Nutzung von Social Media zu Suchteffekten führen kann und weshalb wir nichttrivial reagierenden Maschinen eine „Intelligenz“ zuschreiben. Zwar weist die intransparente Maschinenkommunikation noch lange nicht jene Merkmale auf, die menschliche Intelligenz kennzeichnen, aber sie wirkt „intelligent“. Aus diesem Grund beschreiben wir „smarte“ Maschinen mit Attributen wie „undurchschaubar“ oder „idiosynkratisch“, die zuvor nur Individuen zugeschrieben wurden. Im Gegenzug zelebriert der Mensch seine individuelle Autonomie umso intensiver, mit Hinweisen auf die menschliche Körperlichkeit, Verletzlichkeit und Irrationalität, mit einer Wertschätzung des Spontanen, Emotionalen und Unprogrammierbaren.
In der Netzwerkgesellschaft werden Unvereinbarkeiten und Unreduzierbarkeiten daher nicht nur akzeptiert, sondern sogar gepflegt – mit folgenreichen sozialen und psychischen Verwerfungen. Es herrscht ein „gesellschaftliches Durcheinander“, in dem „kaum jemand weiß, woran er ist“ (vgl. Baecker 2015c, 6). Diese Beobachtungen machen auch deutlich, dass die „Digitalisierung“ kein primär technologisches Phänomen ist, sondern vor allem ein sozialer und kultureller Wandlungsprozess, der neben den technischen auch die soziokulturellen Implikationen digitaler Konnektivität umfasst (vgl. Zukunftsinstitut 2016b, 2018a).
Die schwer – und mitunter auch: gar nicht – kontrollierbare maschinelle Kommunikation beeinflusst die Anschlussfähigkeit der sozialen Kommunikation, mit weitreichenden lebensweltlichen Konsequenzen. Denn auf diese Umstellung ist unsere Gesellschaft nur unzureichend vorbereitet. Die bisherigen strukturellen und kulturellen Gesellschaftsformen sind schlicht nicht geeignet, um diese „entfesselte“ Kommunikation zu verarbeiten. Die entscheidende Frage lautet deshalb: Wie gelingt es der Gesellschaft, diesen medial produzierten Kommunikations-Overflow strukturell und kulturell zu kontrollieren? Welche neuen kulturellen Muster sind dem Umgang mit Intransparenz angemessen?
Niklas Luhmann hielt es für wahrscheinlich, „dass die Beschleunigung der Kontrolloperationen dasjenige Moment sein wird, auf das die Kultur reagieren muss – und dies dann wohl mit einem Verzicht auf eine Positivwertung zeitlicher Beständigkeit“ (Luhmann 1997, 412). Genau das beschreibt der neue Fokus auf Komplexität und Kontingenz in der vernetzten Gesellschaft: Jede digitale oder digitalisierbare Kommunikation umfasst Ungleichartiges und Widersprüchliches – und erhält genau darin einen Sinn, der sich gewissermaßen selbst absichert. Die Kulturform, die es der vernetzten Gesellschaft ermöglicht, den digital produzierten Überschusssinn zu kompensieren, ist deshalb der Modus der Komplexität (siehe III. Reflexion, S. 79).
Eine – wenn nicht die – zentrale Herausforderung für Individuen und Organisationen, aber auch für die gesamte Gesellschaft, lautet deshalb: Lerne, mit diesem Komplexitätsaufkommen umzugehen. Lerne, die vernetzte Komplexität adäquat und zukunftsweisend zu verstehen und zu kontrollieren. Das ist umso schwieriger, als dass dies nicht mehr, wie noch in Vor-Internet-Zeiten, bedeutet, Komplexität möglichst stark zu reduzieren. Im Gegenteil: Heute und künftig gilt es, Komplexität zuzulassen und aufzubauen – weil sie erst dann intelligent kontrolliert werden kann.
Die Grundvoraussetzung dafür ist ein umfassendes, systemisches Verständnis von Komplexität und Kultur – und damit auch Technologie. Denn der Kontrollverlust in der nächsten Gesellschaft korreliert direkt mit dem Kontrollgewinn neuer Technologien.
Nichttrivialität: Die Potenziale der Künstlichen Intelligenz
Smarte Algorithmen sorgen dafür, dass Technik nicht-trivial wird – und damit kausal undurchschaubar. Es sind keine eindeutigen Ursache-Wirkung-Verknüpfungen mehr erkennbar, vielmehr reagieren Maschinen zunehmend rekursiv auf sich selbst, unabhängig von ihrer ursprünglichen Bestimmung, solange sie nur entsprechenden Input erhalten.
Künstliche Intelligenz (KI) ist längst ein fester Bestandteil unseres Alltags geworden. Selbstlernende Systeme steuern die Spracherkennung in Smartphones, lassen Autos autonom fahren und helfen bei maschinellen Übersetzungen, bei der Identifikation von Objekten oder Personen, bei Kreditvergaben und Vorhersagen aller Art. Big Data, billigere Computertechnologie und bessere Algorithmen haben die Technologie zur neuen Normalität werden lassen, im Internet der Dinge ist ein Leben ohne KI nicht mehr möglich. Die fortschreitende KI-Durchdringung verändert unsere Gesellschaft und schafft eine neue Realität, inklusive neuer Formen der Interaktion mit Technologie, etwa über Sprach- und Gestensteuerung.
Damit treibt KI nicht nur den Prozess des digitalen Wandels rasant voran, sondern schlägt zugleich ein neues Kapitel in der gesellschaftlichen Evolution auf: Erstmals in der Geschichte der Menschheit ändert sich die Beziehung zwischen Mensch und Maschine (vgl. Zukunftsinstitut 2019a). Selbstlernende Systeme sind immer weniger Werkzeug im herkömmlichen Sinne, sondern entwickeln eigenständige Entscheidungen, unabhängig von der Interaktion mit Menschen – selbst wenn es sich dabei auf absehbare Zeit noch immer um „schwache KI“ handelt, die kategorial von menschlicher Intelligenz zu unterscheiden ist.
In der Konsequenz hebt KI die kollektive Verunsicherung, die den Prozess der digitalen Transformation generell begleitet, nochmals auf eine neue Stufe. Diese Konfusion manifestiert sich auch in simplifizierenden und polarisierenden Mensch-Maschine-Erzählungen: Euphorische KI-Utopien und die quasireligiöse Hoffnung auf eine maschinelle „Superintelligenz“ auf der einen Seite – dystopische Ängste vor einer Unterwerfung der Menschheit durch übermächtige Roboter und Algorithmen auf der anderen. Beide Narrative trivialisieren Technologie, indem sie die komplexe Dynamik soziotechnischer Fortschritte auf einfache, tendenziell lineare Szenarien reduzieren.
Die Überschätzung macht KI zum zentralen Hype-Narrativ des digitalen Disruptionsdiskurses – und zum Vorreiter in der Disziplin „Lösungen auf der Suche nach Problemen“. Doch weil KI heute in alle möglichen Gadgets gesteckt wird, schlicht um zu zeigen, dass es geht, macht sich zugleich eine erste KI-Ernüchterung breit. Viele Nutzerinnen und Nutzer machen die Erfahrung, dass KI-getriebene Smartifizierungen fragwürdig sind (was ist „intelligent“ an einem sprachkontrollierten WC?) und sogar ein Mehr an Unzuverlässigkeit und lästigem Aufgefordertwerden bedeuten, etwa in der Interaktion mit Sprachassistenten. Und Unternehmen stellen fest, dass KI eine Organisation nicht von heute auf morgen „smart“ macht, sondern komplizierte und komplexe Implementierungsprozesse erfordert.
Hinzu kommt der generelle Vertrauensverlust in digitale Technologien, der sich insbesondere an KI-basierten Anwendungen kristallisiert. Immer deutlicher СКАЧАТЬ