Название: Data Intelligence
Автор: Manfred Kulmitzer
Издательство: Readbox publishing GmbH
Жанр: Отраслевые издания
isbn: 9783347101456
isbn:
Jedoch will in vielen Fällen ein Mensch überhaupt nicht mit Informationen konfrontiert werden, die seinen bereits bestehenden Meinungen widersprechen. Wird man dennoch damit konfrontiert, nehmen sie diese anderen Meinungen oder Informationen meistens nicht wahr oder finden zahllose Gründe, diese abzulehnen.
Grundsätzlich bereitet es Menschen ein unangenehmes Gefühl, sich mit Positionen zu beschäftigen, die nicht die eigenen sind und spricht dabei vom sogenannten Bestätigungsfehler aka Confirmation Bias. Menschen vermeiden kognitive Dissonanz, indem sie selektiv wahrnehmen, was sie wahrnehmen wollen.
Deswegen verkehren Menschen üblicherweise wenig mit Menschen, die sie nicht mögen und andere politische Meinungen vertreten als sie selbst. Ein Mensch wählt seine Freunde, seinen Stammtisch und sein Umfeld im Allgemeinen nach dem Kriterium der Ähnlichkeit aus und findet diejenigen sympathisch, die Gemeinsamkeiten - Meinungen, Interessen, aber auch reine Äußerlichkeiten - mit ihm teilen.
Zudem liest ein Mensch jene Zeitungen, die eher seiner politischen Ausrichtung entsprechen und abonniert Newsletter von ihm nahestehenden Organisationen.
Manche Menschen hingegen glauben lieber an Verschwörungstheorien anstelle von Fakten, weil ihnen dies eine Illusion von Kontrolle über die Welt gibt - an Verschwörungen kann man schließlich etwas ändern. Verschwörungstheorien sind nicht notwendigerweise immer falsch oder eine Lüge, und ungleich schwerer zu widerlegen, da sie lediglich die Vermutung sind, dass sich bestimmte Menschen zu einem Thema miteinander verschworen haben.
Es sind meist dieselben Typen von Menschen, welche an Verschwörungstheorien glauben - ihnen bedeutet es viel, einzigartig zu sein und dient zudem einem egozentrischen Schutzverhalten.
«Menschen erschaffen ihre Meinungsblasen eigenhändig und sind somit selber schuld an der Filterung.»
Wenn ein Mensch stets nur mit der eigenen Meinung konfrontiert wird und nie die Gegenseite dargestellt bekommt, immer nur bestätigt wird und die kontroverse Diskussion eines Themas versäumt oder ignoriert, dann lebt dieser in einer Meinungsblase.
Dies passiert beispielsweise, wenn man ausschließlich in Freundesgruppen mit ähnlichen Interessen verkehrt und immer die gleichen Informationsquellen (Internet, soziale Medien, Tageszeitungen) konsultiert.
Der amerikanische Internet- und Politik-Aktivist Eli Pariser hat im Jahr 2011 in seinem gleichnamigen Buch erstmals den Begriff „Filter Bubble“ aka Filterblase für die Medienwissenschaft verwendet, um auf die theoretischen Gefahren der Filter-Algorithmen von Suchmaschinen oder Feeds in sozialen Netzwerken hinzuweisen. Ihm war aufgefallen, dass er auf Facebook immer weniger Kommentare von seinen Kontakten, die eher konservativ orientiert waren, sah und verdächtigte bald den Facebook-eigenen Algorithmus. Laut Pariser entstehe die Filterblase, weil Webseiten und soziale Medien versuchen, mit Algorithmen und oft mit dem Einsatz von Künstlicher Intelligenz vorherzusagen, welche Informationen man auffinden möchte.
Dies basiert primär auf den verfügbaren Informationen über den Benutzer (wie Standort, Suchhistorie und das Klick-Verhalten), persönlichen Daten und Cookies (nein, das hat gar nichts mit Keksen zu tun :) sowie dem Vergleich von Interessen mit anderen Benutzern. Daraus resultiert eine - durch Maschinen automatisierte - Isolation gegenüber Informationen, die nicht der Meinung des Individuums entsprechen. Dabei ist allerdings anzumerken, dass die isolierende Wirkung von Filterblasen derzeit noch Gegenstand wissenschaftlicher Untersuchungen ist und allgemein als nicht belegbar gilt.
Im Wesentlichen wollte er mit seinem Buch darauf aufmerksam machen, dass diese Algorithmen irgendwann vielleicht nur noch die eigene Sichtweise des Nutzers zulassen würden und alle anderen Informationen entsprechend automatisch ausgefiltert würden [12].
Und dies scheint durchaus zuzutreffen: In den sozialen Medien haben die Menschen über die letzten Jahre aufwändig mit „Like“ und „Follow“ von Themen, Personen und Meinungen ihr eigenes, meist faktenresistentes Weltbild aufgebaut.
Wobei die - zumeist intelligenten - Algorithmen von Facebook, Google und Co. gerne alles aufzeichnen, was der Mensch ihnen an Daten gibt.
Im Allgemeinen bestimmt ein Algorithmus, wie sich ein Computerprogramm bei bestimmten Aktionen verhalten soll. Im Fall der sozialen Medien wird somit festgelegt, welche Inhalte angezeigt werden. Abhängig vom programmierten Algorithmus können Prioritäten auf Inhalte von Freunden gesetzt werden, mit denen man oft in Kontakt steht oder auf Inhalte, die viele andere Menschen kommentiert haben. Es kann zudem sein, dass Inhalte, die man häufig ignoriert, gar nicht mehr angezeigt werden.
Bei Suchmaschinen bezieht sich die Programmierung auf die Auswahl, Sortierung und Anzeige der relevanten Ergebnisse zum jeweiligen gesuchten Begriff, in Abhängigkeit von den automatisch festgestellten Interessen eines Individuums. Somit werden uns durch die Algorithmen genau jene Themen aufgezeigt, an denen wir potenziell Gefallen finden könnten und welche die - zuvor durch Computer aufgezeichneten - Interessen bestätigen oder diesen ähnlich sind.
«Filterblasen werden durch - meist intelligente - Algorithmen verursacht und entstehen durch deren Versuch, die Ergebnisse zu personalisieren.»
Die Kriterien, nach denen ein Algorithmus arbeitet, hängen von der jeweiligen Plattform ab und sind in der Regel nur oberflächlich bekannt, da die Unternehmen ihre Algorithmen und Kriterien als Wettbewerbsvorteil sehen, daher gut behüten und geheim halten.
Diese einseitige Information - die man selbst so nicht wirklich wahrnimmt - kann dabei die eigene Weltansicht eines Individuums verstärken, während andere Meinungen und Überzeugungen ignoriert oder gar nicht berücksichtigt werden.
Und dies kann zu einem verzerrten Meinungsüberblick führen und ebenfalls Einfluss auf die jeweilige Meinung des Individuums selbst haben. Darüber hinaus wird einem die Möglichkeit zur umfassenden Reflexion eines Themas genommen und es besteht die Gefahr der Anpassung an eine der ständig dargestellten Meinungen.
«Es ist eine Frage der eigenen Informations- und Medienkompetenz, um Meinungs- und Filterblasen zu vermeiden.»
Man muss sich dabei einer durchaus wichtigen Tatsache bewusst sein: Die sozialen Medien sind primär zur Unterhaltung der jeweiligen Benutzer ausgerichtet und zeigen daher schwerpunktmäßig jene Inhalte an, welche individuell von Interesse sind. Unter diesem Aspekt ist bei der heutigen Fülle an verfügbaren Informationen die individuelle Vorauswahl durch einen Algorithmus basierend auf dem jeweiligen Interesse durchaus hilfreich.
Wenn man sich aber umfassend informieren und orientieren möchte, ist die umfassende Suche auf unterschiedlichen Plattformen und Medien nach den verschiedenen Ansichten und Meinungen empfehlenswert. Schlussendlich haben viele Zeitungen ebenfalls eine politische Ausrichtung, mit der man entsprechend umgehen können muss.
Wirklich problematisch werden Filterblasen erst dann, wenn diese gezielt genutzt werden, um Menschen zu beeinflussen. Dies ist beispielsweise bei der Verbreitung von Fake News der Fall, wo jemand eine Falschinformation bewusst über die digitalen Kanäle verbreitet, um andere zu täuschen.
Da die heutige Verteilung von Informationen in den digitalen Medien meist fremdbestimmt und hochgradig automatisiert ist, gelingt dies in der Regel auch.
Ein Beispiel für eine solche, potenzielle Beeinflussung von Menschen zeigt die Arbeit der in Großbritannien ansässigen und auf Datenanalysen spezialisierten Firma „Cambrigde Analytica“ auf. Anfangs war die Firma überwiegend in den USA tätig, weil dort die Datenschutzbestimmungen weniger streng sind als in Europa.
Das Unternehmen sammelte und analysierte СКАЧАТЬ