Algorithmen übernehmen die Weltherrschaft!
Ah, der YouTube-Algorithmus sorgt dafür, dass ich weniger Klicks bekomme.
Der Facebook-Algorithmus radikalisiert Menschen?
Der Google-Algorithmus sortiert Fake News aus?
Wer oder was ist denn jetzt dieser Algorithmus, bei dem scheinbar jeder mit muss?
Erst einmal: Es gibt ja nicht DEN Algorithmus, sondern tausende von Algorithmen verwalten
die Daten verschiedenster Plattformen und entscheiden, was wir auf YouTube, Google, Facebook und
Co zu sehen bekommen und was nicht, welche Shoppingangebote uns vorgeschlagen werden
oder welche Nachrichten in unseren News erscheinen.
So soll die politische Meinung von Facebook-Nutzern in den USA bei den letzten Wahlen
stark beeinflusst worden sein, weil sie nur noch bestimmte Nachrichten zu sehen bekamen.
Es ist auch von Rassismus die Rede, weil manche Algorithmen
lieber weiße Babys zeigen als schwarze.
Zu Recht löst das eine Diskussion aus, wie damit umgegangen werden soll.
Manche wollen, dass die Algorithmen offen gelegt werden.
Manche wollen, dass sie sogar staatlich kontrolliert werden und andere wollen Bilder,
Bilder von Spiderman!
Was uns an dieser Diskussion stört: Die Problemlösung ist nicht so simpel, wie oft getan wird.
Diese Algorithmen sind hochkomplexe technische Vorgänge, so dass man eigentlich nicht mehr
von Algorithmen reden kann, sondern von künstlicher Intelligenz.
Also Software, die sich selbstständig weiterbildet.
Ja, fein, mein Kleiner, saug alles auf!
Alle glauben immer, Google hätte 'nen Knopf, den sie drücken und auf ein...
und auf einmal werden mehr weiße Babys angezeigt als schwarze.
Wow!
Ich glaube, es werden nie wieder schwarze Babys angezeigt.
Aber das Ganze funktioniert eher wie ein T-800, der mit unberechenbaren und immer neuen Methoden
dafür sorgt, dass du so viele Katzenvideos wie möglich schauen wirst
und er findet selbst heraus, wie er dich dazu bekommt.
[Geräusche: Maschinen und Spannungsaufbau]
Eine KI nutzt natürlich Algorithmen, aber das ganze System, das unsere News-Feeds sortiert,
ist weit, weit, weit, weit, weit, weit...
komplexer als die meisten denken mögen.
Google hat – mehr als alle anderen Tech-Giganten, für Milliarden von Geld andere Firmen aufgekauft,
die sich auf KI spezialisiert haben, nur für ihre Datenbanken.
Aber wie funktioniert eigentlich so eine KI?
Es gibt ein gutes Beispiel von Googles KI-Firma Deep Mind, anhand von Beinen.
Die KI kriegt eine Simulation. In dieser werden physikalische Gesetze simuliert, dort hat
die KI Sensoren, um die Umgebung zu erfassen, Beine, die sie bewegen kann und ein Ziel:
Von A nach B zu kommen.
Das war´s!
Die KI hat keine Ahnung, wie Laufen geht.
(Steve: Hahaha!)
Sie weiß nicht mal, dass so etwas wie Laufen existiert.
Also, was macht sie?
Ausprobieren!
Sie bewegt die Beine einfach nach zufälligen Mustern und guckt dann, ob es geholfen hat,
um weiter in Richtung B zu kommen.
Muster, die funktioniert haben, werden gespeichert
und wieder ausprobiert mit neuen zufälligen Abweichungen.
Immer wieder.
Trial and Error.
Genauso lernen wir Menschen. Als Baby muss das Gehirn
auch erstmal Arme und Beine im Gehirn sortieren:
Oh, so bewege ich meinen Arm!
Oh, so bewege ich mein Bein!
Und so sorg ich dafür, dass die Mädels auf dem Dance Floor ohnmächtig werden!
(Steve: Mir ist auch ganz schwummrig, dabei bin ich gar kein Mädchen!)
Aber die KI hat nicht so viel Zeit, die Akatsuki sind auf dem Weg, um sie zu holen:
Also sollte sie das Rennen lieber schnell lernen!
Also was macht sie?
KAGE BUNSHIN NO JUTSU!
Es ist tatsächlich das gleiche Prinzip wie in Naruto.
Naruto benutzt Schatten-Doppelgänger,
also quasi Klone von sich selbst, die sammeln alle unabhängig Erfahrung und am Ende wird
dieses Wissen in Naruto gebündelt.
Genauso lässt eine KI eine Simulation mehrfach gleichzeitig ablaufen. Je nach Rechenleistung,
kann sie sie das 100.000 mal gleichzeitig machen, und damit natürlich
100.000 mal schneller lernen als ein Mensch.
Außer er heißt Naruto und ist ein Ninja.
Und am Ende hat sich die KI das beigebracht: Und das ist schon Wahnsinn, aber auch gruselig,
weil es die ganzen Terminatoren Filme gar nicht mehr so unrealistisch macht.
Aber was hat das jetzt mit YouTube, Facebook-Feeds und Co zu tun?
Bei YouTube z.B. wird eine ähnliche KI benutzt, nur die bringt sich nicht selber das Laufen bei,
sondern wie sie am besten Katzenvideos vorschlagen kann!
Das Ziel der KI ist es, die Watchtime auf der Plattform zu erhöhen.
Und das funktioniert nach dem gleichen Prinzip wie beim Laufen: Trial and Error.
Die KI versucht herauszufinden, welche Videos sie vorschlagen muss, damit der Nutzer denkt:
“OH JUNGE, KATJA KRASIVICE MASTURBIERT IN DER BADEWANNE, DAS MUSS ICH MIR UNBEDINGT
NOCH ANSCHAUEN, BEVOR ICH INS BETT GEHE UND MICH IN DEN SCHLAF WEINE!
HAHAHAHAHA!”
Und die KI verarbeitet dabei Daten von Millionen von Nutzern innerhalb von Sekunden und das
ja nicht nur von einer Plattform.
YouTube gehört zu Google und bekommt so auch Daten von z.B.
Google Maps. Facebook bekommt auch Daten von WhatsApp und so weiter.
Und so findet die KI vielleicht Zusammenhänge, auf die man sonst niemals kommen würde.
Zum Beispiel 9-Jährige, die sonntagmorgens in 'ne Bar gehen,
neigen mittwochabends dazu, sich 'nen PewDiePie-Marathon reinzuziehen.
Problematisch wird es in sensiblen Bereichen.
Bei YouTube Kids wurden den Kindern merkwürdige, computergenerierte Videos mit fragwürdigem
Inhalt vorgeschlagen, weil irgendwelche kranken Idioten YouTubes Algorithmus ausgetrickst
haben, um irgendwelches krankes Zeug da rein zu laden, weil... mehr Geld.
Oder der Klassiker:
"Oh, du magst also Artikel über Ausländerkriminalität in Deutschland, hier: Noch mehr Straftaten!"
Klar, dass so dein Bild von der Welt beeinflusst wird und auch deine politische Meinung:
Denn die KI kann dafür sorgen, dass du in einer Informationsblase lebst, in der sie dir nur
das zeigt, wovon sie “denkt”, dass es dich interessiert.
Das ist immer noch einer der Hauptkritikpunkte.
Am Ende wollen die Firmen mit ihren Usern nur Geld verdienen.
Das wird natürlich von Leuten ausgenutzt, mit „Fake News“.
Gerade in der aktuellen Politik ist es beliebt, Feindbilder zu schaffen. Hass und Angst sind
dabei immer noch bewährte Mittel.
Und so hat Facebook, ohne es zu wollen, Extremisten unter die Arme gegriffen.
Aber wie geht man jetzt damit um?
Es gibt den Vorschlag, die Algorithmen offen zu legen.
Das macht aber aus unserer Sicht so gar keinen Sinn.
Wenn du den kompetentesten Mitarbeiter bei Googles “Deep Mind” fragen würdest:
WAS HAT DIE KI GERADE GELERNT?
würde man nicht mehr erfahren als
”MMMHMHMHMHMHMHMHMHMHMHMHMHMHMH,
keine Ahnung!"
Du kannst erklären, wie sie lernt, du kannst ihr Ziel erklären, aber du kannst nie Wissen,
was genau in ihrem “Kopf” vorgeht.
Genauso wie beim Menschen.
Aber wenn du alles offen legst, wird es nur noch leichter, solche Algorithmen zu missbrauchen.
Das ist zumindest das Argument von Google.
Links- und Rechtsradikale könnten das ausnutzen.
Und natürlich hat Google kein Interesse daran, Geschäftsgeheimnisse offen zu legen,
die eine Menge Geld wert sind.
Das ist die eine Seite.
Andererseits haben die Firmen dadurch eine große Macht.
POWER!
Öffentlich wollen sie ja politisch neutral bleiben und nicht Extremistengruppen bei der
Radikalisierung helfen.
Doch was, wenn sie die geheimen KI doch dazu benutzen wollen,
Politik und Gesellschaft zu beeinflussen?
Verständlich, dass die Politik darüber redet, wie sie damit umgehen soll.
Aber wie kann man sowas kontrollieren?
Vor ein paar Monaten hatte die Bundesregierung eine neue Kommission einberufen,
die das Thema Datenethik behandeln soll.
Viel ist da noch nicht rausgekommen.
Aber es gibt schon ein paar Vorschläge von Anderen,
wie man Algorithmen und KIs kontrollieren könnte.
Die Politikwissenschaftlerin Julia Krüger sagt zum Beispiel, dass die Konzerne sich
„halböffentlich“ in die Karten gucken lassen müssen.
Vertreter der Zivilgesellschaft und Vertreter der Konzerne könnten sich gemeinsam treffen
und die Ziele, die durch Algorithmen erreicht werden sollen, gemeinsam diskutieren und festlegen:
Soll der Facebook-Algorithmus gegen Filterblasen vorgehen?
Soll YouTube weniger auf Watchtime aus sein?
Soll Amazon nach einem Kauf ganz „gegenteilige“, also „ganz andere“ Produkte vorschlagen?
Solche Vorgaben könnten Vertreter der Zivilgesellschaft den Konzernen machen, sagt Frau Krüger.
Aber so funktioniert das nicht, sag ich.
Das ist ein bisschen so, als würdest du 'nem Bäcker sagen: Back mehr Brötchen,
weil die Politik will, dass die Menschen mehr Brötchen essen.
Aber wie realistisch ist es, dass die Konzerne da mitmachen?
Kontrolle ist eine Sache, aber Ziele vorschreiben ist 'ne andere Sache.
Denn wie Onkel Ben schon sagte:
Mit vielen Followern kommt große Verantwortung
UND NE MENGE GELD, BRO!
Und am Ende muss man auch sagen: Der Algorithmus ist nicht immer alleine schuld.
Es ist auch teils die Verantwortung der User.
Sie haben am Ende ja schon Einfluss darauf,
was sie sehen oder nicht sehen.
Und wenn ein User nur bestimmte Nachrichten sehen will,
kann eine bessere KI ihn nicht daran hindern.
Und dass Google eher weiße Babys zeigt als schwarze, liegt daran, dass sie gelernt hat:
Weiße Babys in Stockbildern verkaufen sich besser.
Aber ist jetzt eine KI rassistisch?
Oder hat eine KI einfach nur gelernt, dass Menschen rassistisch sind?
Und Menschen sind rassistisch.
Steve: Das wissen wir alle.
Also ich nicht.
Aber du!
Es ist nur eine Maschine und eine Maschine hat keine Ethik.
Auch wenn sie offensichtlich nötig wäre.
Also muss man am Ende vielleicht versuchen, den Maschinen Ethik beizubringen.
Und ob das funktioniert?
Was meint ihr?
Schreibt eure Meinung in die Kommentare!
Und wenn ihr mal mit 'ner KI rumspielen wollt: Unten findet ihr einen Link zu dem Evolutionssimulator.
Damit könnt ihr eine Kreatur schaffen, dem Beine und Muskeln geben und dann versucht
die zu laufen und das ist ganz witzig.
Da seht ihr, wie das so funktioniert!
Was auch witzig ist, ist NETZNEUTRALITÄT, dazu findet ihr ein Video hier, wo wir über
NETZNEUTRALITÄT reden und Overhead-Projektoren.
Steve: Yeay!