×

Używamy ciasteczek, aby ulepszyć LingQ. Odwiedzając stronę wyrażasz zgodę na nasze polityka Cookie.

image

Youtube-Lektionen - April 2020, Algorithmen übernehmen die Weltherrschaft!

Algorithmen übernehmen die Weltherrschaft!

Ah, der YouTube-Algorithmus sorgt dafür, dass ich weniger Klicks bekomme.

Der Facebook-Algorithmus radikalisiert Menschen?

Der Google-Algorithmus sortiert Fake News aus?

Wer oder was ist denn jetzt dieser Algorithmus, bei dem scheinbar jeder mit muss?

Erst einmal: Es gibt ja nicht DEN Algorithmus, sondern tausende von Algorithmen verwalten

die Daten verschiedenster Plattformen und entscheiden, was wir auf YouTube, Google, Facebook und

Co zu sehen bekommen und was nicht, welche Shoppingangebote uns vorgeschlagen werden

oder welche Nachrichten in unseren News erscheinen.

So soll die politische Meinung von Facebook-Nutzern in den USA bei den letzten Wahlen

stark beeinflusst worden sein, weil sie nur noch bestimmte Nachrichten zu sehen bekamen.

Es ist auch von Rassismus die Rede, weil manche Algorithmen

lieber weiße Babys zeigen als schwarze.

Zu Recht löst das eine Diskussion aus, wie damit umgegangen werden soll.

Manche wollen, dass die Algorithmen offen gelegt werden.

Manche wollen, dass sie sogar staatlich kontrolliert werden und andere wollen Bilder,

Bilder von Spiderman!

Was uns an dieser Diskussion stört: Die Problemlösung ist nicht so simpel, wie oft getan wird.

Diese Algorithmen sind hochkomplexe technische Vorgänge, so dass man eigentlich nicht mehr

von Algorithmen reden kann, sondern von künstlicher Intelligenz.

Also Software, die sich selbstständig weiterbildet.

Ja, fein, mein Kleiner, saug alles auf!

Alle glauben immer, Google hätte 'nen Knopf, den sie drücken und auf ein...

und auf einmal werden mehr weiße Babys angezeigt als schwarze.

Wow!

Ich glaube, es werden nie wieder schwarze Babys angezeigt.

Aber das Ganze funktioniert eher wie ein T-800, der mit unberechenbaren und immer neuen Methoden

dafür sorgt, dass du so viele Katzenvideos wie möglich schauen wirst

und er findet selbst heraus, wie er dich dazu bekommt.

[Geräusche: Maschinen und Spannungsaufbau]

Eine KI nutzt natürlich Algorithmen, aber das ganze System, das unsere News-Feeds sortiert,

ist weit, weit, weit, weit, weit, weit...

komplexer als die meisten denken mögen.

Google hat – mehr als alle anderen Tech-Giganten, für Milliarden von Geld andere Firmen aufgekauft,

die sich auf KI spezialisiert haben, nur für ihre Datenbanken.

Aber wie funktioniert eigentlich so eine KI?

Es gibt ein gutes Beispiel von Googles KI-Firma Deep Mind, anhand von Beinen.

Die KI kriegt eine Simulation. In dieser werden physikalische Gesetze simuliert, dort hat

die KI Sensoren, um die Umgebung zu erfassen, Beine, die sie bewegen kann und ein Ziel:

Von A nach B zu kommen.

Das war´s!

Die KI hat keine Ahnung, wie Laufen geht.

(Steve: Hahaha!)

Sie weiß nicht mal, dass so etwas wie Laufen existiert.

Also, was macht sie?

Ausprobieren!

Sie bewegt die Beine einfach nach zufälligen Mustern und guckt dann, ob es geholfen hat,

um weiter in Richtung B zu kommen.

Muster, die funktioniert haben, werden gespeichert

und wieder ausprobiert mit neuen zufälligen Abweichungen.

Immer wieder.

Trial and Error.

Genauso lernen wir Menschen. Als Baby muss das Gehirn

auch erstmal Arme und Beine im Gehirn sortieren:

Oh, so bewege ich meinen Arm!

Oh, so bewege ich mein Bein!

Und so sorg ich dafür, dass die Mädels auf dem Dance Floor ohnmächtig werden!

(Steve: Mir ist auch ganz schwummrig, dabei bin ich gar kein Mädchen!)

Aber die KI hat nicht so viel Zeit, die Akatsuki sind auf dem Weg, um sie zu holen:

Also sollte sie das Rennen lieber schnell lernen!

Also was macht sie?

KAGE BUNSHIN NO JUTSU!

Es ist tatsächlich das gleiche Prinzip wie in Naruto.

Naruto benutzt Schatten-Doppelgänger,

also quasi Klone von sich selbst, die sammeln alle unabhängig Erfahrung und am Ende wird

dieses Wissen in Naruto gebündelt.

Genauso lässt eine KI eine Simulation mehrfach gleichzeitig ablaufen. Je nach Rechenleistung,

kann sie sie das 100.000 mal gleichzeitig machen, und damit natürlich

100.000 mal schneller lernen als ein Mensch.

Außer er heißt Naruto und ist ein Ninja.

Und am Ende hat sich die KI das beigebracht: Und das ist schon Wahnsinn, aber auch gruselig,

weil es die ganzen Terminatoren Filme gar nicht mehr so unrealistisch macht.

Aber was hat das jetzt mit YouTube, Facebook-Feeds und Co zu tun?

Bei YouTube z.B. wird eine ähnliche KI benutzt, nur die bringt sich nicht selber das Laufen bei,

sondern wie sie am besten Katzenvideos vorschlagen kann!

Das Ziel der KI ist es, die Watchtime auf der Plattform zu erhöhen.

Und das funktioniert nach dem gleichen Prinzip wie beim Laufen: Trial and Error.

Die KI versucht herauszufinden, welche Videos sie vorschlagen muss, damit der Nutzer denkt:

“OH JUNGE, KATJA KRASIVICE MASTURBIERT IN DER BADEWANNE, DAS MUSS ICH MIR UNBEDINGT

NOCH ANSCHAUEN, BEVOR ICH INS BETT GEHE UND MICH IN DEN SCHLAF WEINE!

HAHAHAHAHA!”

Und die KI verarbeitet dabei Daten von Millionen von Nutzern innerhalb von Sekunden und das

ja nicht nur von einer Plattform.

YouTube gehört zu Google und bekommt so auch Daten von z.B.

Google Maps. Facebook bekommt auch Daten von WhatsApp und so weiter.

Und so findet die KI vielleicht Zusammenhänge, auf die man sonst niemals kommen würde.

Zum Beispiel 9-Jährige, die sonntagmorgens in 'ne Bar gehen,

neigen mittwochabends dazu, sich 'nen PewDiePie-Marathon reinzuziehen.

Problematisch wird es in sensiblen Bereichen.

Bei YouTube Kids wurden den Kindern merkwürdige, computergenerierte Videos mit fragwürdigem

Inhalt vorgeschlagen, weil irgendwelche kranken Idioten YouTubes Algorithmus ausgetrickst

haben, um irgendwelches krankes Zeug da rein zu laden, weil... mehr Geld.

Oder der Klassiker:

"Oh, du magst also Artikel über Ausländerkriminalität in Deutschland, hier: Noch mehr Straftaten!"

Klar, dass so dein Bild von der Welt beeinflusst wird und auch deine politische Meinung:

Denn die KI kann dafür sorgen, dass du in einer Informationsblase lebst, in der sie dir nur

das zeigt, wovon sie “denkt”, dass es dich interessiert.

Das ist immer noch einer der Hauptkritikpunkte.

Am Ende wollen die Firmen mit ihren Usern nur Geld verdienen.

Das wird natürlich von Leuten ausgenutzt, mit „Fake News“.

Gerade in der aktuellen Politik ist es beliebt, Feindbilder zu schaffen. Hass und Angst sind

dabei immer noch bewährte Mittel.

Und so hat Facebook, ohne es zu wollen, Extremisten unter die Arme gegriffen.

Aber wie geht man jetzt damit um?

Es gibt den Vorschlag, die Algorithmen offen zu legen.

Das macht aber aus unserer Sicht so gar keinen Sinn.

Wenn du den kompetentesten Mitarbeiter bei Googles “Deep Mind” fragen würdest:

WAS HAT DIE KI GERADE GELERNT?

würde man nicht mehr erfahren als

”MMMHMHMHMHMHMHMHMHMHMHMHMHMHMH,

keine Ahnung!"

Du kannst erklären, wie sie lernt, du kannst ihr Ziel erklären, aber du kannst nie Wissen,

was genau in ihrem “Kopf” vorgeht.

Genauso wie beim Menschen.

Aber wenn du alles offen legst, wird es nur noch leichter, solche Algorithmen zu missbrauchen.

Das ist zumindest das Argument von Google.

Links- und Rechtsradikale könnten das ausnutzen.

Und natürlich hat Google kein Interesse daran, Geschäftsgeheimnisse offen zu legen,

die eine Menge Geld wert sind.

Das ist die eine Seite.

Andererseits haben die Firmen dadurch eine große Macht.

POWER!

Öffentlich wollen sie ja politisch neutral bleiben und nicht Extremistengruppen bei der

Radikalisierung helfen.

Doch was, wenn sie die geheimen KI doch dazu benutzen wollen,

Politik und Gesellschaft zu beeinflussen?

Verständlich, dass die Politik darüber redet, wie sie damit umgehen soll.

Aber wie kann man sowas kontrollieren?

Vor ein paar Monaten hatte die Bundesregierung eine neue Kommission einberufen,

die das Thema Datenethik behandeln soll.

Viel ist da noch nicht rausgekommen.

Aber es gibt schon ein paar Vorschläge von Anderen,

wie man Algorithmen und KIs kontrollieren könnte.

Die Politikwissenschaftlerin Julia Krüger sagt zum Beispiel, dass die Konzerne sich

„halböffentlich“ in die Karten gucken lassen müssen.

Vertreter der Zivilgesellschaft und Vertreter der Konzerne könnten sich gemeinsam treffen

und die Ziele, die durch Algorithmen erreicht werden sollen, gemeinsam diskutieren und festlegen:

Soll der Facebook-Algorithmus gegen Filterblasen vorgehen?

Soll YouTube weniger auf Watchtime aus sein?

Soll Amazon nach einem Kauf ganz „gegenteilige“, also „ganz andere“ Produkte vorschlagen?

Solche Vorgaben könnten Vertreter der Zivilgesellschaft den Konzernen machen, sagt Frau Krüger.

Aber so funktioniert das nicht, sag ich.

Das ist ein bisschen so, als würdest du 'nem Bäcker sagen: Back mehr Brötchen,

weil die Politik will, dass die Menschen mehr Brötchen essen.

Aber wie realistisch ist es, dass die Konzerne da mitmachen?

Kontrolle ist eine Sache, aber Ziele vorschreiben ist 'ne andere Sache.

Denn wie Onkel Ben schon sagte:

Mit vielen Followern kommt große Verantwortung

UND NE MENGE GELD, BRO!

Und am Ende muss man auch sagen: Der Algorithmus ist nicht immer alleine schuld.

Es ist auch teils die Verantwortung der User.

Sie haben am Ende ja schon Einfluss darauf,

was sie sehen oder nicht sehen.

Und wenn ein User nur bestimmte Nachrichten sehen will,

kann eine bessere KI ihn nicht daran hindern.

Und dass Google eher weiße Babys zeigt als schwarze, liegt daran, dass sie gelernt hat:

Weiße Babys in Stockbildern verkaufen sich besser.

Aber ist jetzt eine KI rassistisch?

Oder hat eine KI einfach nur gelernt, dass Menschen rassistisch sind?

Und Menschen sind rassistisch.

Steve: Das wissen wir alle.

Also ich nicht.

Aber du!

Es ist nur eine Maschine und eine Maschine hat keine Ethik.

Auch wenn sie offensichtlich nötig wäre.

Also muss man am Ende vielleicht versuchen, den Maschinen Ethik beizubringen.

Und ob das funktioniert?

Was meint ihr?

Schreibt eure Meinung in die Kommentare!

Und wenn ihr mal mit 'ner KI rumspielen wollt: Unten findet ihr einen Link zu dem Evolutionssimulator.

Damit könnt ihr eine Kreatur schaffen, dem Beine und Muskeln geben und dann versucht

die zu laufen und das ist ganz witzig.

Da seht ihr, wie das so funktioniert!

Was auch witzig ist, ist NETZNEUTRALITÄT, dazu findet ihr ein Video hier, wo wir über

NETZNEUTRALITÄT reden und Overhead-Projektoren.

Steve: Yeay!

Learn languages from TV shows, movies, news, articles and more! Try LingQ for FREE

Algorithmen übernehmen die Weltherrschaft! Os algoritmos estão a dominar o mundo!

Ah, der YouTube-Algorithmus sorgt dafür, dass ich weniger Klicks bekomme. Ah, the YouTube algorithm ensures that I get fewer clicks. Ah, o algoritmo do YouTube garante que recebo menos cliques.

Der Facebook-Algorithmus radikalisiert Menschen? The Facebook algorithm radicalizes people? O algoritmo do Facebook radicaliza as pessoas?

Der Google-Algorithmus sortiert Fake News aus? O algoritmo do Google classifica notícias falsas?

Wer oder was ist denn jetzt dieser Algorithmus, bei dem scheinbar jeder mit muss? Who or what is this algorithm that everyone seems to have to take part in? Quem ou o que é esse algoritmo agora que todo mundo parece ter que participar?

Erst einmal: Es gibt ja nicht DEN Algorithmus, sondern tausende von Algorithmen verwalten First of all: There is not THE algorithm, but thousands of algorithms to manage Primeiro de tudo: não existe o algoritmo, mas milhares de algoritmos para gerenciar

die Daten verschiedenster Plattformen und entscheiden, was wir auf YouTube, Google, Facebook und the data of different platforms and decide what we do on YouTube, Google, Facebook and

Co zu sehen bekommen und was nicht, welche Shoppingangebote uns vorgeschlagen werden Co get to see and what not, which shopping offers are proposed to us Co ver e quais não, quais ofertas de compras são propostas para nós

oder welche Nachrichten in unseren News erscheinen. or which messages appear in our news. ou quais mensagens aparecem em nossas notícias.

So soll die politische Meinung von Facebook-Nutzern in den USA bei den letzten Wahlen This is the political opinion of Facebook users in the United States in the last election Esta é a opinião política dos usuários do Facebook nos Estados Unidos nas últimas eleições

stark beeinflusst worden sein, weil sie nur noch bestimmte Nachrichten zu sehen bekamen. been heavily influenced because they only saw certain messages. foram fortemente influenciados porque só viram certas mensagens.

Es ist auch von Rassismus die Rede, weil manche Algorithmen There is also talk of racism because of some algorithms Fala-se também de racismo por causa de alguns algoritmos

lieber weiße Babys zeigen als schwarze. prefer to show white babies than black ones. prefira mostrar bebês brancos do que pretos.

Zu Recht löst das eine Diskussion aus, wie damit umgegangen werden soll. This rightly triggers a discussion on how to deal with it. Isso justamente desencadeia uma discussão sobre como lidar com isso.

Manche wollen, dass die Algorithmen offen gelegt werden. Some want the algorithms to be exposed. Alguns querem que os algoritmos sejam expostos.

Manche wollen, dass sie sogar staatlich kontrolliert werden und andere wollen Bilder, Some want them to even be controlled by the state and others want pictures,

Bilder von Spiderman! Pictures of Spiderman!

Was uns an dieser Diskussion stört: Die Problemlösung ist nicht so simpel, wie oft getan wird. What bothers us about this discussion: problem solving is not as simple as it is often done. O que nos incomoda nessa discussão: a solução de problemas não é tão simples como costuma ser feito.

Diese Algorithmen sind hochkomplexe technische Vorgänge, so dass man eigentlich nicht mehr These algorithms are highly complex technical processes, so you can actually no longer Esses algoritmos são processos técnicos altamente complexos, portanto você não pode mais

von Algorithmen reden kann, sondern von künstlicher Intelligenz. can speak of algorithms, but of artificial intelligence. pode falar de algoritmos, mas de inteligência artificial.

Also Software, die sich selbstständig weiterbildet. In other words, software that continues to develop itself. Em outras palavras, software que se desenvolve de forma independente.

Ja, fein, mein Kleiner, saug alles auf! Yes, fine, little one, soak up everything! Sim, tudo bem, pequenina, absorva tudo!

Alle glauben immer, Google hätte 'nen Knopf, den sie drücken und auf ein... Everyone always thinks Google has a button to push and click on a ...

und auf einmal werden mehr weiße Babys angezeigt als schwarze. and suddenly more white babies are shown than black ones.

Wow!

Ich glaube, es werden nie wieder schwarze Babys angezeigt. I don't think black babies will ever appear again. Não acho que bebês negros voltem a aparecer.

Aber das Ganze funktioniert eher wie ein T-800, der mit unberechenbaren und immer neuen Methoden But the whole thing works more like a T-800, with unpredictable and ever new methods

dafür sorgt, dass du so viele Katzenvideos wie möglich schauen wirst ensures that you will watch as many cat videos as possible

und er findet selbst heraus, wie er dich dazu bekommt. and he will find out for himself how he can get you to it.

[Geräusche: Maschinen und Spannungsaufbau] [Noises: machines and voltage build-up]

Eine KI nutzt natürlich Algorithmen, aber das ganze System, das unsere News-Feeds sortiert, An AI uses algorithms, of course, but the whole system that sorts our news feeds

ist weit, weit, weit, weit, weit, weit... is far, far, far, far, far, far ...

komplexer als die meisten denken mögen. more complex than most may think.

Google hat – mehr als alle anderen Tech-Giganten, für Milliarden von Geld andere Firmen aufgekauft, Google - more than any other tech giant - bought other companies for billions of dollars,

die sich auf KI spezialisiert haben, nur für ihre Datenbanken. who specialize in AI only for their databases.

Aber wie funktioniert eigentlich so eine KI? But how does such an AI actually work?

Es gibt ein gutes Beispiel von Googles KI-Firma Deep Mind, anhand von Beinen. There is a good example from Google's AI company Deep Mind, using legs.

Die KI kriegt eine Simulation. In dieser werden physikalische Gesetze simuliert, dort hat The AI gets a simulation. In this physical laws are simulated, there has

die KI Sensoren, um die Umgebung zu erfassen, Beine, die sie bewegen kann und ein Ziel: the AI sensors to detect the surroundings, legs that can move them and a goal:

Von A nach B zu kommen. To get from A to B.

Das war´s! That’s it!

Die KI hat keine Ahnung, wie Laufen geht. The AI has no idea how to run.

(Steve: Hahaha!) (Steve: Hahaha!)

Sie weiß nicht mal, dass so etwas wie Laufen existiert. She doesn't even know there is something like running.

Also, was macht sie? So what is she doing?

Ausprobieren! Try out!

Sie bewegt die Beine einfach nach zufälligen Mustern und guckt dann, ob es geholfen hat, She just moves the legs in random patterns and then looks to see if it helped

um weiter in Richtung B zu kommen. to continue towards B

Muster, die funktioniert haben, werden gespeichert Patterns that have worked are saved

und wieder ausprobiert mit neuen zufälligen Abweichungen. and tried again with new random deviations.

Immer wieder. Again and again.

Trial and Error. Trial and error.

Genauso lernen wir Menschen. Als Baby muss das Gehirn That's how we learn people. As a baby, the brain needs

auch erstmal Arme und Beine im Gehirn sortieren: sort arms and legs in the brain:

Oh, so bewege ich meinen Arm! Oh, that's how I move my arm!

Oh, so bewege ich mein Bein! Oh, that's how I move my leg!

Und so sorg ich dafür, dass die Mädels auf dem Dance Floor ohnmächtig werden! And so I make sure that the girls pass out on the dance floor!

(Steve: Mir ist auch ganz schwummrig, dabei bin ich gar kein Mädchen!)

Aber die KI hat nicht so viel Zeit, die Akatsuki sind auf dem Weg, um sie zu holen:

Also sollte sie das Rennen lieber schnell lernen!

Also was macht sie?

KAGE BUNSHIN NO JUTSU!

Es ist tatsächlich das gleiche Prinzip wie in Naruto.

Naruto benutzt Schatten-Doppelgänger,

also quasi Klone von sich selbst, die sammeln alle unabhängig Erfahrung und am Ende wird

dieses Wissen in Naruto gebündelt.

Genauso lässt eine KI eine Simulation mehrfach gleichzeitig ablaufen. Je nach Rechenleistung,

kann sie sie das 100.000 mal gleichzeitig machen, und damit natürlich

100.000 mal schneller lernen als ein Mensch.

Außer er heißt Naruto und ist ein Ninja.

Und am Ende hat sich die KI das beigebracht: Und das ist schon Wahnsinn, aber auch gruselig,

weil es die ganzen Terminatoren Filme gar nicht mehr so unrealistisch macht.

Aber was hat das jetzt mit YouTube, Facebook-Feeds und Co zu tun?

Bei YouTube z.B. wird eine ähnliche KI benutzt, nur die bringt sich nicht selber das Laufen bei,

sondern wie sie am besten Katzenvideos vorschlagen kann!

Das Ziel der KI ist es, die Watchtime auf der Plattform zu erhöhen.

Und das funktioniert nach dem gleichen Prinzip wie beim Laufen: Trial and Error.

Die KI versucht herauszufinden, welche Videos sie vorschlagen muss, damit der Nutzer denkt:

“OH JUNGE, KATJA KRASIVICE MASTURBIERT IN DER BADEWANNE, DAS MUSS ICH MIR UNBEDINGT

NOCH ANSCHAUEN, BEVOR ICH INS BETT GEHE UND MICH IN DEN SCHLAF WEINE!

HAHAHAHAHA!”

Und die KI verarbeitet dabei Daten von Millionen von Nutzern innerhalb von Sekunden und das

ja nicht nur von einer Plattform.

YouTube gehört zu Google und bekommt so auch Daten von z.B.

Google Maps. Facebook bekommt auch Daten von WhatsApp und so weiter.

Und so findet die KI vielleicht Zusammenhänge, auf die man sonst niemals kommen würde.

Zum Beispiel 9-Jährige, die sonntagmorgens in 'ne Bar gehen,

neigen mittwochabends dazu, sich 'nen PewDiePie-Marathon reinzuziehen.

Problematisch wird es in sensiblen Bereichen.

Bei YouTube Kids wurden den Kindern merkwürdige, computergenerierte Videos mit fragwürdigem

Inhalt vorgeschlagen, weil irgendwelche kranken Idioten YouTubes Algorithmus ausgetrickst

haben, um irgendwelches krankes Zeug da rein zu laden, weil... mehr Geld.

Oder der Klassiker:

"Oh, du magst also Artikel über Ausländerkriminalität in Deutschland, hier: Noch mehr Straftaten!"

Klar, dass so dein Bild von der Welt beeinflusst wird und auch deine politische Meinung:

Denn die KI kann dafür sorgen, dass du in einer Informationsblase lebst, in der sie dir nur

das zeigt, wovon sie “denkt”, dass es dich interessiert.

Das ist immer noch einer der Hauptkritikpunkte.

Am Ende wollen die Firmen mit ihren Usern nur Geld verdienen.

Das wird natürlich von Leuten ausgenutzt, mit „Fake News“.

Gerade in der aktuellen Politik ist es beliebt, Feindbilder zu schaffen. Hass und Angst sind

dabei immer noch bewährte Mittel.

Und so hat Facebook, ohne es zu wollen, Extremisten unter die Arme gegriffen.

Aber wie geht man jetzt damit um?

Es gibt den Vorschlag, die Algorithmen offen zu legen.

Das macht aber aus unserer Sicht so gar keinen Sinn.

Wenn du den kompetentesten Mitarbeiter bei Googles “Deep Mind” fragen würdest:

WAS HAT DIE KI GERADE GELERNT?

würde man nicht mehr erfahren als

”MMMHMHMHMHMHMHMHMHMHMHMHMHMHMH,

keine Ahnung!"

Du kannst erklären, wie sie lernt, du kannst ihr Ziel erklären, aber du kannst nie Wissen,

was genau in ihrem “Kopf” vorgeht.

Genauso wie beim Menschen.

Aber wenn du alles offen legst, wird es nur noch leichter, solche Algorithmen zu missbrauchen.

Das ist zumindest das Argument von Google.

Links- und Rechtsradikale könnten das ausnutzen.

Und natürlich hat Google kein Interesse daran, Geschäftsgeheimnisse offen zu legen,

die eine Menge Geld wert sind.

Das ist die eine Seite.

Andererseits haben die Firmen dadurch eine große Macht.

POWER!

Öffentlich wollen sie ja politisch neutral bleiben und nicht Extremistengruppen bei der

Radikalisierung helfen.

Doch was, wenn sie die geheimen KI doch dazu benutzen wollen,

Politik und Gesellschaft zu beeinflussen?

Verständlich, dass die Politik darüber redet, wie sie damit umgehen soll.

Aber wie kann man sowas kontrollieren?

Vor ein paar Monaten hatte die Bundesregierung eine neue Kommission einberufen,

die das Thema Datenethik behandeln soll.

Viel ist da noch nicht rausgekommen.

Aber es gibt schon ein paar Vorschläge von Anderen,

wie man Algorithmen und KIs kontrollieren könnte.

Die Politikwissenschaftlerin Julia Krüger sagt zum Beispiel, dass die Konzerne sich

„halböffentlich“ in die Karten gucken lassen müssen.

Vertreter der Zivilgesellschaft und Vertreter der Konzerne könnten sich gemeinsam treffen

und die Ziele, die durch Algorithmen erreicht werden sollen, gemeinsam diskutieren und festlegen:

Soll der Facebook-Algorithmus gegen Filterblasen vorgehen?

Soll YouTube weniger auf Watchtime aus sein?

Soll Amazon nach einem Kauf ganz „gegenteilige“, also „ganz andere“ Produkte vorschlagen?

Solche Vorgaben könnten Vertreter der Zivilgesellschaft den Konzernen machen, sagt Frau Krüger.

Aber so funktioniert das nicht, sag ich.

Das ist ein bisschen so, als würdest du 'nem Bäcker sagen: Back mehr Brötchen,

weil die Politik will, dass die Menschen mehr Brötchen essen.

Aber wie realistisch ist es, dass die Konzerne da mitmachen?

Kontrolle ist eine Sache, aber Ziele vorschreiben ist 'ne andere Sache.

Denn wie Onkel Ben schon sagte:

Mit vielen Followern kommt große Verantwortung

UND NE MENGE GELD, BRO!

Und am Ende muss man auch sagen: Der Algorithmus ist nicht immer alleine schuld.

Es ist auch teils die Verantwortung der User.

Sie haben am Ende ja schon Einfluss darauf,

was sie sehen oder nicht sehen.

Und wenn ein User nur bestimmte Nachrichten sehen will,

kann eine bessere KI ihn nicht daran hindern.

Und dass Google eher weiße Babys zeigt als schwarze, liegt daran, dass sie gelernt hat:

Weiße Babys in Stockbildern verkaufen sich besser.

Aber ist jetzt eine KI rassistisch?

Oder hat eine KI einfach nur gelernt, dass Menschen rassistisch sind?

Und Menschen sind rassistisch.

Steve: Das wissen wir alle.

Also ich nicht.

Aber du!

Es ist nur eine Maschine und eine Maschine hat keine Ethik.

Auch wenn sie offensichtlich nötig wäre.

Also muss man am Ende vielleicht versuchen, den Maschinen Ethik beizubringen.

Und ob das funktioniert?

Was meint ihr?

Schreibt eure Meinung in die Kommentare!

Und wenn ihr mal mit 'ner KI rumspielen wollt: Unten findet ihr einen Link zu dem Evolutionssimulator.

Damit könnt ihr eine Kreatur schaffen, dem Beine und Muskeln geben und dann versucht

die zu laufen und das ist ganz witzig.

Da seht ihr, wie das so funktioniert!

Was auch witzig ist, ist NETZNEUTRALITÄT, dazu findet ihr ein Video hier, wo wir über

NETZNEUTRALITÄT reden und Overhead-Projektoren.

Steve: Yeay!