Künstliche Intelligenz und Roboter | Die Zukunft oder unser Untergang?
Dass Künstliche Intelligenz und Roboter unsere Arbeitswelt auf den Kopf stellen werden, ist
heute schon ziemlich gut absehbar und deshalb beschäftigen wir uns in dieser Folge
SOundSO gesehen genau damit.
Wir fragen uns aber auch, ob KIs und Roboter vielleicht irgendwann die Weltherrschaft an
sich reißen werden.
Robotik und Künstliche Intelligenz sind zwei Forschungsfelder, die sich rasant weiterentwickeln
und große Auswirkungen auf unseren Arbeitsmarkt haben könnten, denn ihre Entwicklungen stehen
in Konkurrenz zur menschlichen Arbeitskraft.
Die Roboter übernehmen körperliche Arbeit und KIs das Denken.
Über Automatisierung und ihre Folgen für den Arbeitsmarkt haben wir ja in der ersten
Folge schon gesprochen und die findet ihr wie alle anderen Folgen auch in der Infobox
verlinkt.
Heute wollen wir in Bezug auf Roboter und KIs noch ein bisschen ins Detail gehen.
Fangen wir mit Robotern an: Die eignen sich natürlich besonders gut für repetitive Aufgaben
oder solche, bei denen große Präzision oder große Stärke erforderlich ist.
Ein klassisches Beispiel ist Fließbandarbeit.
Viel schwieriger wird es, wenn Roboter Aufgaben übernehmen sollen, bei denen Spontanität
und Flexibilität gefragt sind.
Einen Bolzen in die immer gleiche Stelle in eine Karosserie zu schweißen, ist das eine,
eine Pipeline durch die eben nicht genormte Natur zu verlegen und zu schweißen schon
schwieriger.
Aber es gibt durchaus schon Roboter, die Arbeiten außerhalb der genormten Umgebung einer Fabrik
übernehmen können: Zum Beispiel SAM , das steht für Semi-Automated Mason, also
Halbautomatischer Maurer.
Der kann eine gerade Mauer bauen, indem er sich an einem Fixpunkt in der Umgebung kalibriert,
auch wenn der Untergrund, auf dem er sich bewegt, nicht 100 prozentig gerade ist.
Aber auch SAM kommt nicht aus, ohne dass Menschen um ihn herum arbeiten und wenn es ein bisschen
komplizierter wird als eine einfache gerade Mauer zu bauen, dann ist er auch überfordert.
Hier geht es also eher darum, Menschen bei ihren einfachen Arbeiten zu unterstützen.
Die Vorstellungen, welche Aufgaben Roboter in Zukunft übernehmen können, gehen aber über
einfache motorische Aufgaben hinaus.
Vor allem in der Verbindung zwischen Roboter und KI in Form von Androiden, also Robotern
die aussehen wie Menschen, sehen viele das Potenzial, menschliche Arbeitskräfte zu ersetzen.
Ich meine zum Beispiel Pflegeroboter.
Aber bei denen Stellen sich ja noch mal ganz andere Fragen, wie The Knight Returns kommentiert:
“[...] Welche Funktion soll KI (Künstliche Intelligenz ) in der Zukunft übernehmen ,sprich
nur Tätigkeiten die unseren Alltag erleichtern oder soll es auch als eine Art des Ersatzes
zwischenmenschlicher Beziehungen dienen. [...]”
Das ist nämlich die Frage: Kann ein Roboter mit künstlicher Intelligenz einen empathischen
Menschen ersetzen?
Unser Zuschauer Benjamin Seibel hat da so seine Zweifel:
“Ich hatte durch einen Versuch [...] mal mit einem hotelroboter „Kontakt“
Dort musste man auf englisch in ein Hotel einchecken und der Roboter hat die Arbeit,
die normalerweise die Rezeption übernimmt, übernommen.
In diesem Fall hat das Recht gut funktioniert (was mich echt überrascht hat).
Allerdings muss ich sagen dass einem da ein wenig die Menschlichkeit gefehlt hat.[...]”
Vielleicht ist das Ganze aber auch nur in Kombination gut.
Bleiben wir beim Beispiel Pflege.
Wenn zum Beispiel Pflegeroboter den Pflegekräften alle Arbeiten abnehmen würden, die nicht
direkt mit den Patienten zu tun haben, könnten die sich auf den zwischenmenschlichen Kontakt
konzentrieren.
Roboter sind ja irgendwie noch greifbar und etwas, womit sich viele Menschen noch anfreunden
können - Staubsaugerroboter haben ja zum Beispiel viele.
Künstliche Intelligenzen - da sind viele Menschen skeptischer.
Steinchen schreibt dazu zum Beispiel:
“Robotik finde ich sinnvoll, weil oft effizienter und Arbeiter entlastend.
KI sehe ich eher skeptisch.
[...] Ich möchte mich aber nicht damit anfreunden, dass Menschen mehr Entscheidungen als nötig
von der KI abgenommen werden.
Sonst halte ich die Gefahr für zu groß, dass sich eine KI verselbständigen kann und
nicht nachvollziehbare Entscheidungen mit nicht vorhersehbaren Auswirkungen trifft.
Im kleinen konnte man das ja zum Teil schon beim YouTube-Algorithmus beobachten, bei dem
scheinbar selbst YouTube nicht genau wusste, warum er so sortiert, wie er sortiert.”
Um diesen Punkt besser zu verstehen, ist eine Unterscheidung wichtig - die zwischen schwacher
und starker KI.
Schwache KI ist in der Lage Entscheidungen in einem bestimmten Aufgabenbereich zu erledigen,
zum Beispiel einen Weg zu finden oder Dinge zu sortieren.
Starke KI dagegen ähnelt viel eher dem menschlichen Denken, ist in der Lage zu lernen und logische
Schlüsse auf Grundlage großer Datenmengen zu schließen.
In diesem Bereich hat sich in den letzten Jahren extrem viel getan.
Nehmen wir beispielsweise machine learning, bei dem eine KI Muster in riesigen Datenmengen
erkennt und dabei lernt zu abstrahieren und zu verallgemeinern.
Oder die Entwicklung künstlicher neuronaler Netze, die sich an der Funktionsweise des
menschlichen Gehirns orientieren.
Das kann man positiv finden wie honestee:
“Dies ist meiner Meinung nach das wichtigste was der Menschheit passieren kann.
All unser Wissen haben wir daraus dass Menschen lernen und dieses Wissen weitergeben.
Dieses Wissen zu speichern und daraus Schlussfolgerungen zu ziehen würde vieles verbessern.
Nichts desto trotz braucht man meistens die menschliche Kontrolle.
Wie z.B einem Arzt der mit einem zur Diagnosestellung fähigem Gerät arbeitet.”
Wenn ihr jetzt denkt: Diagnose von Krankheiten durch künstliche Intelligenzen, das ist doch Zukunftsmusik.
Ist es nicht.
Die KI Watson von IBM optimiert nicht nur die Arbeitsabläufe großer Unternehmen, sie
kann auch Krankheiten diagnostizieren und Therapieempfehlungen aussprechen und ist dabei
sogar besser als ihre menschlichen Konkurrenten, das zeigte ein Test der North Carolina School of Medicine.
Das muss einen ja eigentlich auch nicht wundern.
Dass Maschinen in bestimmten Bereichen besser und schneller sind als Menschen, ist ja schon
lange so - es macht uns zum Beispiel weder Angst noch stutzig, dass ein Taschenrechner
schneller rechnet als wir das können.
Und es ist auch nicht verwunderlich, dass Watson, dem alle Studien und Daten zu Krankheiten
in der Sekunde der Entscheidung vorliegen, besser darin ist, eine Entscheidung zu treffen,
die all diese Daten berücksichtigt.
Fraglich ist aber, ob es Aspekte in diesen Entscheidungsprozessen gibt, die sich nicht
so einfach ableiten lassen und für die ein Arzt doch besser geeignet ist, weil sie zum
Beispiel Empathie voraussetzen oder weil es moralische Aspekte zu berücksichtigen gilt.
Jetzt könnte man fragen: Kann man Moralität nicht einfach einprogrammieren?
Naja, dafür müssten sich die Menschen erst mal auf ethische Basiswerte einigen und das
schaffen sie ja sonst auch nicht.
Je nachdem, ob man nach utilitaristischen oder deontologischen Kriterien entscheidet,
kommt man zu sehr unterschiedlichen Ergebnissen.
Wenn ihr jetzt gar nicht versteht, was ich gemeint habe, dann guckt mal in die Infocard.
Von diesen Problemen habt ihr vielleicht schon mal im Kontext des autonomen Fahrens gehört,
wo man zum Beispiel entscheiden muss: Wen soll das Auto im Falle eines Unfalls schützen:
Immer den Fahrer oder möglichst viele Menschen oder bestimmte Menschen zuerst – wie zum
Beispiel Kinder?
Das sind alles Probleme, die nicht so einfach zu beantworten sind.
Und damit fängt das ganze Problem erst an.
Man muss sich ja zudem überlegen: Wer ist für die Entscheidungen der KI am Ende verantwortlich?
Der, der sie benutzt, oder der, der sie programmiert hat oder vielleicht die KI selbst und was
würde das dann bedeuten?
Auch wenn oder gerade weil KIs wie Watson Entscheidungen fällen können, die auf einer
sehr breiten Wissensbasis stehen, müssen wir aufpassen, uns nicht zu sehr auf sie zu
verlassen, wie unser Zuschauer Jan B. sagt: [...] Umso mehr KIs eingesetzt werden und
umso mächtiger sie werden, umso seltener werden wir fragen, ob sie das Richtige machen.
Wir Menschen werden unser Leben freiwillig von Maschinen bestimmen lassen, weil wir denken,
sie wissen es schon besser als wir. grusel [...]
Ein bisschen liegt das ja in der Natur der Sache.
Wir lassen bestimmte Dinge von KIs oder Algorithmen entscheiden, weil die zu berücksichtigende
Datenmenge so groß ist, dass ein Mensch sie alleine nicht erfassen kann und dem Ergebnis
müssen wir dann in gewisser Weise vertrauen – so wie wir unserem Taschenrechner vertrauen,
dass das Ergebnis, das er ausspuckt, das richtige ist.
Beim Taschenrechner kann man aber immerhin noch nachrechnen, ob das Ergebnis stimmt und
wir wissen auch, wie der Taschenrechner auf das Ergebnis gekommen ist.
Algorithmen und Deeplerningverfaren können so komplex werden, dass sie selbst für ihre
Programmierer nicht mehr nachvollziehbar sind und am Ende niemand weiß, wie das Ergebnis
wirklich zustande gekommen ist.
Und man darf dabei nicht vergessen, dass Algorithmen immer nur so gut sind, wie die Daten, mit
denen man sie füttert und darüber hinaus muss man immer noch im Auge behalten, ob die
Schlüsse, die ein Algorithmus ausspuckt, wirklich die Richtigen sind.
Nehmen wir das Beispiel einer KI, die festlegen soll, wo wie viele Einsatzkräfte der Polizei
hingeschickt werden müssen.
Dafür wird man sie sicherlich mit den Daten füttern, die anzeigen, wo in der Vergangenheit
Straftaten begangen wurden und die KI und der Algorithmus wird die Polizeikräfte dann
dahin verteilen, wo die meisten dieser Straftaten begangen wurden.
Das klingt erstmal logisch.
Dabei entsteht aber ein Problem: Die Daten aus der Vergangenheit sind ja keineswegs neutral,
denn sie beruhen ja auf dem Kontrollverhalten der Polizei.
Das heißt dort, wo es früher schon mehr Polizei gegeben hat, sind logischerweise mehr
Straftaten entdeckt worden, was gleichzeitig nicht heißt, dass an diesem Ort mehr Straftaten
begangen wurden als woanders.
Wenn der Algorithmus diese Daten nun einfach übernimmt, dann kommt dabei 1. keine neutrale
Empfehlung heraus, selbst wenn eine kühle neutrale KI das ganze entscheidet und 2. wird
das Problem sogar einfach reproduziert und verstärkt, denn mit jedem weiteren Polizisten
an einem Ort werden ja weitere Straftaten entdeckt und dadurch wird das ganze nur verstärkt.
Das gilt für KIs und Algorithmen, die in einem abgesteckten Rahmen operieren.
KIs, die wirklich selbstständig lernen, könnten sich aus diesem Rahmen herauslösen und zu
ganz eigenen Schlüssen kommen, das wiederum könnte uns aus anderen Gründen aber auch
nicht gefallen.
Diesen Moment, also den, wenn sich Maschinen selbstständig weiterentwickeln und verbessern
können, nennt man technologische Singularität.
Man geht davon aus, dass sich ab diesem Zeitpunkt der technologische Fortschritt derart beschleunigen
wird, dass er für den Menschen in seinen Folgen nicht mehr nachvollziehbar ist.
Die Vorstellung, dass KIs Entscheidungen treffen könnten, die sich gegen den Menschen richten
und auch die Möglichkeit haben, diese Entscheidungen durchzusetzen, kann einem ganz schön Angst
machen.
Und mit dieser Angst ist man in guter Gesellschaft.
Elon Musk, der ja nicht gerade als technologiefeindlich bekannt ist, hat seine Sorge vor der Entwicklung
von künstlichen Intelligenzen zum Ausdruck gebracht und auch Steven Hawking warnte davor,
ihre Gefahren nicht zu unterschätzen.
Ihr seht, um einen breiten Dialog über den Umgang mit KIs werden wir nicht herumkommen.
Und sofern KIs nicht die Weltherrschaft an sich reißen, werden diese Technologien unsere
Gesellschaft vor ganz neue Herausforderungen stellen.
Welche genau und ob zum Beispiel das bedingungslose Grundeinkommen eine Antwort auf die Probleme
sein könnte, diskutieren wir in der nächsten Folge.
Schreibt mir gerne schonmal eure Gedanken dazu, dann kann ich euren Input in die nächste
Folge mitnehmen.
Was denkt ihr?
Wie wird unser Zusammenleben mit KIs und Robotern aussehen und wie wird sich unsere Gesellschaft
anpassen müssen?
Diskutiert in den Comments, aber bitte ohne Spambots!
Ich bin der Ben, das war SOundSO gesehen.