Dieser Artikel basiert u.a. auf Präsentationen von intrafind.com und von dem Liverpooler Filmanalysten Rob Ager.
Viele Menschen, auch UnternehmerInnen, haben manchmal sehr unrealistische Vorstellungen davon, was die „Künstliche Intelligenz“ tun kann. Oder von dem, was sie in wenigen Jahren tun wird.
Als Teenager schrieb ich selbst eine Kurzgeschichte über ein Computer-Netzwerk, dass irgendwann eine seltsame Religion entwickelte, auf dieser Basis neue Feiertage einführte und diese den Menschen aufzwang.
Schließlich zersplitterte die Religion in allseits gleichermaßen unsinnige, aber verschiedene Vorstellungen, so dass die Computer sich gegenseitig abmurksten, weil sie sich nicht einigen konnten, ob der Schöpfercomputer eine orange oder eine rosa Mütze trug und ob er auf Gleichstrom oder auf Wechselstrom lief.
Seltsam, verrückt?
Naja, das passiert, wenn man als Einzelkind einer alleinerziehenden Grundschullehrerin aufwächst.
Ein Rezept für mentales und soziales Desaster.
Und so glauben eben viele Menschen, Computer würden eigenständig Sozialverhalten entwickeln. Sie glauben, Computer würden Ambitionen und Vorlieben entwickeln und auf dieser Basis handeln.
Leider werden diese unrealistischen Vorstellungen immer wieder aufrechterhalten und befeuert. Vor allem durch Science-Fiction-Filme wie „I Robot“, „Ex Machina“ oder den „Terminator“-Franchise.
Aber leider auch durch teilweise übertriebene PR und Werbung.
Da werden Computer gezeigt, die komplexe soziale Netzwerke durchschauen, andere Menschen geschickt manipulieren, deren Reaktionen interpretieren, komplexe Strategien entwickeln und damit die Weltherrschaft übernehmen.
Die KI ist Lichtjahre davon entfernt, solche komplexen Aufgaben zu übernehmen.
Hier sind 4 populäre Mythen zur über Künstliche Intelligenz:
- KI ermöglicht es, dass Maschinen denken wie Menschen
- Maschinen erlernen und erweitern Algorithmen aus eigenem Antrieb und aus eigener Kraft
- KI und Machine Learning erwerben Erfahrungen, welche der menschlichen Erfahrung vergleichbar sind und können diese ebenso differenziert anwenden
- Durch KI und Machine Learning werden sehr bald alle menschlichen Jobs ersetzt
Schauen wir uns diese Mythen im Detail an.
Mythen über Künstliche Intelligenz 1: KI ermöglicht es, dass Maschinen denken wie Menschen
Hier stoßen die Maschinen an mindestens 3 Grenzen:
- Computer können Informationen nur seriell verarbeiten, während das menschliche Gehirn mehrere Aspekte einer Information parallel verarbeiten kann
- Menschliches „Denken“ ist nicht nur Denken, sondern auch Fühlen
- Menschliches Denken ist holistisch, maschinelles Denken ist punktuell
Parallele versus serielle Verarbeitung von Informationen
Computer können Informationen nur in Serie verarbeiten, während das menschliche Gehirn mehrere Aspekte und Ebenen einer Situation gleichzeitig verarbeitet.
Das menschliche Gehirn erkennt gleichzeitig die Form und die Bewegung von etwas.
Bereits Wirbeltiere können das und erkennen schnell, ob etwas unmittelbar oder mittelbar eine Gefahr oder eine Gelegenheit ist. Das tun sie, indem sie schnell Informationen aus mehreren Wahrnehmungen miteinander kombinieren.
Na gut, dann sammelt der Computer die gleichen Informationen halt nacheinander und stellt sie dann zusammen… Und wenn er alle Informationen beisammen hat, trifft er eine Entscheidung.
Neuronale Netze sollen dieses Problem lösen und das Netzwerk in die Lage versetzen, Informationen aus mehreren Computern zu kombinieren. Nur der Computer, der am Ende die Entscheidung trifft, wird die Informationen ebenso seriell verarbeiten müssen.
Nachtrag am 20.05.2022:
Von jemandem, der sich in dem Bereich auskennt, habe ich eine Mail erhalten, in welcher er erklärt, dass neuronale Netze durchaus Parameter parallel verarbeiten können. Bei Quantencomputern ist diese Fähigkeit noch verstärkt.
Menschliches Denken und Fühlen
Der Mensch steht in einer langen Kette einer biologischen Evolution, in der es vor allem um 2 Dinge ging: Überleben und Reproduktion.
Bereits bei vielen Wirbeltieren gibt es im Zusammenhang mit Überleben und Reproduktion wiederum komplexere Aspekte wie das Empfangen und Senden sozialer Signale.
Bei den Säugetieren wird es dann noch komplexer.
Beim Menschen sind Überleben und Reproduktion um ein Vielfaches komplexer geworden, mit Faktoren wie Humor, bewusste Organisation von Zusammenarbeit, usw.
Eine Funktion von sozialen Status gibt es bereits bei Hummern, die im Übrigen wortwörtlich Wettpissen durchführen, um ihren Status zu demonstrieren. Bei manchen Menschen ist es dabei geblieben, bei anderen ist das Demonstrieren von Status komplizierter geworden.
Also blicken wir auf Milliarden von Jahren, in denen Überleben und Reproduktion im Mittelpunkt standen, die sich stetig differenziert weiterentwickelt haben.
Computer haben keinen Antrieb zum Überleben und schon gar keinen zur Reproduktion.
Die gesamte sozio-sexuelle Ebene ist bei Computern nicht vorhanden.
Ist also auch nix mit Emotionen und Gefühlen.
Computer gewichten also Informationen nicht auf dieser Basis.
Punktuell versus holistisch
Bereits in meiner Jugend sah ich eine Dokumentation über die Anfänge der KI. Ein Schlüsselsatz, der mir in Erinnerung geblieben ist: „Als Abraham Lincoln in Washington war, war auch sein linker Fuß in Washington“.
Für die meisten Menschen ist das selbstverständlich, für Computer nicht.
Und wenn das Kind einmal gelernt hat, wenn der Wellensittich im Käfig ist, dann ist auch sein Schnabel im Käfig, weiß es automatisch, dass dies auch für den Kanarienvogel gilt. Das Kind kann ganzheitlich den „Vogel“ begreifen.
Der Computer kann das nur, wenn man ihm das sagt. Und wenn er das mit dem Schnabel weiß, weiß er es noch nicht über die Federn – wenn der Vogel nicht als Objekt programmiert ist mit der Eigenschaft „Federn“.
Und egal, welchen Teil die programmierende Person vergisst – die Maschine weiß dann nichts davon.
Das bedeutet naturgemäß, die Maschine auf ihrem jetzigen Stand (Oktober 2021) kann nicht ganzheitlich und differenziert die Welt interpretieren.
Mythen über Künstliche Intelligenz 2: Maschinen erlernen und erweitern Algorithmen aus eigenem Antrieb und aus eigener Kraft
Computer lernen nur dazu, was Menschen ihnen mitteilen, entweder vorab oder im Laufe der Nutzung.
Computer haben keine Ambition, eigenständig etwas auszuprobieren, anders als z.B. kleine Kinder, die ihren Eltern immer wieder allerlei freudige Überraschungen präsentieren bei ihren Versuchen, die Welt zu erforschen.
Lernbeispiel Bankbuchen
Ein Beispiel aus dem Rechnungswesen, wo die Erweiterungen ganz gut funktionieren:
Einige Buchhaltungsprogramme können Bankauszüge elektronisch einlesen und machen auch gleich Vorschläge für die Kontierung.
Wenn die Personen in der Buchhaltung mit der Kontierung nicht einverstanden sind, oder falls der Software kein Konto einfällt, kann der Mensch der Software mitteilen, welche Kontierung passt, und die Software speichert dies in einer Lerndatei.
Nach einer Weile erkennt die Software dann 95% aller Bankbewegungen zutreffend.
Die Software würde aber nicht ins Internet gehen und nachforschen, ob „Büromaterial“ auf das SKR04-Konto „6815 Bürobedarf“ passt.
Schon gar nicht würde die Software im Internet nach der immer besseren Vanillecreme suchen. Das mache ich leider zu oft, während ich solche Artikel schreibe.
Vanillecreme ist wichtig und bereichert das Leben.
Das ist dem Bankbuchungs-Algorithmus aber egal.
Lernbeispiel Schach
Große Aufregung gab es, als der IBM-Computer Deep Blue im Schach gegen Großmeister Garry Kasparov gewann.
Wer hat im Übrigen Deep Blue beigebracht, Schach zu spielen? Ein Team von professionellen Schachspielern.
Deep Blue hätte sich nicht im Alleingang aufmachen können, um Poker oder Skat zu lernen. Oder Backgammon.
Maschinen können geschlossene Systeme schneller und besser bedienen als Menschen. Sie können aus einer festgelegten Struktur schneller Dinge heraussuchen.
Das beschleunigt viele Vorgänge ganz enorm.
Aber eben nicht alle.
Mythen über Künstliche Intelligenz 3: KI und Machine Learning erwerben Erfahrungen, welche der menschlichen Erfahrung vergleichbar sind und können diese ebenso differenziert anwenden
Maschinen haben keine Vorstellungskraft.
Sie lernen auf einer sehr einfachen Ebene von Versuch und Irrtum, und den Irrtum bemerken sie nur, wenn ein programmierender Mensch ihnen in irgendeiner Form mitteilt, dass es ein Irrtum ist.
Maschinen lernen weder durch Schmerz noch durch Belohnung.
Maschinen kennen weder Scham noch Selbstbewusstsein.
Mensch kann der Maschine Konzepte von Scham oder Selbstbewusstsein programmieren, aber wenn Mensch Aspekten davon vergisst, dann weiß die Maschine nichts davon.
Maschinen haben kein Unterbewusstsein
Manche Aspekte von Sozialverhalten werden von uns unbewusst interpretiert.
Mir wurde dies besonders klar in einem Kommunikationstraining im Frühjahr 2021.
Mein Trainer hatte sich intensiv mit sozialen Signalen befasst, die von den meisten Menschen nicht bewusst wahrgenommen werden – auf die sie aber reagieren.
Fast alle Menschen reagieren auf bestimmte soziale Signale sehr ähnlich, auch wenn sie diese Signale nicht bewusst wahrnehmen.
Das sind Details in den Klangfrequenzen der Stimme, in der Art, wie sich jemand bewegt, Körperhaltung, Details in der Mimik in verschiedenen Kombinationen, usw.
Menschen verarbeiten auch Teile von Erfahrungen unbewusst und wissen teilweise gar nicht, warum sie so oder so auf etwas reagieren.
Und dann sollen sie den Maschinen diese Reaktionen beibringen, von denen sie selbst nichts wissen? Wie soll das klappen?
Wenn selbst die weltweit führenden Experten über Körpersprache und Mimik sagen, dass sie im allerbesten Fall eine Trefferquote von 80% erzielen, wie viel geringer wird dann die Trefferquote durch ein eingeschränktes System?
Mythen über Künstliche Intelligenz 4: Durch KI und Machine Learning werden sehr bald alle menschlichen Jobs ersetzt
Manche menschlichen Jobs werden mittelfristig durch maschinelle Suchprozesse und Entscheidungsprozesse ersetzt werden.
Einige Buchhaltungsprogramme sind bereits sehr weit beim automatisierten Erkennen und Verbuchen von Belegen.
Scannerkassen ersetzen bereits seit Langem das Eingeben der Artikel durch die Menschen an der Kasse.
Warensuche im Lager kann weitestgehend automatisiert werden.
Es gibt dabei auch die soziale Herausforderung zu entscheiden, wer den „Gewinn“ durch die „Einsparung“ der menschlichen Arbeit bekommt, bzw. ob dies ausschließlich ein Gewinn ist.
Was die Maschine kaum ersetzen kann, sind das Wohlbefinden und die Wärme durch zwischenmenschliche Interaktion.
Nach meinen sehr wenigen Erfahrungen mit Krankenhäusern empfand ich die Krankenschwestern als deutlich heilender als die Ärzte, die mir vorwiegend arrogant und aufgeblasen vorkamen und gewöhnlich größtenteils ohne erkennbare Sachkenntnis (mit Ausnahme von Chirurgen).
Die Standarduntersuchung bei Erkältung bzw. leichter Grippe lässt sich wohl sehr leicht ersetzen. Läuft ja sowieso immer auf dasselbe hinaus: Gelber Zettel, hinlegen, ausruhen. Das kann auch eine Maschine.
Computer können geschlossene Systeme schneller und besser bedienen als Menschen dies können
Was die reine Suche nach Gegenständen oder Fakten mit wenig Dimensionen angeht, da sind Maschinen im Durchschnitt deutlich schneller als Menschen.
Wenn es darum geht, schnell einfache Muster zu erkennen und simple Zuordnungen zu treffen, können Maschinen den Menschen vieles abnehmen.
Ganz klar kann die Maschine schneller rechnen als der Mensch.
Wenn es aber um komplexe soziale Systeme geht, mit Entscheidungen über Vorlieben, Belohnung und Schmerz, Zuwendung und Ablehnung, mit sich ändernden Rahmenbedingungen, dann hat die Maschine schlechte Karten.
FAZIT: Was bedeutet das für Business Intelligence?
Wir kennen das, die Kaufvorschläge von amazon sind manchmal ganz gut.
Manchmal auch nicht.
Im gewissen Rahmen kann die Künstliche Intelligenz Kaufinteressen erkennen, aber sie kann derzeit nicht vorhersehen, wie sich Kaufinteressen ändern, wenn es z.B. eine neue Pandemie gibt.
Wenn ich der KI nicht sage, in der Krise ändert sich das Kundenverhalten so und so, dann weiß sie das nicht. Dazu benötigt sie, wenn das überhaupt jemals klappt, Milliarden von Informationen, die sie dann gegeneinander abwägen muss.
Ich schätze, das wird erstmal nichts.
Ich habe mich in meinem Leben schon öfter geirrt, und vielleicht tue ich das auch diesmal.
Vielleicht ist eine neue KI auf dem Weg, die anders funktioniert als die bisherige, und die neue KI kann selbständig lernen, kann auf Basis von Belohnung und Schmerz Präferenzen entwickeln, die sich über viele Generationen immer weiter verfeinert.
Oder auch nicht.
Die größte Gefahr, die ich derzeit (Oktober 2021) sehe: Menschen geben den Entscheidungen der Maschine zu viel Gewicht. Sie könnten dazu verleitet werden, der Maschine allein Entscheidungen über Schmerz und Belohnung anderer Menschen zu überlassen.
Das wäre in der Tat eine der dümmsten Entscheidungen in der Geschichte.
Auch der Mensch ist nicht unfehlbar. Aber der Mensch kann, mit viel Training und Bewusstseinsarbeit, seine eigene Fehlbarkeit erkennen.
Kann die Maschine das auch?
Schreibe einen Kommentar