Können Maschinen denken? Diese Frage stellte der Erfinder des ersten Computers, Alan Turing im Jahre 1950. Bis zur ersten starken KI, die wie ein Mensch denken, planen, entscheiden und kommunizieren kann, sind es nach Schätzungen von Brancheninsidern noch 20 bis 40 Jahre. Doch bis zur Geburt der ersten Maschine, die einen menschlichen Verstand ersetzen oder gar weit übertreffen kann, sind alle heutigen Systeme „schwache KIs“. Ihnen allen ist gemein, dass sie speziell zur Lösung bestimmter Probleme oder Aufgaben entwickelt worden sind. Sie können in dem Bereich, für den sie geschaffen sind, Menschen zwar übertreffen, verfügen aber nicht über wirkliche menschenähnliche Intelligenz oder ein Bewusstsein für das, was sie tun.
Was ist Künstliche Intelligenz?
Wenn jemand von Künstlicher Intelligenz spricht, dann sind zunächst erst einmal Algorithmen gemeint. Algorithmen, die Daten interpretieren und dadurch Muster erkennen und Regeln erlernen. Das nennt man auch „Machine Learning“, sprich, der Algorithmus lernt - durch Beispiele statt durch von außen vorgegebene Regeln. Aber in jeder Instanz bleibt die Maschine dabei an die Direktiven ihrer Algorithmen gebunden. Maschinelle Intelligenz ist dabei keine Intelligenz im menschlichen Sinne. Es sind sehr komplexe, sich selbst optimierende, dirigierte Denkprozesse. Computer lernen allerdings wie Menschen auch durch Üben und Wiederholen und je mehr Beispiele ein Algorithmus aufnimmt, desto präziser wird sein Modell.
Die aktuell beste und komplexeste Variante des Machine Learning ist das „Deep Learning“, welches beispielsweise bei der Bilderkennung verwendet wird. Deep Learning ist inspiriert von menschlichen Neuronen, die in Schichten angeordnet sogenannte „Neuronale Netze“ bilden. Entlang dieser Schichten aus „Neuronen“ werden Informationen verarbeitet und Erkennungsprozesse gebildet. Das kann man sich in etwa so vorstellen wie das schrittweise Eingrenzen eines Datensatzes - wie ein Bild aus senkrechten und waagerechten Linien in der ersten Schicht, bis zu feinen Details in der letzten - bis die Maschine als Output zu einem Ergebnis kommt, um das es sich „ihrer Meinung nach“ handelt.
Effektives Deep Learning verlangt Millionen solcher Prozesse und massenhaften Input an Informationen, also eine Menge an Rechenleistung und Daten. Google beispielsweise verwendet einen Exobyte, was ca. der gespeicherten Datenmenge von 30 Millionen Personal Computern entspricht.
Künstliche Intelligenz ist längst überall
Vom Erkennen von Worten, Gesichtern, dem Algorithmus, der uns bei Netflix oder Facebook neue Serien oder Werbung vorschlägt, Programmen, die Sprachen übersetzen oder Worte in Text umwandeln, bis hin zu Brillen für Blinde, die Personen, Straßenschilder oder Situationen erkennen und sie dann vorlesen oder rechtzeitig warnen. Schon heute gibt es Bots, die kaum von echten Chat-Partnern oder inzwischen sogar Anrufern zu unterscheiden sind.
Es ist eine Technologie mit nahezu unbegrenztem Potenzial, welche die Art, wie wir leben, lernen und arbeiten, grundlegend verändert hat und noch viel mehr verändern wird. Schon jetzt ist sie aus unserem täglichen Leben kaum wegzudenken.
Tagtäglich nutzt sie jede*r von uns und füttert die globale Datenmenge mit jedem Googeln, jedem Klick auf einen Link, jeder Verwendung von Apps. Unsere dutzenden täglichen Fußspuren in der digitalen Welt erweitern die Datenmasse, die von Firmen gesammelt und gehandelt wird und auf deren Grundlage KI-Systeme arbeiten. Und doch ist vielen Menschen noch gar nicht bewusst, dass sie bereits mit Künstlicher Intelligenz arbeiten oder gar interagieren.
In Zukunft wird künstliche Intelligenz nicht nur beim autonomen Fahren wegweisend sein, sondern auch ein Fünftel aller anwaltlichen Tätigkeiten übernehmen können. Besonders wird sie in der visuellen Diagnostik zum Einsatz kommen. Schon jetzt erkennt eine medizinische KI Hautkrebs besser als menschliche Ärzt*innen und in der Landwirtschaft kann sie Schädlingsbefall von Pflanzen identifizieren.
Warum dann all die Warnungen?
Was der Künstlichen Intelligenz bisher fehlt, ist das Erkennen von Sinn und ein eigenes Bewusstsein. Die Maschine kann Begriffe anhand von Definitionen wiedergeben und erkennen, aber sie versteht nicht, was sie da wiedergibt, und sie ist sich nicht ihrer selbst oder dessen bewusst, was sie tut. Es laufen einfach hoch komplexe Prozesse ab, die sich kontinuierlich verbessern. Das Problem dabei ist allerdings: Wenn die Algorithmen laufen, wird die KI quasi zur Black Box, auch für die Programmierer*innen. Man sieht, was reingeht und was rauskommt, aber welche Daten und Merkmale die KI dann beeinflussen, wie sie diese gewichtet und welche Verknüpfungen und Rückschlüsse sie schließt, das kann man nicht mehr nachvollziehen.
Ein Beispiel dafür wäre, dass ein Bilderkennungsprogramm einen Husky fälschlicherweise als Wolf identifiziert hat. Dabei achtete es nicht auf die Knochenstruktur, die Augen, die Ohren oder den Kopf des Hundes, sondern auf den Schnee drumherum. Warum? Weil die meisten Bilder, die es von Wölfen kannte, im Schnee aufgenommen wurden.
Digital Bias – problematischer als HAL 9000 (zumindest vorerst)
Dass die Algorithmen nur so klug sind wie die Daten, auf denen sie basieren - und es selbst für die Programmierer*innen oft schwer ist, zu unterscheiden, wann Daten gut oder schlecht sind – ist (neben Denkfehlern beim Programmieren) das größte Problem, wenn es um künstliche Intelligenz geht.
Ein großer Themenkomplex dabei ist der sogenannte „Digital Bias“, also wenn KIs Vorurteile erlernen. Das klassische Beispiel dafür ist COMPAS, ein amerikanisches KI Programm zur „Berechnung“, wie wahrscheinlich es ist, dass ein verurteilter Straftäter erneut straffällig wird. Dabei zeigte sich in einer Untersuchung durch ProPublica schnell ein rassistischer Bias, der dunkelhäutigen Straftäter*innen ein höheres Risiko zuteilte und hellhäutigen ein niedrigeres, selbst wenn deren kriminelle Vorgeschichte ein ganz anderes Bild zeichnete.
Obwohl die Datenbank keine Daten zur Hautfarbe enthielt, erhielt beispielsweise ein dunkelhäutiger Mann, der wegen eines einzelnen Kleindiebstahls verurteilt war, ein „mittleres Rückfallrisiko“ und ein hellhäutiger Mann, der nicht nur wegen Drogenhandel, häuslicher Gewalt und schwerer Körperverletzung vorbestraft war, sondern anschließend auch wieder schweren Diebstahl beging, eine niedrige Risikoeinschätzung. Besonders fatal dabei: Basierend auf COMPAS trafen Haftrichter Entscheidungen über die vorzeitige Entlassung Strafgefangener.
Am Ende stellte sich heraus, dass der Algorithmus allein durch die Postleitzahl einen rassistischen Bias aufbauen konnte, da in den USA sich Hautfarben oft auf bestimmte Wohnbezirke verteilen.
Noch ist Künstliche Intelligenz „dumm“
Vieles zum Thema KI klingt abstrakt – bis man daran denkt, dass eben solche möglicherweise mit fatalen „Denkfehlern“ behafteten Algorithmenkonstrukte darüber entscheiden, ob man einen Bankkredit oder ein Jobinterview bekommt, weil die Bewerbungen durch KI vorsortiert werden.
Je mehr man also unkritisch und blind modernen KI-Prozessen vertraut, desto mehr läuft man Gefahr, bestehende Ungleichheiten zu zementieren. Eine KI, deren primärer Input für Aufsichtsratsposten in Firmen auf dem bestehenden, von alten, weißen Männern dominierten, IST-Zustand basiert, wird automatisch alte, weiße Männer für qualifizierter halten, wenn man diesem Bias nicht entgegenwirkt. Diese Aufgabe ist oft schwerer als gedacht, wie das Beispiel mit den Postleitzahlen zeigt. Noch gefährlicher wird ein solcher Bias oder eine derartige Fehleranfälligkeit dann im Bereich militärischer KI, bei der Algorithmen entscheiden könnten, ob und wann eine Maschine das Feuer auf einen Menschen eröffnet.
KI könnte für uns zum Problem werden, lange bevor sie ein eigenes Bewusstsein entwickelt und beschließt, dass wir biologischen Lebensformen unnötig oder schadhaft für den Planeten sind. Nicht, weil KI böse ist, sondern weil wir ihr blind vertrauen und vielleicht selbst nicht klug genug sind, eine kluge KI zu erschaffen. Schließlich erschaffen wir sie nach unserem Ebenbild.
Kommentare verfolgen: |