Megatrend Künstliche Intelligenz: Drei Fragen, über die wir diskutieren sollten.

Künstliche Intelligenz (KI) ist das aktuelle Trendthema. Spätestens seitdem die KI-Strategie der Bundesregierung  klare Ziele auch für den Bereich Forschungsförderung und Innovationsmanagement formuliert hat, ist KI kein Nischenthema für IT-Nerds und Technik-Enthusiasten mehr, sondern im Mainstream angekommen.

In Gesprächen mit Kunden genauso wie in Diskussionen mit Kollegen aus dem Bereich Forschung und Consulting wird mir immer klarer, dass wir zwar den Begriff Künstliche Intelligenz (KI) gerne und häufig nutzen, oft aber gar nicht genau wissen, was damit eigentlich gemeint ist. Im Gegenteil: Manchmal kommen mir die Diskussionen reichlich undifferenziert vor. Die einen sehen in Algorithmen und maschineller Intelligenz eine unumkehrbarer Innovation, die viele –vielleicht alle– gesellschaftlichen Bereiche verändern wird. Die anderen nennen hauptsächlich Gefahren, die damit verbunden sind – von ethischen Fragen (z.B. Treffen Roboter bessere Personalentscheidungen?) über sozialen Fragen(z.B. Fallen Arbeitsplätze weg?) bis hin zu politischen (z.B. Wird Europa abgehängt?).

Auswirkungen von KI auf Lernen, Arbeiten und Führen

Ich könnte jetzt versuchen, das Thema Künstliche Intelligenz genauer zu beleuchten. Dann müssten Begriff wie Machine Learning, Deep Learning, schwache und starke KI oder neuronale Netze definiert und erklärt werden. Wenn Sie sich das für wissensdialoge.de wünschen, freue ich mich auf Ihren Kommentar.

Was mir genauso wichtig erscheint, ist das Thema stärker aus einer nicht technologischen Perspektive zu beleuchten. Wir müssen die Frage stellen, welche Konsequenzen sich für Unternehmen und Organisationen durch die Nutzung und Integration von KI für Arbeiten, Lernen und Führen ergeben. Deshalb versuche ich in diesem Beitrag drei erste Fragen zu formulieren, über die wir aus meiner Sicht diskutieren sollten.

Können wir aus der Vergangenheit für die Zukunft lernen?

Das Grundprinzip von Deep-Learning ist, aus der Vergangenheit für die Zukunft zu lernen. Beispiel Bilderkennung: Ich trainiere eine (schwache) KI, in dem ich ihr tausende von Bildern mit Gesichtern „zeige“. Damit „lernt“ die KI irgendwann, welche Muster darauf hindeuten, dass es sich um ein Gesicht handelt. Dann kann sie ein Gesicht von einem anderen Objekt unterscheiden – zumindest, wenn das Gesicht, das erkannt werden soll, zum gelernten Muster passt. Wenn das neue Gesicht anders ist, als die Gesichter, mit der die KI trainiert wurde, wird die Erkennung scheitern – also wenn z.B. die KI mit Gesichtern von alten weißen Männer trainiert wurde, und jetzt auch Menschen mit anderer Hautfarbe, anderem Alter und Geschlecht erkennen soll. Was sich in diesem Beispiel einfach mit angepassten „Lernmaterial“ für die KI lösen lässt, könnte in anderen Fällen problematisch sein. Die Vergangenheit als Grundlage für die Entscheidungen in der Zukunft zu nehmen ist grundsätzlich sinnvoll. Auch Menschen treffen Entscheidungen auf Basis Ihrer Vorerfahrungen. Wenn sich Umweltbedingungen, Kontexte oder Voraussetzungen ändern, wird eine KI aber falsche entscheiden. Haben wir das im Blick?

Wie kann eine KI Teil eines menschlichen Teams werden?

Aller Euphorie zum Trotz: Zunächst ist eine KI ein bloßes Werkzeug. Ohne menschlichen „Kollegen“ der die KI nutzt und in Arbeits- oder Lernprozesse integriert, ist sie nur ein wertloses Stück Computercode. Vielleicht liegt es an meinem eigenen Forschungshintergrund im Bereich des computerunterstützten kooperativen Arbeiten (CSCW) und Lernens (CSCL). Aus meiner Sicht ist die Metapher der Mensch-Maschine-Kooperation zielführend. Es geht darum, die KI in einen kooperativen Prozess zu integrieren. Beispiel Chatbot: Ein Chatbot mit (schwacher) KI versucht, die Supportanfragen von Kunden oder Interessenten zu verstehen und auf Basis einer Wissensdatenbank zu beantworten. Damit kann ein großer Teil der Anfragen schnell und effizient beantwortet werden. Aber schafft es der Bot auch, den verärgerten Premium-Kunden, als Solchen zu identifizieren, und eine vom Standartvorgehen abweichende Lösung zu finden?

Die Voraussetzung für erfolgreiche Kooperation zwischen Mensch und KI ist, ein mentales Modell über die Fähigkeiten und Ziele meines Kooperationspartners zu haben. Als Menschen müssen wir verstehen, was eine KI kann – und eben auch: Was sie nicht kann. Ist uns das schon klar?

Wie gut ist die Entscheidung einer KI?

Beim Deep-Learning legen wir Input-Variablen fest (z.B. die einzelnen Pixel eines Bildes, auf dem ein Gesicht abgebildet ist) und überprüfen dann die Output-Variablen (Wurde ein Gesicht richtig erkannt?). Was dazwischen passiert, können wir nicht mehr im Detail nachvollziehen. Hier muss sich die Kapazität eines menschlichen Gehirns einem Computer geschlagen geben, der in kurzer Zeit unzählbare Rechenschritte ausführen kann. Die Entscheidungsregeln, die zum Ergebnis (also z.B. Gesicht oder kein Gesicht) geführt haben, lassen sich nicht im Einzelnen überprüfen oder replizieren. Aber – und das scheint mir ein häufiges Missverständnis zu sein – die Ergebnisse müssen und können wir sehr wohl überprüfen. Die Frage, ob und in welchem Ausmaß wir dem Ergebnis eines Algorithmus trauen und als Grundlage für weitere Entscheidungen nutzen, kann nur mit menschlicher Intelligenz beantwortet werden.

Ein Beispiel ist Robo-Recruiting. Nach einem Telefongespräch versucht ein Algorithmus auf Basis der genutzten Worte Rückschlüsse auf Softskills und Zufriedenheit zu ziehen. Trainingsmaterial waren Bewerbungsschreiben und ein Fragebogen. Das oben genannte Missverständnis in diesem Fall: Die KI trifft keine Personalauswahl. Sie sagt letztlich nur, wie ähnlich die Person am Telefon den Personen ist, von denen das Trainingsmaterial stammt. Ob die darauf basierend Personalentscheidung richtig war lässt sich nicht mithilfe einer KI entscheiden. Wie fehlertolerant sind wir?

Fazit

KI wird die Art wie wir Lernen, Arbeiten und Führen verändern. Und wahrscheinlich lassen sich die Möglichkeiten, die sich bieten, noch nicht verlässlich abschätzen und bewerten. Gleiches gilt für Nachteile oder Risiken. Ich bin aber überzeugt, dass wir neben der Technologie, die Fragen wie genau wir KI nutzen und welche Folgen sich daraus ergeben, dringend fundiert und kontrovers diskutieren müssen.

Übrigens …

In diesem Beitrag nutze ich an einigen Stellen das Thema „Gesichtserkennung“ als Beispiel für eine KI. Dieses Beispiel finde ich deshalb besonders spannend, weil es eine KI-Anwendung ist, die viele nutzen, ohne es zu merken, z.B. wenn in Facebook-Post Gesichter markiert werden, die Fotos-App die Urlaubsbilder sortiert oder per Face-ID ein Smartphone entsperrt wird. Sogenannte Generative Adversarial Networks gehen noch weiter: Sie nutzen Algorithmen, um Inhalte zu erzeugen, z.B. Gesichter von Personen. Das zeigt die Webseite https://www.thispersondoesnotexist.com/ eindrücklich. Die Fotos von Personen auf dieser Seite wurden von einer KI erzeugt.

Johannes Moskaliuk

Prof. Dr. Johannes Moskaliuk ist Diplompsychologe sowie ausgebildeter Betriebswirt. Er arbeitet als Professor für Psychology and Management an der International School of Management in Stuttgart. Außerdem ist er assoziierter Wissenschaftler am Leibniz-Institut für Wissensmedien in Tübingen.

%d Bloggern gefällt das: