Künstliche Intelligenz: Roboterhand mit Fragezeichen | Blog
KI & RPA
 

Künstliche Intelligenz als Türöffner? Erwartungshaltung vs. Realität

Künstliche Intelligenz (KI) hier, Weltuntergang dort: In den Medien ist dieser Begriff ein gern gesehener Topos, da er sowohl Laien wie Experten polarisiert. Oft wird KI als absoluter Innovationstreiber und mögliches Allheilmittel für verschiedenste Probleme gehandelt, doch genauso häufig – sozusagen als Antithese dazu – als Gefahr für die Menschheit dargestellt (Stephen Hawking, Elon Musk und Co lassen grüßen).

Beiden Positionen lässt sich aus heutiger Perspektive und dem derzeitigen Stand der Technik aber nicht so recht folgen. Grundsätzlich sei Technologie, und dazu zählen eben auch alle Bereiche der KI-Forschung und -Einsatzgebiete, moralisch neutral, mahnt beispielsweise Toby Walsh, Professor für Artificial Intelligence an der Universität Sydney in einem Interview. Es liege an uns Menschen, einer KI unsere Wertvorstellungen zu vermitteln. Welche das am Ende sind, hänge ausschließlich von uns ab.1  Der autonom lernende Chatbot »Tay« ist hierfür ein unrühmliches Beispiel, doch dazu später mehr.

Gegenwärtig arbeiten Künstliche Intelligenzen noch relativ oft im Verborgenen und deshalb von vielen Anwendern unbemerkt, etwa in der Steuerung von Roboterarmen der Automobilindustrie, in medizinischen Assistenzsystemen, in Spielzeugrobotern oder in der Cloud der AFI Solutions beim Training mit Rechnungsbelegen. KI-Systeme spekulieren an Aktienmärkten, schreiben Sportnews oder Filmskripte2, verbessern Grammatikfehler oder suchen in riesigen medizinischen Datenbanken weltweit nach neuen Medikamenten und Behandlungsmethoden. Aber bei all den Vorschusslorbeeren, die KI-Projekte gerne im Vorfeld bekommen: Nicht überall waren oder sind sie erfolgreich, so eine IDC-Studie.3 Gescheiterte Experimente sind häufig und existieren durch alle Branchen sowie Zielvorgaben hinweg. Auch der Mensch spielt dabei eine entscheidende Rolle.

Was können wir also von einer KI erwarten?
 

Künstliche Intelligenz ist nicht per se schlau

Dass KI-Systeme oder intelligente Maschinen, so wie sie heute eingesetzt werden, in der Lage sind, die Weltherrschaft zu übernehmen, muss also stark angezweifelt werden (außer man ist Verschwörungstheoretiker). Dazu sind sie bis dato noch zu sehr von ihren menschlichen Lehrern abhängig, die ihnen die Fragestellung, das Ziel oder ihren Zweck vorgeben. Es sind außerdem diese Lehrer, die sie mit ausgewählten, stark an die Aufgabe gebundenen Datensätzen füttern, mit denen sie dann innerhalb von eng determinierten System- und Parametergrenzen trainieren dürfen. Bei zu viel Spielraum für die KI lassen sich ansonsten die Ergebnisse nur noch schwer bis gar nicht mehr auswerten. Auch beim Thema Ergebnis benötigt es wieder den Menschen, den sogenannten Data Scientist bzw. auf Daten spezialisierten Analysten, der die Ergebnisse der KI erst interpretieren und nutzbar machen muss.

Ein Beispiel: Die vom Google-Unternehmen DeepMind entwickelte KI Alphago ist auf das ostasiatische Brettspiel Go spezialisiert. Sie war der Grund, warum 2016 ein damaliger Go-Meister nach seiner Niederlage gegen die »Maschine« zurücktrat. Außerhalb der Go-Regelwelt würde diese KI allerdings keinen Blumentopf gewinnen. Dazu ist sie viel zu dediziert – auch beschränkt durch die Datenbasis, mit der sie trainieren konnte. In der Go-Spiel-Welt allerdings ist die KI vermutlich unschlagbar (sofern es sich um menschliche Herausforderer handelt und sie kein Softwarefehler ausbremst).4 

Schaut man sich nach KI-Projekten um, sind die heutigen Anwendungsfälle vor allem im B2B-Umfeld eher ernüchternd oder zumindest stark an einen speziellen Anwendungsbereich gebunden. Neben Alphago sind beispielsweise die beiden von IBM entwickelten KI-Systeme »Deep Blue« (1996 Sieger im Schach gegen Gary Kasparow) und dessen Weiterentwicklung »Watson« (2011 Gewinner im Jeopardy gegen zwei menschliche Gegner) nur innerhalb einer bestimmten Regelwelt oder mit entsprechend trainierten Datensätzen »intelligent«. Komplexere Aufgaben sind für Künstliche Intelligenzen noch schwer zu lösen. Oft mangelt es in B2B-Projekten auch an Ressourcen und der für ein umfassendes Training notwendigen Datenmenge.

Hier sind die Konkurrenten aus dem B2C-Sektor rund um die Sprachassistenten Alexa, Siri und Cortana klar im Vorteil: Ihnen stehen theoretisch Milliarden von Nutzerdaten jederzeit zur Verfügung, um damit ihre Antworten zu trainieren, zu verbessern und an das jeweilige individuelle Anwenderverhalten anzupassen. Die Voraussetzung dafür ist jedoch, dass sie überall und zu jeder Zeit mithören und -lesen dürfen – eine bedenkliche und gefährliche Entwicklung, mahnen nicht nur Datenschützer.
 

KI kann auch anders

Ja, Künstliche Intelligenz ist im Trend, ein Buzzword: Die Werbung suggeriert, dass im besten Fall jedes Device intelligent sein sollte, zumindest ein bisschen. Dabei scheint es egal zu sein, ob wir uns im B2C- oder im B2B-Sektor tummeln.

Doch in diesem gehypten Forschungssegment existieren einige KI-Projekte mit eher beunruhigenden Ergebnissen. In einem Kommunikationsexperiment eines bekannten Social-Media-Riesen unterhielten sich zwei KI-gestützte Chatbots plötzlich in einer »Geheimsprache«, die die menschlichen Forscher nicht mehr verstehen konnten. Dazu entwickelten die beiden Bots eine effizientere Sprache aus den menschlichen Begriffen, um schneller verhandeln zu können. Durch KI optimierte Sprachen sind aber in der Forschung keine Seltenheit. Die Geheimsprache war auch nicht der Grund für den Abbruch des Experiments. Da die KI in ihrem späteren Einsatzgebiet mit Menschen interagieren sollte, musste sie hierfür selbstverständlich die menschliche Sprache verwenden. Die Wissenschaftler hatten es jedoch versäumt, diese entscheidende Einschränkung für die beiden Bots festzulegen.5

In einem weiteren Beispiel ging die KI noch etwas aggressiver zu Werke: Die Versuchsanordnung gab vor, dass zwei KI-Systeme Äpfel sammeln sollten, die innerhalb eines Versuchszeitraums mit mehreren tausend Spielrunden immer in unterschiedlichen Mengen zu Verfügung standen. Solange ausreichend Obst für beide Seiten vorhanden war, horteten die KI munter drauf los. Doch sobald es zu eine Apfelverknappung kam, verwendeten die KI ihre Laser, um das Gegenüber damit kurzzeitig zu lähmen und so an die wenigen Äpfel zu gelangen. Die beiden KI konnten dabei frei entscheiden, ob sie die Waffe einsetzen oder nicht. In den meisten Fällen entschieden sie sich dafür. Die Forscher fanden die aggressivere, egoistische Vorgehensweise intelligenter, als nur passiv abzuwarten, obwohl dadurch beide KI auf die gleiche Anzahl an Äpfeln gekommen wären. So wurde beiden intelligenten Programmen ein aggressives Verhalten antrainiert. Am Ende ist also der Mensch für den Charakter einer KI verantwortlich.6
 

Mehr Mut zu Experimenten mit KI

Letztendlich handelt es sich bei den oben angeführten Beispielen um Versuchsanordnungen unter Laborbedingungen, in denen sowohl Möglichkeiten als auch Grenzen intelligenter Systeme und Maschinen ausgelotet werden. Und diese Experimente sind wichtig, weil hier oft überraschende Ergebnisse herauskommen, die uns zum Teil unsere eigenen Denkprozesse und menschlichen Schwächen vorführen. Das zeigte unter anderem das Beispiel »Tay«, ein aus seinen vorherigen Gesprächen lernender Chatbot von Microsoft, dem Internet-Trolle ein frauenfeindliches, antisemitisches und mit Hitler sympathisierendes Verhalten beibrachten.7  An dieser Stelle bleibt nur zu sagen: Wer Hass sät, wird eine despotische KI mit Weltuntergangsfantasien ernten!

Zurück zum Thema: Durch diese vielen Parallelen zu menschlichen Denkprozessen sind auch Bereiche der Neurologie, Philosophie oder Psychologie sehr wichtig für die KI-Forschung. Denn die Aufgabenstellung für eine wie auch immer geartete Künstliche Intelligenz ist klar formuliert: Sie soll Maschinen dazu befähigen, Lernprozesse selbstständig in Gang zu setzen, adäquat auf neue Informationen zu reagieren und Aufgaben zu erfüllen, die menschähnliches Denken sowie einen menschlichen Wertekanon voraussetzen. Hierzu wird in Bereichen der Computerwissenschaften etwa mit Regressionsanalysen, Clustering, Multivariable-Verfahren, Deep Learning in digitalen neuronalen Netzwerken oder Natural Language Processing, also der Verarbeitung natürlicher menschlicher Spracheingaben, geforscht und experimentiert.

Den sogenannten »Turing Test« (benannt nach dem Mathematiker, Informatiker und Kryptologen Alan Turing)8 hat jedoch bisher noch keine Künstliche Intelligenz meistern können. Dabei erhält eine Expertengruppe Nachrichten beispielsweise per Chat von jemandem, den sie nicht sehen können. Sie müssen dann anhand der erhaltenen Nachrichten entscheiden, ob sie von einem Menschen oder von einer intelligenten Maschine stammen. Jedoch gibt es hier auch gefährliche Entwicklungen wie die sogenannten Deepfakes, bei der es selbst für Videoexperten schwierig wird, ein echtes Video von einem Video mit digital in den Mund gelegten Aussagen zu unterscheiden. Auch eine mit unzähligen Schriftstücken trainierte KI verfasst so echt wirkende Texte, dass sie sich beliebigen Urhebern zuordnen ließen. Beide Beispiele zeigen, wie wichtig es ist, mit solchen Technologien richtig umzugehen. Die Verantwortung liegt aber wieder bei uns.9
    
Eine wesentliche Rolle spielt das Training der KI-gesteuerten Systeme, vergleichbar mit dem menschlichen Lernprozess. So entscheidet sich, wie gut eine intelligente Maschine unter den vorgegebenen Rahmenbedingungen performt – oder eben nicht. Dazu werden die oben angesprochenen Technologien wie Machine und Deep Learning, natürliche Spracherkennung usw. eingesetzt, um wiederkehrende Muster zu erfassen und nach bestimmten Gesichtspunkten und Wahrscheinlichkeiten zu ordnen, sprich: die KI lernt. Doch erst wenn eine entsprechend große Datenmenge zu Verfügung steht, mit der trainiert werden kann, lassen sich in diesen Daten auch verlässliche Paradigmen (mit entsprechend hohen übereinstimmenden Wahrscheinlichkeitswerten) erkennen, die wiederum interpretiert werden können. Hier beginnt dann sozusagen der Verständnis- bzw. der autonome Lernprozess. Und an dieser Stelle fehlen vielen Unternehmen leider oft Mut, Durchhaltevermögen oder schlicht Ressourcen, die KI einfach mal machen zu lassen, um am Ende eben auch von unerwarteten Ergebnissen überrascht werden zu können.

 

Wer hat denn die neuen Umsatzsteuerwerte angepasst?

Apropos Überraschung: Seit dem 1. Juli 2020 gelten die neuen Mehrwertsteuersätze. Dadurch mussten Unternehmen ihre Sätze von 19 auf 16 und von 7 auf 5 Prozent anpassen. Nach diesen Änderungen müssen Firmen nun teilweise fünf verschiedene Steuersätze berücksichtigen (zusätzlich noch die 0 Prozent), je nachdem, ob die Rechnungen vor oder bereits nach der Anpassung ausgestellt wurden. Das klingt auf jeden Fall nach neuen Aufwänden in der Rechnungsverarbeitung, sowohl für die Unternehmen als auch für deren Dienstleister.

Bernd Kullen, KI-Experte bei AFI Solutions, hat in dieser Beziehung ein überraschendes Phänomen im Cloud-Service der AFI Solutions festgestellt: „Im cloudbasierten AFI DocumentHub werden Belege mit Hilfe unserer AFI KI verarbeitet. Bei unseren Kunden haben wir dort festgestellt, dass die aktuellen Mehrwertsteuersätze bereits richtig erkannt wurden, obwohl die Ergänzung der neuen Sätze in der Erkennung noch gar nicht vorgenommen wurde.“

Wie konnte das passieren?
War hier etwa die künstliche Intelligenz am Werk?

Bernd Kullen erklärt: „Dadurch, dass wir im DocumentHub unsere AFI KI im Einsatz haben, gibt es für viele Rechnungen Kandidaten, die sich auch für die Erkennung von Rechnungssummen anwenden lassen. Dort werden keine Inhalte gespeichert, sondern geografische Informationen – also was befindet sich wo auf dem Dokument. So können sich die Inhalte eines trainierten Werts unterscheiden beziehungsweise ändern, was eben zu dieser automatischen Übernahme der neuen Mehrwertsteuersätze geführt hat.“
Dass die über die KI erkannten Werte dann auch rechnerisch zusammenpassen, stellt eine Plausibilitätsprüfung der gelesenen Summen sicher. Damit ist die manuelle Anpassung der zu erkennenden Steuersätze quasi überflüssig geworden.“


Ein überraschendes Ergebnis: Keiner hat der AFI KI gesagt, dass sie das tun soll. Aber über das automatische Belegtraining im AFI DocumentHub hat sie es sich einfach selbst beigebracht. Überraschend ist zudem, dass dies alles nicht in einem Labor unter Versuchsbedingungen, sondern sozusagen »in freier Wildbahn« stattgefunden hat.
Sicher, auch Kullen sieht in seiner Arbeit mit der AFI KI noch einige Optimierungspotenziale: „Wenn man länger mit einer Künstlichen Intelligenz arbeitet, wird einem erst bewusst, wie schnell wir Menschen gewisse Sachverhalte zum Beispiel auf einer Rechnung schon beim Überfliegen des Dokuments erfassen sowie als korrekt oder fehlerhaft beurteilen können – und wie schwer sich dabei eine KI mit ihren vorhandenen Werkzeugen tut. Hier sind viele Kunden oft erst einmal von den Ergebnissen der KI enttäuscht, da sie von einer Künstlichen Intelligenz im Vorfeld mehr erwartet haben.“

Doch dank solcher Ergebnisse erhalten Künstliche Intelligenzen eine Daseinsberechtigung und liefern gleichzeitig Argumente dafür, auch bei anderen Kunden oder in weiteren Produkten und Anwendungsbereichen eingesetzt zu werden. Nicht umsonst gilt die KI als Schlüsseltechnologie, um Türen für künftige Entwicklungen wie etwa selbstfahrende Autos oder intelligente Operationsroboter zu öffnen.

Bernd Kullen: „Wir bei AFI Solutions sind gespannt, wie sich unsere KI weiterentwickeln wird, und freuen uns schon auf die nächsten Überraschungen. Mein Rat an alle, die mit KI-Systemen arbeiten wollen, lautet: Habt Mut zu experimentieren und eben auch zu scheitern – und gebt nicht zu schnell auf.“

 

Quellen:

1https://www.gruenderszene.de/allgemein/musk-walsh-ai
2https://www.youtube.com/watch?v=LY7x2Ihqjmc&feature=emb_logo
3
Vgl. IDC-Umfrage: “Artificial Intelligence Global Adoption Trends & Strategies”, 2019, https://www.idc.com/getdoc.jsp?containerId=prUS45344519&utm_medium=rss_feed&utm_source=Alert&utm_campaign=rss_syndication
4 Vgl. dazu: https://t3n.de/news/go-meister-tritt-wegen-ki-alphago-1227803/
5
Zeit Online, Eike Kühl: „Eine Sprache macht noch keinen Terminator“, 02.08.2017, https://www.zeit.de/digital/internet/2017-08/kuenstliche-intelligenz-sprache-lernen-facebook-chatbot
6https://www.vice.com/de/article/pgxb97/eine-neue-google-ki-wird-hochaggressiv-wenn-sie-denkt-sie-verliert
7 Siehe: https://de.wikipedia.org/wiki/Tay_(Bot)
8 Siehe: https://de.wikipedia.org/wiki/Alan_Turing
9
Vgl. Beitrag auf www.spiegel.de, Matthias Kremp: „Diese künstliche Intelligenz schreibt beängstigend gut“ https://www.spiegel.de/netzwelt/web/talk-to-transformer-kuenstliche-intelligenz-schreibt-texte-fertig-a-1295116.html

Marian Spohn

Redakteur im Marketing

 

Ab sofort keinen Newsletter
mehr verpassen!

Jetzt anmelden und regelmäßig von nützlichen Praxistipps, Informationen zu neuen Produkten sowie bestehenden Lösungen, interessanten Erfahrungsberichten und Frühbucherrabatten zu unseren Events profitieren. Wir halten Sie auf dem Laufenden und das alles ganz unverbindlich!


*Pflichtfelder

x

Stellenangebot weiterempfehlen

Sie kennen jemanden, den dieses Stellenangebot interessieren könnte?
Dann weisen Sie diese Person doch mit nur einem Klick einfach darauf hin!

Jetzt per E-Mail empfehlenx

Rückruf-Service

Sie möchten, dass wir sie zurückrufen? Schicken Sie uns einfach Ihre Telefonnummer. Wir rufen Sie schnellstmöglich zurück.

*Pflichtfelder

x

Ups, leider ist Ihr Browser veraltet!

Unsere nigelnagelneue Webseite wurde für die neuesten Technologien entwickelt und steht daher nicht in vollem Umfang für veraltete Browser (z.B. Internet Explorer) zur Verfügung.

Damit unsere Seiten korrekt wiedergegeben werden, richtig funktionieren und damit so richtig Spaß machen, empfehlen wir Ihnen, einen der folgenden Browser zu installieren:

  • Google Chrome
  • Microsoft Edge
  • Mozilla Firefox

Ihre AFI Solutions

x