Haben Sie eine Empfehlung dazu, wie das Rantasten aussehen kann?

Ich empfehle da, in Babyschritten vorzugehen und zu prüfen, wie sich existierende Use Cases mit dem cleveren Einsatz von Machine Learning und historischen Daten Stück für Stück automatisieren lassen und so Arbeit gespart werden kann.

Und konkret?

Ein simples Beispiel: Unsere Kunden müssen jeden Tag Kategorien mappen. Das heißt, ein Händler hat einen Verzeichnisbaum, der etwa Herrenmode – Sport – Shirts heißt. Bei Amazon heißt der gleiche dann zum Beispiel Men’s Apparel – Sports – T-Shirt. Die müssen übereinander gelegt werden. Das ist heute ein händischer Prozess, bei dem zumindest am Anfang jemand aus dem Produktmanagement die Verknüpfung herstellen muss. Solche Tätigkeiten sind perfekt dafür geeignet eine Maschine anzulernen. Schau mal, hier sind 80 Millionen Datensätze mit Verknüpfungen aus der Vergangenheit. Jetzt lerne, wie die Zuordnungen funktionieren. Wir müssen schon auf 95, 96 Prozent Trefferquote kommen, damit nicht nochmal ein Mensch nachkontrollieren muss.

Ein Bereich, in dem ich auch interessante Beispiele gesehen habe, war Kundensupport, etwa bei Airlines.

Ja, Chatbots für Airlines sind natürlich auch ein Use Case. Mit direkter Systemanbindung können Nutzer dann direkt Fragen klären wie "kann ich einchecken?", "kann ich umbuchen?", "wo ist mein Gepäck?".

Es gibt ja ein in Frühphasen typisches Phänomen, für das Chatbots ein gutes Beispiel darstellen. Viel klingt in der Theorie total spannend, in der Umsetzung ist es dann aber komplexer als gedacht und erfordert viel händische Unterstützung. Wann verlässt das die Babyschritte-Phase?

Googles Genauigkeit bei Spracherkennung hat sich in den letzten sechs Jahren von 80 Prozent auf 95 Prozent erhöht. In den nächsten fünf Jahren glauben sie, bis auf 98 Prozent zu kommen. Das ist Wahnsinn, weil das ganz viele Abstrahleffekte auf andere Bereiche haben wird. Shopping, Taxi bestellen, diktieren. Das funktioniert heute ehrlicherweise alles mittelmäßig. Aber mit höherer Genauigkeit ändert sich das.

Von der Genauigkeit und den verfügbaren Daten abgesehen, welche Hemmschwellen gibt es noch?

Daten so zu strukturieren und aufzubereiten, dass sie zum Trainieren von künstlicher Intelligenz geeignet sind, ist aufwendig. Zudem ein ganz genereller Punkt: Bei uns,  mangelt es heute auch noch an Nachwuchstalenten in dem Bereich. Ich war letztes Jahr in den USA zufällig auf einem Machine Learning Meetup. Da waren ca. 100, 150 Leute, die einem Dozenten aus Berkeley zugehört haben. Ich konnte dem Dozenten etwa zehn Minuten folgen, danach hat er mich völlig abgehängt. Das Publikum hat danach ultraspezifische Fragen gestellt.

Ich kam mir vor, als wäre ich Mitte der 90er der Einzige im Raum, der nicht weiß, wie man eine Website erstellt. Ich meine, ich habe Informatik studiert und bin selbst Entwickler. Aber das war auf so einem spezialisierten Level, dass mir das nicht zugänglich war. Die Disziplin Machine Learning und Data Science ist sehr anders, auch von der Programmierung her. Dafür brauchen Sie Spezialisten. In Berlin kenne ich nur eine Handvoll Leute, die auf diesem Level sind.

Mehr zum Thema Chatbots im Marketing lesen Sie in Teil 3 der dreiteiligen KI-Serie in Ausgabe 34 der W&V. Bestellen können Sie die drei Ausgaben der Serie hier.


Autor:

Ralph Pfister
Ralph-Bernhard Pfister

Ralph Pfister ist Koordinator am Desk der W&V. Wenn er nicht gerade koordiniert, schreibt er hauptsächlich über digitales Marketing, digitale Themen und Branchen wie Telekommunikation und Unterhaltungselektronik. Sein Kaffeekonsum lässt sich nur in industriellen Mengen fassen. Für seine Bücher- und Comicbestände gilt das noch nicht ganz – aber er arbeitet dran.