Archiv der Kategorie: Technik

Cloud Computing unter Hochspannung

Produktivitätssteigerung ist das Mantra des Cloud Computing. Das zeigen die Überschriften von aktuellen Fachveröffentlichungen. Als kleine Auswahl: Wie Cloud Computing die Produktivität ihres Recruiting steigert. Produktivität steigern durch Automatisierung. Wie der Digital Workplace produktiver macht. Die Cloud als zentraler Produktivitätsfaktor. Usw. usf. 

Doch wo genau erzeugt die Cloud eine höhere Produktivität? Diese Frage ist nicht ohne weiteres zu beantworten. Zumindest aus der Sicht der Gesamtwirtschaft wächst die Arbeitsproduktivität seit Jahrzehnten kaum noch. Eine erklärungsbedürftige Entwicklung, denn genau in diesen Zeitraum fällt die flächendeckende Verbreitung von Informationstechnologie. Trotz ihres großen Produktivitätsversprechens scheint es, als seien Unternehmen kaum produktiver geworden.

Dieser Zusammenhang wird auch als das Produktivitätsparadoxon der Informationstechnologie bezeichnet. Es gibt eine Menge Hinweise darauf, dass die Hypothese stimmt. Ein alltägliches Beispiel: Office-Software verlagert die Arbeit am Inhalt auf Gefrickel an der Form. Dadurch wird ein simpler Bericht zum Zwischenstand eines Projekts zu einem Hochglanzdokument in Magazin-Optik. Kostete ein solcher Bericht in den frühen achtziger Jahren vielleicht 500 Mark an Material und Arbeitseinsatz, so geht es heute in den vierstelligen Bereich – da ist sie hin, die Arbeitsproduktivität.

Einfach Cloud? Nein, hybride Multi-Cloud

Um die Frage nach der Produktivität der Cloud wenigstens einigermaßen beantworten zu können, zunächst ein Blick auf eine wichtige Stoßrichtung von Cloud Computing: Der Ersatz selbstbetriebener IT durch eine neue Form von Outsourcing. Am deutlichsten ist dies bei Geschäftsanwendungen, die im Browser genutzt werden. Software as a Service (SaaS) ersetzt lokal installierte Programme. 

Zunächst einmal ist das eine Win-Win-Situation. Der Hersteller der Software erspart sich den Aufwand für die Distribution. Es gibt nur noch ein Release, dessen einzige Instanz gepflegt und weiterentwickelt wird. Updates stehen allen Nutzern sofort zur Verfügung. Admins in Unternehmen müssen keine Software verteilen, kein Patchmanagement betreiben und nur vergleichsweise wenige Computerressourcen bereithalten.

Doch der Rückschlag folgt auf dem Fuße. Durch die Möglichkeit der schnellen Releases hat sich eine Featuritis breitgemacht, sowohl bei einzelnen Cloudservices als auch im Gesamtmarkt. Inzwischen gibt es für jedes nur denkbare Problem irgendeine Cloudanwendung. Kanban-Boards online? Kein Problem mit Trello. SEO-Texte unkompliziert verfassen? Searchmetrics steht bereit. Sprachaufzeichnungen transkribieren? Hier lang zu Trint.

Und das ist nur SaaS. Wer sein Rechenzentrum abschaffen möchte, kann Cloudinfrastruktur bei fünf großen und Dutzenden kleineren Anbietern buchen. Der Funktionsumfang der Marktführer ist gigantisch, ihre Leistungsfähigkeit ebenso und viele ihrer Spezialfunktionen sind konkurrenzlos. So nutzen Unternehmen häufig zahlreiche SaasS-Anbieter und Infrastrukturservices zur gleichen Zeit – die viel zitierte Multi-Cloud ist entstanden.

Sie ist außerdem oft eine Mischung aus lokalen und wolkigen Anwendungen – die Hybrid-Cloud. Der Grund: Zumindest in den KRITIS-Branchen dürfen viele Cloudanwendungen nur in einer Private Cloud im eigenen Rechenzentrum betrieben werden. Die EU-Datenschutzregeln fügen dem weitere strenge Anforderungen hinzu, sodass viele internationale Clouds ungeeignet sind. Was aber ihre Nutzung nicht verhindert, wenn es um nicht datenschutzrelevante Informationen geht.

Die Cloud: Nicht weniger komplex als früher, nur anders

Die Unternehmen befinden sich also in einem Dilemma: Auf der einen Seite machen Cloudservices tatsächlich vieles einfacher. Auf der anderen erhöhen sie die Komplexität der IT auf neue Weise, etwa durch eine aufwändige Konfiguration und Integration der Cloudservices. Bereits ein scheinbar simpler Service wie Microsoft Office 365 Enterprise erweist sich beim näheren Hinschauen als Labyrinth, das ebenso kenntnis- wie trickreiche Admins erfordert. 

Eine Explosion der Komplexität ist zudem die Folge, wenn zusätzlich zur Public Cloud auch selbstbetriebene Anwendungen wie die SAP-Suite und eine Private Cloud zu einem stabilen und leistungsfähigen Ganzen integriert werden sollen. Hier endet dann das Versprechen der Cloud, IT ganz einfach zu machen. Denn ohne Know-how und Erfahrung geht nichts. Die beim Auflösen des eigenen IT-Betriebs freigesetzten Admins sind zur Vordertür hinaus und zur Hintertür wieder hereingekommen. In vielen großen Unternehmen ist sogar das Gegenteil einer Vereinfachung passiert: Die Kosten für Investitionen und Personal in der IT steigen seit Jahren.

Zudem wächst auch der Beratungsbedarf. Ein Beispiel ist die Highend-Cloudanwendung Salesforce. Sie ist an ihrer Basis immer noch eine einfach zu nutzende CRM-Lösung, bietet aber zudem viele neue Möglichkeiten rund um Kundenservice, Social Media und interne Zusammenarbeit. Wenn ein Unternehmen diesen Mehrwert nutzen will, muss es zuerst auf den Prüfstand. So setzen viele Möglichkeiten von Salesforce auch entsprechende Strukturen voraus. Wer zum Beispiel die inhaltliche Expertise nicht im Haus hat, kann mit den entsprechenden Funktionen nur wenig anfangen.

Beratungsbedarf: Cloudservices in Etappen einführen

Im zweiten Schritt muss der Nutzer Salesforce an die bestehende digitale Infrastruktur anpassen, meint Florian Gehring, Gründer des Consulting-Unternehmens Salesfive, das sich auf Beratung von Salesforce-Nutzern spezialisiert hat. Ein boomender Sektor: Seit der Gründung 2016 ist das junge Unternehmen auf knapp 70 Mitarbeiter angewachsen und hat weit über 250 erfolgreiche Beratungsprojekte verwirklicht. Der Kundenstamm reicht dabei von Startups über Hidden Champions aus dem Mittelstand bis hin zu Konzernen.

„Salesforce ist gut darin, die Komplexität der Cloud von den Anwendern abzuschirmen“, sagt Gehring. „Man muss kein Entwickler oder Informatiker sein, um Salesforce richtig aufzusetzen. Die Setup-Konsole funktioniert wie ein Baukastensystem und führt die Nutzer zuverlässig zum Ziel.“ Das sei auch das Prinzip von Salesforce, die Anwender sollten möglichst viel selbst machen. Der Salesfive-Gründer betont: Die eigentliche Komplexität entstehe auf einem anderen Feld.

„Salesforce hat ein offenes Ökosystem aufgebaut, in das die Nutzer sehr viele verschiedene andere Systeme integrieren können“, erklärt Sven Strehlke, Mitgründer von Salesfive. „Dazu muss aber ein Digitalisierungskonzept definiert werden. Hier liegt unsere eigentliche Beratungsleistung.“ Seiner Meinung nach holen im Moment noch nicht alle Nutzer das Maximum aus Salesforce heraus. Das könne sein, weil sie die Komplexität der Möglichkeiten nicht überblicken oder weil sie Unterstützung bei der Integration von Drittsystemen benötigen.

In der Praxis arbeiten die Berater von Salesfive vorwiegend in Multi-Cloud-Projekten, bei denen Komplexität selbstverständlich ist. Hinzu kommt, dass Salesforce neben CRM auch Service, Marketing, Commerce, verschiedene Industrielösungen und vieles mehr anbietet – und auch immer mehr Kunden darauf zugreifen. Dahinter verbergen sich große Change-Projekte: „Es ist wichtig, ein iteratives und agiles Verfahren zu wählen, bei dem die Stakeholder eingebunden werden.“ sagt Strehlke. „Es gibt einen enormen Beratungsbedarf, vor allem im Mittelstand. Dort arbeiten sehr viele Unternehmen noch mit einer Kombination aus Notizblock und Excel.“

Cloudproduktivität lässt sich nur schwer messen

Dieser Ausflug in das Salesforce-Ökosystem zeigt, dass die Zeiten einfacher Lösungen vorbei sind. Wenn ein Unternehmen von der Cloud profitieren will, muss es zu 100 Prozent auf sie setzen. Umfassende Digitalisierung ist gefragt. Wer noch Papierschnittstellen und Excel-Basteleien nutzt, verschenkt viel Potenzial.

Und was ist mit der Produktivität? Vermutlich ist das Produktivitätsparadoxon nur ein Trugbild. Es basiert auf einer Vorstellung von Produktivität, die auf Messungen zurückgeht. Alles, was sich nicht (ohne weiteres) messen lässt, fällt demnach nicht unter die Produktivität. Denn der eigentliche Vorteil der Entwicklung des Cloud Computing in den letzten 15 Jahren liegt nicht in einer Produktivitätssteigerung, die an simplen KPIs ablesbar ist. Sie liegt in den neuen Möglichkeiten, die uns ohne Cloud nicht verfügbar wären. 

Ein Beispiel: Vor 25 Jahren wurden im Marketing in erster Linie Broschüren per Post versendet. Damals gab es noch keine Nahe-Echtzeit-Kommunikation via Facebook oder LinkedIn. Sie ist chancenreich, aber auch kostenträchtig – vor allem beim Personal. Die Idealvorstellung ist ein Newsroom mit 24×7-Besetzung, der im Notfall zu jeder Tages- und Nachtzeit aggressiv aufgeschaukelte Diskussionen glättet. 

So machen heute oft zwei Dutzend Leute eine Aufgabe, die es vor einem Vierteljahrhundert gar nicht gab. Aus einer stark vereinfachten Sicht heraus macht das Marketing heute nichts anderes als früher™, aber mit dem zigfachen Personal und entsprechend höheren Gestehungskosten. Die entscheidende Frage bei der Produktivität der Cloud: Welche Aufgaben ermöglicht sie. Es geht nicht darum, einen fixen Bestand an Arbeit auf weniger Köpfe zu verteilen. Es geht darum, in einem durch Digitalisierung und Informationstechnologie bestimmten Alltag zu arbeiten.

Bildquelle: Pixabay

IT-Sicherheit: Ein Abstieg in die Hölle

Im September 2017 gab der US-Finanzdienstleister Equifax einen Hacker-Angriff bekannt, bei dem Daten von mehr als 145 Millionen Kunden aus den USA, Kanada und Großbritannien entwendet wurden, in einigen Fällen auch Kreditkartendaten. Aufgrund zahlreicher Klagen mit Schadenersatzforderungen in Höhe von 70 Milliarden, hat Equifax Ende Juli 2019 mit der Federal Trade Commission (FTC) einen Vergleich geschlossen. Die Gesamtkosten umfassen 300 Millionen Dollar für einen Fonds zur Entschädigung der Betroffenen sowie Strafzahlungen von 175 Millionen Dollar an die Bundesregierung und 100 Millionen Dollar an die Behörde zum Verbraucherschutz in Finanzsektor.

Doch wie sieht ein solcher Sicherheitsbruch von innen aus? Das YouTube-Video zeigt den Vortrag des neuseeländischen IT-Security-Experten Shahn Harris, der zur fraglichen Zeit für die IT-Sicherheit bei Equifax Neuseeland verantwortlich war. Er stand dabei nicht im Zentrum. Er war anfangs nicht einmal informiert, obwohl er zur fraglichen Zeit auf einer internen Security-Konferenz in der US-Zentrale von Equifax war. Den Sicherheitsbruch hat er durch die Medien erfahren. Doch dann begann für ihn und sein Security-Team der Abstieg in die Hölle: Druck, Hektik und 18-Stunden-Tage. Das Video ist ein interessanter Einblick in eine Security-Krise, wie sie zahlreiche Unternehmen jeden Tag treffen könnte.

Ein Sicherheitsbruch von unten: Druck, Hektik und 18-Stunden-Tage

Bildquelle: Pete Linforth / Pixabay

Künstliche Vorurteile & ihre Vermeidung

So stolperte Amazon in die Bias-Falle: Seit 2014 hat ein Team aus einem guten Dutzend Maschine-Learning-Spezialisten in Edinburgh an einer KI-Anwendung gewerkelt, die anhand von Bewerbungsunterlagen geeignete Kandidaten ermitteln sollte. Das Problem dabei: Die KI wertete Frauen ab und fischte aus dem digitalen Bewerbungsstapel lediglich die Männer heraus.

Der Grund: Eine Verzerrung („Bias“) der Trainingsdaten. Machine-Learning-Modelle müssen anhand von „korrekten“ Beispieldaten trainiert werden, etwa den Bewerbungsunterlagen von erfolgreichen Mitarbeitern. Da es hier aber um technische Berufe ging, spiegelt der Trainingsdatensatz deren Problematik wieder: Männer stellen die Mehrheit. Das Modell hat also gelernt, dass ein wichtiges Merkmal erfolgreicher Kandidaten das männliche Geschlecht ist.

Das Problem von Amazon zeigt, dass die Auswahl der Trainingsdaten entscheidend ist für den Erfolg einer KI-Anwendung. Mit dem richtigen Dataset kann die KI-Anwendung korrekt arbeiten – egal, ob es um Kandidatenauswahl oder jede andere Art von Aufgabe geht. Doch einfach ist die Bestimmung eines Dataset nicht, es können eine Reihe von Schwierigkeiten auftauchen.

Repräsentativität – Verzerrung durch Auswahl der Daten

Ein Dataset muss für seinen Anwendungsbereich repräsentativ sein, also (annähernd) vollständig über sämtliche möglichen Merkmale und Merkmalskombinationen streuen. Sonst kommt es zu schlechten Ergebnissen: Da gab es diese KI, die Schiedsrichter in einem Schönheitswettbewerb spielen sollte. Natürlich ist sie mit Fotos von Models trainiert worden, doch „Persons of Color“ waren dabei unterrepräsentiert. Und so wurden nur europäisch oder asiatisch aussehende Menschen als schön gekennzeichnet.

Doch wie erhält man einen repräsentativen Datensatz? Lediglich möglichst viele Daten zu sammeln, führt nicht weiter. Auch eine noch so große Datenmenge bewirkt nicht, dass der Datensatz insgesamt repräsentativ für etwas ist, was in der Soziologie „Grundgesamtheit“ heißt. Damit ist der Bereich gemeint, für den diese Daten eine Aussage treffen sollen – beispielsweise die Grundgesamtheit „deutsche Gesellschaft“ oder „Verbraucher zwischen 16 und 46“.

Damit eine valide Aussage entsteht, muss die Auswahl des Datensatzes zufällig sein, ohne Regeln, Voraussetzungen oder Vorurteile. Eine reine und wissenschaftlich korrekte Zufallsauswahl ist in der Praxis allerdings unmöglich. Data Scientists müssen also auf eine Heuristik zurückgreifen, bei der Merkmalsvielfalt und Vollständigkeit wichtige Kriterien sind. Was das genau bedeutet, hängt vom Anwendungsbereich ab. So müsste eine Computer-Vision-Anwendung, die Hunde von Katzen unterscheiden kann, für ihre Trainingsdaten Fotos von allen möglichen Hunde- und Katzenrassen präsentiert bekommen.

Framing – Verzerrung in der Realität

Ein weiteres heuristisches Kriterium ist Framing: Der Realitätsbereich, in dem die KI-Anwendung eingesetzt wird, ist häufig bereits verzerrt. Die Amazon-KI ist ein gutes Beispiel dafür. Technische Berufe sind üblicherweise sehr stark männlich „geframet“. Dies beginnt beim geringen Interesse der Mädchen für MINT-Fächer in den Schulen, setzt sich in den entsprechenden Studiengängen fort und wird schließlich zur Realität des überwiegend männlichen Berufs.

Es ist offensichtlich, dass hier Talente verloren gehen. So ist es für die Kandidatenauswahl eine gute Idee, gleich viele Profile von Männern und Frauen als Trainingsdatensatz zusammenzustellen. Doch das Framing betrifft nicht nur das Geschlecht. Ein anderes Merkmal könnte der (Aus-)Bildungsabschluss sein. In einem „ungeframeten“ Datensatz könnten unter Umständen auch Kandidaten ohne Hochschulabschluss oder Quereinsteiger ganz ohne formelle Abschlüsse vorkommen.

Das zeigt, dass die anfängliche Entscheidung über Ziel und Aufgabe der KI-Anwendung wichtig ist. Wer die Wirklichkeit lediglich abbilden will, muss auf Repräsentativität des Datensatzes achten, wer normative Ziele hat, eher auf eine mögliche Verzerrung das Realitätsbereichs. Wenn beispielsweise eine KI-Anwendung zur Auswahl von Bewerbern dafür sorgen soll, dass normalerweise wenig berücksichtigte Kandidaten eine größere Chance bekommen, muss der Datensatz entsprechend korrigiert werden.

Bestätigungsfehler – Verzerrung durch Vor-Urteile

Hier taucht allerdings sofort das nächste Problem bei der Auswahl von Daten auf: Der Bestätigungsfehler. Er kann in drei unterschiedlichen Varianten vorkommen:

  • Die Daten werden intuitiv ausgewählt, weil sie sich „richtig anfühlen“ und mit den Vorannahmen des Auswählenden übereinstimmen. Das Ergebnis der KI-Anwendung ist dann genau das, was der menschliche Nutzer „immer schon wusste“. In diesem Fall fehlt es an einem genauen Konzept zur Daten- und Merkmalsselektion und der Aufmerksamkeit für Verzerrungen.
  • Die Daten werden systematisch so ausgewählt, dass sie zu dem vermuteten oder gewünschten Ergebnis passen. Leider passiert das häufig in Unternehmen: Eine in der Hierarchie höher stehende Person akzeptiert nur eine bestimmte Datenauswahl und erreicht damit das erwartete und nützliche Ergebnis.
  • Die Daten besitzen einen unerkannten Bias und werden auch für den Test des Neuronetzes genutzt. Diese Vorgehensweise ist häufig, ein Dataset wird geteilt und je die Hälfte zum Training und zum Überprüfen der Ergebnisse eingesetzt. In diesem Fall bestätigt sich der Bias in einem vermeintlich validen Ergebnis – Entwickler kennen das als „Garbsage in, Garbage out“.

Der letzte Punkt ist besonders wichtig. Ein ML-Modell sollte möglichst immer an Daten getestet werden, die entweder direkt aus der Praxis kommen oder auf andere Weise gewonnen werden. In der Bilderkennung beispielsweise sollten die Datasets aus unterschiedlichen Quellen kommen, um mögliche VErzerrungen besser zu erkennen.

Seltene Ereignisse – Verzerrung durch den Faktor Zeit

Eine weitere Form der Verzerrung ist das Problem der seltenen Ereignisse, das besonders für autonome Fahrzeuge kritisch ist. Ihre ML-Modelle werden mit Aufzeichnungen von Fahrsituationen trainiert, etwa Videodaten aus Fahrerperspektive oder 360°-Darstellungen von Lidar-Scannern, die Bilder mit Laser-Abtastung erzeugen. Waymo und andere Entwickler autonomer Fahrzeuge zeichnen jede gefahrene Meile auf und bauen so nach und nach einen Datensatz aus alltäglichen Fahrsituationen auf.

Inzwischen sind diese Datasets gigantisch und erfassen viele, aber leider nicht alle denkbaren Fahrsituationen. Denn jeder menschliche Autofahrer kennt seltene Ereignisse – etwa der bunte Spielzeugball, der über die Straße rollt und Sekundenbruchteile später von einem rennenden Kleinkind verfolgt wird. Wie oft erlebt jemand diese Situation in seinem Leben tatsächlich? Keinmal, einmal, zweimal? Die meisten wohl selten. Trotzdem reagiert jeder Mensch sofort richtig. Damit eine Auto-KI diese Situation zweifelsfrei erkennt, müssen die Trainingsdaten eigentlich viele Varianten enthalten, etwa rollende Bälle unterschiedlicher Größe, Spielzeuge mit Rädern oder Haustiere.

Nur: Seltene Ereignisse in der Realität sind in einem durch Beobachtung erzeugten Dataset ebenfalls selten. Dies zeigte sich an einem tragischen Unfall mit einem autonomen Auto. Die KI erkannte die Gefahr nicht, als eine Frau nachts bei schlechter Beleuchtung ihr Fahrrad quer über eine mehrspurige Straße schob. Es gibt kaum einen Ausweg, als einfach immer weiter echte Fahrdaten zu sammeln. Deshalb ist hier ausnahmsweise die Größe des Datensatzes recht wichtig. Den größten hat Tesla, aus diesem Grunde sprechen einige KI-Experten dem Unternehmen von Elon Musk Vorteile bei der Entwicklung eines autonomen Autos zu.

Das ideale Dataset gibt es nicht

Die oben geschilderten Verzerrungen in Datasets sind nur einige Probleme. Es gibt noch weitere Verzerrungen, die in vielen Situationen zu Schwierigkeiten führen: Zu wenige geeignete Daten trotz eines großen Datasets, fehlerhafte Daten, den Mittelwert verzerrende Extremwerte, zu strenge oder zu schwache Auswahlkriterien für Daten, falsch ausgewählte Merkmale für das Training und einiges mehr.

Ohne Sorgfalt und Überlegung bei der Auswahl der Daten wird es nicht gelingen, durch das Training ein valides ML-Modell zu erhalten. Es gibt jedoch ein paar Daumenregeln. Sie helfen unter anderem dem Management eines Unternehmens, Voraussetzungen und Konsequenzen der jeweiligen Maschine-Learning-Anwendungen zu verstehen.

  • Ein sehr großes (Millionen Entitäten) Dataset ist keine Garantie für gültige Ergebnisse. Allerdings muss ein sehr klein wirkendes (wenige 100 Entitäten) Dataset besonders kritisch geprüft werden.
  • Annahmen und Voraussetzungen müssen geklärt werden. Es ist sinnvoll, in der Vorbereitungsphase eines ML-Projekts zu beschreiben, welche Annahmen für den Aufgabenbereich gelten und welche in den Trainingsdaten versteckt sein könnten.
  • Trainingsdaten sollten einerseits zufällig ausgewählt werden und andererseits möglichst breit streuen. Historische Daten aus dem eigenen Unternehmen sind oft weniger geeignet, da sie spezifische Verzerrungen enthalten können. Die finden sich dann in den Ergebnissen wieder.
  • Videobeobachtungen enthalten nur das, was tatsächlich beobachtet wurde und nicht das, was insgesamt beobachtet werden kann. Sie sind mit Vorsicht zu genießen, profitieren allerdings von der Größe des Datasets.

Quellen

  1. 7 Common Biases That Skew Big Data Results (Information Week)
  2. AI can Help Create a Better World. If we Build it Right (SingularityHub)
  3. AI has a bias problem that needs to be fixed (World Economic Forum)
  4. Amazon scraps secret AI recruiting tool that showed bias against women (Reuters)
  5. Four Mistakes You Make When Labeling Data (Towards Data Science)
  6. Four Types of Machine Learning Bias (Alegion)
  7. Problems in Machine Learning Models? Check your Data First (Towards Data Science)
  8. This is How AI Bias Really Happens and why it’s so Hard to Fix (Technology Review)
  9. To fix algorithmic bias, we first need to fix ourselves (Quartz)
  10. Towards Fairness in ML with Adversarial Networks (Go Data Driven)
  11. We need to build machine learning tools to augment machine learning engineers (O’Reilly Radar)

Bildquelle: Secondside / Adobe Stock

Vom Urknall zum Leerraum

(c) Rogelio Bernal Andreo / Nasa Image Gallery

Vor 50 Jahren bauten Menschen mit vier Computern das Internet. Dies war die Sekunde Null des digitalen Universums, der Urknall. Es folgten eine Expansionsphase, das Erscheinen von seltsamen Attraktoren und schließlich das Ende als weitgehend ungenutzte Leere.

1969: Der Urknall des Internets mit vier Computern

Die Geschichte des Internet beginnt in den späten 60er Jahren in den USA. Die dem amerikanischen Verteidigungsministerium unterstellte ARPA („Advanced Research Projects Agency“) subventionierte Entwicklungen im Bereich der Computervernetzung. Die ARPA begann 1969, die Rechner der verschiedenen militärischen und akademischen Einrichtungen in den USA untereinander zu vernetzen. Das Netz trug den Namen ARPAnet und bestand anfangs aus lediglich vier Rechnern.

Das ARPAnet wuchs langsam, aber stetig. Schnell zeigte sich, dass nicht nur das Verteidigungsministerium einen Bedarf an Vernetzung hatte: Weitere Organisationen, Regierungsdienststellen und eine Reihe von Firmen aus dem Sektor Netzwerktechnologie wollten teilhaben. Um dem gestiegenen Bedarf gerecht zu werden, wurde die bestehende Netzstruktur aus etwas mehr als 50 Rechnern ab 1973 auf ein neues und speziell für das ARPAnet entwickelte Protokoll umgestellt: IP, das Internet Protocol. Es ist heute noch die technische Basis des Internets.

Anfang 1981 bestand das ARPAnet aus 213 Rechnern. Die militärischen Teile gliederten sich in einem eigenen Unternetz namens Milnet aus. Das ARPAnet als Ganzes wurde seit etwa 1983 immer öfter als „Internet“ bezeichnet. Auch international schritt die Vernetzung fort und seit Mitte der achtziger Jahre wurden überall auf der Welt verstärkt IP-Netze aufgebaut und mit dem amerikanischen Internet verbunden. 1989 waren etwa 80.000 Rechner am Internet angeschlossen – in der Überzahl Universitäten, staatliche Einrichtungen und Forschungsinstitute.

[toggle title=“Grafik: Anzahl der Computer im Internet“]

Das Internet Systems Consortium hat bis vor einiger Zeit den sogenannten Internet Domain Survey durchgeführt, eine Zählung der öffentlich zugänglichen IPv4-Adressen. Das sind nicht ausschließlich Server mit einem spezifischen Angebot. Viele Rechner nutzen das Internet über eine feste IP-Adresse. Das sind oft Gateways für die Computer von Heimanwendern. Für die letzten Jahre ist dieser Survey nicht mehr zuverlässig, da die Anzahl der über IPv6-Adressen zugänglichen Rechner stark gestiegen ist. Deshalb ist Survey ausgesetzt.

[/toggle]

1992: Beginn der Expansion dank World Wide Web

Mit dem Beginn der neunziger Jahre explodierte das Internet. Anfang 1991 waren etwa 376.000 Rechner angeschlossen, 1996 bereits mehr als 21 Millionen. Dazwischen lag die Einführung des World Wide Web (WWW). Ursprünglich war das nur einer von vielen Diensten im Internet, doch inzwischen gibt es neben E-Mail eigentlich nur noch das Web. Erfunden wurde es von dem britischen Physiker und Informatiker Tim Berners-Lee. Er arbeitete Ende der achtziger Jahre am CERN in Genf und schlug der Direktion ein modernes Informationsmanagementsystem vor, das den Datenaustausch unter Forschern vereinbaren sollte.

Grundprinzip des Web ist sogenannter Hypertext: Informationen sind in  Textform auf Seiten dargestellt und untereinander mit Links verknüpft. Ein Mausklick darauf und schon taucht eine andere Seite auf, die weitere Informationen liefert. Das Web wurde binnen weniger Jahre zu einem gigantischen Erfolg, aufgrund seiner leichten Verständlichkeit, den vielfältigen Anwendungsmöglichkeiten und der Tatsache, dass Berners-Lee keine geschäftlichen Interessen mit seiner Erfindung verfolgte. Er hat damit eine kostenlos nutzbare Infrastruktur für den freien Austausch von Informationen geschaffen.

1992 ging das Web offiziell online, so dass jeder einen Webserver aufsetzen und dort irgendetwas anbieten konnte. Zunächst gab es nur zehn Webserver weltweit, ein Jahr später bereits 130 und bereits 1997 wurde die Millionengrenze überschritten. Die Entwicklung beschleunigte sich nach der Jahrtausendwende noch einmal deutlich stärker, denn es gab immer mehr Möglichkeiten im Web: Musik hören, Videos gucken, spielen, plaudern, kaufen, sich selbst darstellen und digitalen Sex haben — oder wenigstens anschauen.

2006: Das Erscheinen des seltsamen Attraktors Facebook

Soziale Netzwerke wie Friendster oder Myspace waren einer der vielen Subtrends im Web der Nuller Jahre. Vor allem Myspace hat wegen der quietschbunten und beliebig knetbaren Oberfläche rasch Millionen Fans gefunden. Doch die sozialen Netze der Anfangszeit existieren nicht mehr oder sind bedeutungslos. Nachzügler Facebook hat durch geschickte Adaption diverser Trends und eine ebenso geschickte Einkaufspolitik eine umfassende Infrastruktur aufgebaut.

Inzwischen ist ein großer Teil der Weltbevölkerung bei Facebook, Instagram oder WhatsApp vertreten. Das soziale Netzwerk von Mark Zuckerberg hat sich zu einem enormen Attraktor entwickelt, dessen Schwerkraft Nutzer in Milliardenzahl anzieht. Viele Leute kennen fast nur noch Facebook und identifizieren es mit dem Internet. Kein Wunder, kann man dort doch ohne Wechsel der Website mit Familie und Freunden plaudern, Nachrichten lesen, spielen, über Themen diskutieren und noch so manches mehr.

Durch die ebenfalls bedeutenden Plattformen Instagram und WhatsApp hat das Unternehmen Facebook einen enormen Einfluss auf die Jugendkultur und speziell auf die Internetkultur. Zwar ist das Selfie auf Myspace entstanden, aber erst die Nutzer von Instagram haben es perfektioniert und sogar zum Geschäftsmodell gemacht – der Influencer entstand. Das Unternehmen hat sogar technologische Trends umgekehrt: Der Aufstieg von WhatsApp hat den Abstieg der SMS bewirkt, die inzwischen mehr und mehr in der Nische verschwindet.

[toggle title=“Grafik: Anzahl der Websites im Internet“]

Die Menge der Websites wird über eine Domainzählung sowie zusätzlichen statistischen Erhebungen von Internet Live Stats geschätzt. Dabei ist die Anzahl der Sites nicht deckungsgleich mit der Anzahl der an das Internet angeschlossenen Computer, die diese Websites beherbergen. NetCraft hat im August 2019 etwa 8,94 Millionen solcher Computer ermittelt. Tatsächlich aktive Websites werden über eine Eigenheit des „Domain-Parking“ erkannt: Da die jeweiligen Websites über Vorlagen erzeugt werden, ist ihre Struktur immer gleich.

[/toggle]

2019: Das Internet besteht aus leerem Raum

Das Internet des Jahres 2019 ist ein seltsamer Ort. Es gibt ungefähr 1,7 Milliarden einzelne Websites, aber nur ein paar Dutzend sind tatsächlich von großer Bedeutung. Hinzu kommt, dass viele Services nicht primär über eine Website genutzt werden — etwa Instragram und WhatsApp oder WeChat und TikTok aus China.

Das Bemühen dieser wenigen Websites ist es, die Nutzer anzuziehen und festzuhalten. Google muss man bei der Informationssuche oft nicht mal mehr verlassen, die wichtigsten Stichworte werden dort angezeigt. YouTube bietet alles, was sich in Form eines Videos pressen lässt — von der Mathehausaufgabe über Kochrezepte bis in zu Verschwörungstheorien. Die Nutzer verbringen Stunden dort und informieren sich häufig überhaupt nicht mehr aus anderen Quellen.

Der Rest des World Wide Web besteht in erster Linie aus leerem Raum. Mashable weist darauf hin, dass der größte Teil aller Websites aus inhaltslosen Seiten besteht, für ungenutzte und lediglich geparkte Domain-Namen. Die Anzahl der aktiven Websites liegt nur bei etwa 200 Millionen, der Wert wächst kaum noch. Der Rest ist ein einziges großes Nichts, 90 Prozent Leere und Stille.

Die Lage der KI-Forschung

State of AI 2019 Report herunterladen

Eine Suche in Google Trends zeigt es deutlich: Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI) ist weltweit ein Hype. Der Suchbegriff wird etwa doppelt so häufig abgefragt wie am Anfang des Jahrzehnts. Dabei handelt es sich nicht um einen kurzlebigen Trend. Obwohl es ganz offensichtlich gewisse Konjunkturen gibt, ist das Interesse am Suchbegriff seit einigen Jahren kontinuierlich hoch. Und wer in das Suchfeld von Google den Begriff „Artificial Intelligence“ eingibt, erhält die ersten zehn von ungefähr 436 Millionen Webseiten zu diesem Stichwort präsentiert.

Es ist nur sehr schwer möglich, hier noch einen einigermaßen fundierten Überblick zu behalten. Einen ebenso wichtigen wie interessanten Ausschnitt aus der KI zeigt der Bericht State of AI 2019. Die beiden Autoren Nathan Benaich und Ian Hogarth sind langjährige Beobachter der KI-Szene als Investoren und Wissenschaftler. Sie präsentieren nach eigener Auskunft auf 136 Seiten „einen Schnappschuss der exponentiellen Entwicklung der KI mit einem Schwerpunkt auf Entwicklungen in den letzten zwölf Monaten“. Der Bericht widmet sich fünf wichtigen Schlüsselbereichen innerhalb der künstlichen Intelligenz und präsentiert sie in den folgenden Abschnitten:

  • Research: Forschungsergebnisse und technologische Durchbrüche.
  • Talent: Berufsbilder und Personalgewinnung in der KI.
  • Industry: KI-Unternehmen und ihre Finanzierung.
  • China: Neue KI-Trends in China.
  • Politics: Die Behandlung der KI im Rahmen von Politik und Gesellschaft.

Da der Bericht nur schwer zusammenzufassen ist, habe ich einige besonders interessante Themen ausgewählt und sie jeweils in einem Kurzartikel dargestellt. Wer einen lesen möchte: Einfach auf den grauen Balken mit dem Thema klicken.

[toggle title=“Reinforcement Learning“]

Reinforcement Learning

Diese Form von Deep Learning ist in den letzten Jahren intensiv erforscht worden. Das Prinzip: Software-Agenten lernen zielorientiertes Verhalten durch Versuch und Irrtum. Sie agieren dabei in einer Umgebung, die ihnen positive oder negative Belohnungen als Reaktion auf ihre Handlungen gibt. Für das Training von neuronalen Netzwerken sind die KI-Entwickler dazu übergegangen, Computerspiele wie beispielsweise Montezuma’s Revenge (Jump’n’Run), Quake III Arena (Egoshooter) oder Star Craft II (Echtzeit-Strategiespiel) einzusetzen.

Solche Umgebungen, aber auch speziell angefertigte Computersimulationen eignen sich hervorragend dazu, Verhalten zu variieren und anschließend erfolgreiches Verhalten zu wiederholen. Darüber hinaus sind die Belohnungen bereits in die Games integriert. In der realen Welt sind variantenreiche Lernumgebungen nicht so einfach umzusetzen, etwa für die Robotik.

So hat OpenAI eine Roboterhand in einer Simulation darin trainiert, physikalische Objekte zu manipulieren. Auch das zweibeinige Gehen wird gerne in Simulationen geprobt, denn es ist weniger einfach, als wir Menschen intuitiv glauben. Um nicht regelmäßig teuren Elektroschrott zu erzeugen, werden gehende Roboter deshalb ebenfalls in Simulationen trainiert. Dabei wird unter anderem Reinforced Learning genutzt.

Simulationen und Computerspiele eignen sich gut zum Trainieren von lernfähigen Systemen, da sie kostengünstig und weithin verfügbar sind. Im Grunde kann jeder Entwickler damit arbeiten, auch ohne Risikokapital im Hintergrund. Darüber hinaus können die Spielumgebungen unterschiedlich komplex gestaltet werden. Das ist einer der Gründe, warum Open World Games wie Grand Theft Auto gerne beim grundlegenden Training von Deep-Learning-Modellen für das autonome Fahren genutzt werden.

Sind Games und Simulationen also die optimale Umgebung für das KI-Training? Sicher nicht, wie auch die Autoren des Berichts nahelegen. Denn jede simulierte Welt ist deutlich weniger komplex als die wirkliche Welt. Im Normalfall wird das Ergebnis niemals ein austrainiertes KI-Modell sein, das direkt und ohne Probleme in der Wirklichkeit eingesetzt werden kann. Die Erfahrungen mit den bisherigen KI-Anwendungen für fahrerlose Autos zeigen, dass hier auch ein altbekanntes Prinzip für die Optimierung von Prozessen gilt: Die letzten Prozent der zu trainierende Fähigkeiten machen mindestens so viel Aufwand wie der Rest.

[/toggle]

[toggle title=“Natural Language Processing“]

Natural Language Processing

Alexa, Siri & Co. haben in den letzten Jahren gezeigt, dass Natural Language Processing (NLP) recht weit fortgeschritten ist und es zahlreiche alltagstauglich Anwendungen gibt — in bestimmten Bereichen. Schwierig sind echte Dialoge mit Rückbezügen auf vorher Gesagtes. Außerdem kommt das menschliche Gehirn immer noch besser mit dem uneigentlichen Sprechen wie Ironie oder Hyperbeln zurecht. Wer mit Alexa redet, muss eindeutig und in Anweisungsform sprechen, typisch menschliche Unschärfen in der Aussage führen meist nicht zum Ergebnis.

Die Erkenntnis zahlreicher Projekte: Vortrainierte Sprachmodelle verbessern die Ergebnisse von NLP deutlich. Im Bereich Computer Vision sind damit große Erfolge erzielt worden. So werden beispielsweise viele neuronale Netze für die Bilderkennung mit ImageNet vortrainiert und erst dann mit weiterem Training an den speziellen Anwendungsfall angepasst. Dieses Dataset besteht aus momentan knapp 14,2 Millionen Bildern, die nach fast 22.000 semantischen Kategorien indiziert sind. Diese wiederum sind nach den Prinzipien der lexikalisch-semantischen Datenbank WordNet organisiert.

Eine vergleichbare Vorgehensweise ist auch bei NLP sinnvoll, denn es ist aufwendig, valide Trainingsdaten für Teilaufgaben zu entwickeln — beispielsweise das Bestellen einer Pizza, wie es Google Duplex beherrschen soll. Google hat vor einiger Zeit eine Technik für das Vortrainieren von NLP-Modellen als Open Source freigegeben. Das Ergebnis heißt BERT (Bidirectional Encoder Representations from Transformers) und basiert auf demselben Neuronetz wie Google Translator. BERT kann vergleichsweise einfach durch ein Zusatztraining an die jeweilige Aufgabe angepasst werden.

Zudem kann BERT auch durch weitere Lernverfahren ergänzt werden, beispielsweise durch Multi-Task Learning (MTL). Eine Demo dieser Möglichkeiten bietet Microsoft Research mit seinem Multi-Task Deep Neural Network (MT-DNN). Dabei werden verschiedene, aber verknüpfte Aufgaben gleichzeitig gelernt, wodurch der Lernfortschritt größer wird. Pate war hier eine Eigenheit des menschlichen Lernens: Wer bereits gut auf Inlinern skaten kann, lernt das Schlittschuhfahren deutlich schneller als jemand ohne Inliner-Erfahrung.

Der Einsatz vortrainierter Modelle hat in der Computer Vision manchen Durchbruch gebracht, Benaich und Hogarth hoffen, dass dies ebenso für das Verständnis menschlicher Sprache durch neuronale Netze gilt.

[/toggle]

[toggle title=“Rückkehr der symbolischen KI“]

Rückkehr der symbolischen KI

Das Verstehen natürlicher Sprache ist ein wesentliches Element von Sprachassistenten. Doch zahlreiche Praktiker sind mit reinen KI-Modellen über ein Problem gestolpert: Domänenwissen lässt sich einem Neuronetz nicht ohne weiteres antrainieren, denn das Training ist aufwendig und die Gewinnung von validen Datasets teuer.

Hier kommt dann ein Ansatz ins Spiel, der Mitte der achtziger Jahre als der Königsweg zur künstlichen Intelligenz galt: Symbolische KI, die unter anderem mit Verzeichnissen von Regeln und Alltagswissen arbeitet, um das Schlussfolgern aus Common-Sense-Sachverhalten zu ermöglichen. Die bekannteste Datenbank dieser Art ist Cyc und wird seit 1984 schrittweise aufgebaut.

Dieser Ansatz galt über lange Jahre hinweg als gescheitert, da selbst eine noch so große Datenbank nicht das gesamte Weltwissen enthalten kann. Doch als Partnerverfahren ist Domänenwissen inzwischen wieder wertvoll für KI. Denn eine Datenbank wie Cyc kann ein Deep-Learning-System durch Wissensprimitive ergänzen, sodass das Training sich ausschließlich High-Level-Sachverhalten widmen kann.

[/toggle]

[toggle title=“Autonome Fahrzeuge“]

Autonome Fahrzeuge

Roboterautos und andere autonome Fahrzeuge gehören zu den wichtigsten Zukunftsvisionen bei KI. Einer der Vorreiter ist Waymo, dessen autonome Fahrzeugflotte auf den US-Straßen mehr als 16 Millionen Kilometer bewältigt und dabei wichtige Fahrdaten gesammelt hat. Die Daten von weiteren 11 Milliarden Kilometern in Computersimulationen kommen hinzu. Allein im letzten Jahr haben die 110 Waymo-Wagen in Kalifornien mehr als 1,5 Millionen Kilometer bewältigt.

Hinzu kommt der Datensatz von Tesla, der durch Auswertung aller von jedem einzelnen Tesla-Modell gefahrenen Kilometer entsteht. Die genaue Fahrleistung ist unbekannt, wird aber auf mehr als zwanzig Milliarden Kilometer geschätzt. Was die Menge der Daten angeht, dürfte Tesla einen uneinholbaren Vorsprung vor der Konkurrenz haben. Hinzu kommt: Das Unternehmen entwickelt seinen eigenen KI-Chip. Die Analysten des institutionellen Investors ArkInvest schätzen, dass Teslas Konkurrenten beim autonomen Fahren drei Jahre hinterher fahren.

Es ist allerdings sehr schwer, den tatsächlichen Erfolg der einzelnen Anbieter von Robotertaxis einzuschätzen. Einen kleinen Hinweis geben die von der kalifornischen Straßenbehörde veröffentlichten Disengagement-Reports. Danach schaffen Fahrzeuge von Waymo eine Jahresfahrleistung von fast 50.000 Kilometern mit lediglich einem oder zwei Aussetzern („Disengagements“), bei denen der menschliche Testfahrer übernehmen musste. Zum Vergleich: Auch Mercedes testet in Kalifornien. Doch 2018 waren es nur vier Fahrzeuge mit wenigen hundert Kilometern Fahrleistung, aber etlichen hundert Aussetzern.

Von Tesla gibt es übrigens keine Angaben dazu. Das Unternehmen sammelt zurzeit in erster Linie Fahrdaten, vermutlich um seine Modelle in Simulationen zu trainieren. Trotz des Vorsprung: Selbst der Datensatz von Tesla ist im Vergleich zu den menschlichen Fahrleistungen winzig. So wird die Gesamtfahrleistung nur der kalifornischen Autofahrer für das Jahr 2017 auf knapp 570 Milliarden Kilometer geschätzt. Dem stehen etwa 485.000 Autounfälle gegenüber, was einem Disengagement auf jeweils 1,2 Millionen Kilometer entspricht. Kurz: Das Robotertaxi scheint noch einige Zeit entfernt zu sein.

[/toggle]

[toggle title=“Robotic Process Automation“]

Robotic Process Automation

Robotic Process Automation (RPA) hat nichts mit Robotik zu tun, sondern ist ein Verfahren der Prozessautomatisierung und nachfolgend der Kostensenkung in Unternehmen. Das klingt im ersten Moment langweilig, ist aber ein spannendes Anwendungsgebiet in der KI. Denn es wird in der Praxis bereits eingesetzt und ist zu einem Markt mit hohen Erwartungen geworden: Anbieter wie UiPath sind mit 800 Millionen Dollar und Automation Anywhere mit 550 Millionen Dollar Risikokapital ausgestattet.

Für Unternehmen, die mit der Digitalisierung ihrer Prozesse kämpfen, ist RPA eine interessante Sache. Vereinfacht ausgedrückt ersetzen RPA-Anwendungen die menschlichen Endanwender in der vorhandenen Software-Infrastruktur. Dadurch ist es möglich, Prozesse zu automatisieren, die mehrere Anwendungen übergreifen, vor allem, wenn es keine definierten Software-Schnittstellen dafür gibt. RPA-Anwendungen sind in aller Regel lernfähig, sodass sie vergleichsweise leicht auch an exotische Altysteme anzupassen sind.

[/toggle]

[toggle title=“Demand Forecasting“]

Demand Forecasting

Ein brandneues Thema ist Demand Forecasting nicht, unter dem Stichwort Bedarfsermittlung wird es bereits seit längerer Zeit mit statistischen Methoden oder Fuzzy Logic umgesetzt. Es geht dabei um die Prognose der Anforderung bestimmter Ressourcen anhand von historischen Daten. Dabei wird zunehmend Machine Learning eingesetzt, um auch externe Daten (Wetter, Verkehr, Kundenströme usw.) zu berücksichtigen.

Es gibt einige Branchen und Anwendungsgebiete, in denen Demand Forecasting erfolgreich eingesetzt wird: So ermitteln Energieversorger beispielsweise den Strombedarf anhand von Wetterinformationen, Betriebsdaten und gemessenen Leistungsanforderungen. Zur Vorbereitung auf Starkregenfälle mit anschließenden Überflutung-Szenarien erschließt Machine Learning auf der Basis von historischen hydrologischen Daten neue Wege der Vorhersage von Fluten.

In Handel, Logistik, Gastronomie, Hotellerie und Touristik ordnet Machine Learning Ressourcen deutlich flexibler zu als herkömmliche Methoden. Ein Beispiel: Die Nachfrage nach bestimmten Produkten oder Services ist unter anderem vom Wetter, der aktuellen Verkehrslage in der Region, jahreszeitlichen Trends, aktuellen Moden bei Farbe oder Form und vielen anderem abhängig. Mit Machine Learning werden solche Faktoren berücksichtigt.

Große Supermarktketten müssen täglich Entscheidungen über Aufnahme, Streichung oder Nachbestellung von Millionen Einzelposten treffen. Ohne KI-Verfahren wird dies in der Zukunft schwer möglich sein, da einfache „Daumenregeln“ zu Schnelldrehern und Produktplatzierungen die immer dynamischer werdende Nachfrage kaum noch abbilden.

[/toggle]

Tesla stolpert in die #servicehell

© Tesla, Inc.
© Tesla, Inc.

Teslas größter Feind ist keiner der traditionellen Autohersteller. Sie bieten (im Moment) keine konkurrenzfähigen Modelle. Der technische Vorsprung des US-Unternehmens bleibt trotz aller Anstrengungen groß: Hervorragende (bald Kobalt-freie) Akkus mit einem ausgereiften Temperaturmanagement, hocheffiziente Elektromotoren und eine beispiellose Software. Kurz: Die OEMs bauen E-Autos, Tesla dagegen liefert ein Gesamtkonzept inklusive Supercharger-Infrastruktur.

Doch während der letzten Monate ist ein neuer Gegner für Tesla aufgetaucht, der den Erfolg des Unternehmens bedroht: Tesla selbst. Denn mögen auch die Autos einen technologischen Spitzenplatz einnehmen, die Qualitätssicherung und der Service vor, während und nach der Auslieferung ist unterirdisch – finden viele Tesla-Besitzer wie Marcus Mayenschein.

Verarbeitung schlechter geworden, meint Tesla-Fahrer

Der Rastatter ist langjähriger Modell-S-Besitzer und fährt seit kurzem ein neues Model S Performance. Grundsätzlich ist er begeistert von den Neuerungen in der aktuellen Serie mit der internen Bezeichnung „Raven“, die seit dem Mai ausgeliefert wird. „Aber die Verarbeitung und der Lack sind definitiv schlechter als vor 3 Jahren! Dies weiß ich auch von zahlreichen privaten Zuschriften“, schreibt er zu einem 15-minütigen Video, in dem er alle Probleme vorstellt und auch die ersten Reparaturen zeigt.

Mayenschein führt die Probleme in erster Linie auf Personalmangel bei gleichzeitiger Priorität einer möglichst raschen und zahlreichen Auslieferung zurück. Dadurch wird offensichtlich die Übergabe eines problemfreien Autos zum Glücksspiel. Dieser Käufer eines Model 3 hat nichts zu klagen. Das Auto ist perfekt verarbeitet, wie Tesla-Doc Ove Kröger beim Check feststellte. Demgegenüber stehen zahlreiche Käufer, die zum Teil erhebliche Mängel hatten, wie dieser Thread im Forum „Tesla Fahrer und Freunde“ zeigt.

Die Liste der Schwierigkeiten ist lang: Schlechte oder fehlende Lackierung, falsch montierte Bauteile, elend lange Wartezeiten auf einen Reparaturtermin beim Servicecenter, keine Rückrufe, nicht erreichbarer Service, und so weiter und so fort. Wer eine Stunde Zeit hat, sollte sich dieses Video anschauen. Mayenschein und der mit ihm befreundete Tesla-Fahrer Gabor Reiter diskutieren hier intensiv über die aufgezählten Probleme. Sie fordern von Tesla, dringend Qualitätssicherung und Service zu verbessern. Andernfalls vergraule das Unternehmen potentielle Kunden abseits der innovationsfreudigen Early Adopter der Elektromobilität.

Hallo Tesla: Die Zeit der Early Adopter ist vorbei

Bei ihnen gibt es eine gewisse Leidensfähigkeit: Wer in einer frühen Phase innovative Technik nutzt, ist durchaus bereit, niedrigere Standards bei Qualität und Service zu ignorieren. Doch langsam findet die Elektromobilität auch Aufmerksamkeit bei durchschnittlichen Autokäufern, die für ihr Geld ein hochwertiges Auto und herausragenden Service wünschen.

Der typische Autokäufer möchte losfahren und längere Zeit keine Werkstätten und Servicecenter von innen sehen. Und falls doch mal etwas ist, möchte er Termine oder Ersatzteile nicht innerhalb von zwei Monaten, sondern zwei Tagen. Neukunden erwarten von Tesla also einen Auftritt wie ein typischer OEM. Dies betrifft auch den B2B-Markt, der bei den traditionellen Autoherstellern überlebensnotwendig ist Wenn Tesla langfristig überleben will, muss es auch diesen Markt angreifen. In Teilen passiert das bereits, denn einige Autovermietungen haben sich auf Elektromobilität spezialisiert.

Die größte ist NextMove aus Leipzig, die 380 Elektrofahrzeuge zur Kurz- und Langzeitmiete anbieten, neben den Modellen von Tesla auch von allen relevanten Herstellern. Stefan Moeller, einer der beiden nextmove-Gründer, hat von Anfang an Tesla-Modelle in das Portfolio aufgenommen. Sie gehören natürlich zu den gefragtesten Mietfahrzeugen und so hat das Unternehmen im Dezember 2018 einhundert (!) Model 3 bestellt. Insgesamt ging es also um eine Bestellung im Wert von mehr als fünf Millionen Euro, wenn man den Grundpreis einer Long-Range-Version zugrunde legt.

Nur jedes vierte Model 3 für nextmove war fehlerfrei

Doch bei der Auslieferung waren die nextmove-Mitarbeiter überrascht: „Nach der Auslieferung der ersten 15 Modell 3 musste nextmove wegen schwerer Qualitäts- und Sicherheitsmängel die Auslieferung weiterer Fahrzeuge stoppen. Nur jedes vierte Fahrzeug war fehlerfrei, in einigen Fällen waren die Fahrzeuge nicht einmal fahrtüchtig.“ Die übliche Vorgehensweise bei Tesla ist nun, alle Mängel bei einem späteren Termin im Servicecenter oder einer zertifizierten Werkstatt zu beheben.

Doch solche Termine können im Moment durchaus in weiter Zukunft liegen. Darüber hinaus gibt es teils sehr lange Lieferfristen für Ersatzteile, sodass ein Fahrzeug wochen- oder sogar monatelang nicht genutzt werden kann. Für eine Autovermietung ist das nicht hinzunehmen, denn in aller Regel laufen Leasingverträge oder Finanzierungen und Kunden müssen vertröstet oder sogar entschädigt werden.

Wie machen das andere OM? Ganz einfach: Sie haben für ihre Geschäftskunden entsprechende B2B-Prozesse, die anders ablaufen als bei Privatkunden. Darüber hinaus ist die für Tesla typische Vorkasse unüblich. Die Autovermietung hat also Tesla vorgeschlagen, einen Sonderprozess zu vereinbaren. Das gelang scheinbar auch bei dem direkten Ansprechpartner, doch bereits am Folgetag wurde die Vereinbarung wieder gekippt und Tesla stornierte den Auftrag. Wer sich für alle Details der Geschichte interessiert, findet sie in diesem und jenem Video in großer Ausführlichkeit oder im nextmove-Blog etwas knapper erzählt.

Tesla muss sich weiterentwickeln

Diese Geschichte und die erste Reaktion von Tesla darauf (Der Kunde ist schuld) zeigen deutlich: Das Unternehmen muss sich dringend weiterentwickeln. Vor allem der CEO hat das nötig, findet das Manager Magazin. Ziert das Titelbild noch Elon Musk in Siegerpose, so geht es im Inneren des Heftes zur Sache: „Elektrovisionär Elon Musk scheitert an den Niederungen des Autogeschäfts.“ Und weiter: „Der Zuwachs der Fahrzeugflotte bringt die Serviceinfrastruktur an den Rand des Zusammenbruchs.“

In seinem typischen, stark personalisierenden Stil bringt das Manager Magazin verschiedene Analysten und Investoren als Kritiker in Stellung. Sie hätten Tesla bislang positiv gesehen und bekämen jetzt langsam Zweifel . Dazu gehört nach Ansicht des Magazins beispielsweise James Anderson vom größten Tesla-Investor Baillie Gifford. Er vermisst Wachstum, kritisiert die schlecht gemachte Kapitalerhöhung im Frühjahr und findet, Musk müsse sich nicht persönlich in jede kleine Entscheidung einmischen.

Wird Elon Musk also zum Problem? Er ist sicher nicht der typische graue Manager, der auf Zahlen achtet und seinen Laden auf Effizienz trimmt. Er ist einerseits ein Visionär, dessen Beharrlichkeit uns nicht nur Elektroautos, sondern auch wiederverwendbare Raketen mit schicken Landeanflügen gebracht hat. Zugleich hat er die Tendenz, seinen Hang zu unkonventionellen Lösungen auf kleinste Bereiche auszudehnen. Immerhin ist es ihm so gelungen, das Auto in Teilen neu zu erfinden.

Tesla darf seine Vergangenheit nicht aufgeben

Doch ständige Innovation ist teuer, kosteneffizienter Automobilbau lebt von langfristig geltenden Standards. Vermutlich muss sich Tesla in genau diese Richtung weiterentwickeln. Ein Spagat: Einerseits sollte das Unternehmen innovativ und visionär bleiben, es darf seine Vergangenheit nicht aufgeben. Doch andererseits muss es im Massenmarkt mit seinen geringen Margen Erfolg haben, um profitabel werden.

Dieser Spagat muss allerdings nicht zwingend von einer Person geleistet werden. Die Entwicklung von Tesla könnte auch bedeuten, dass sich Elon Musk auf die Position eines Chairman zurückzieht, der für Visionen und Innovation verantwortlich ist. Nun kann ein – womöglich aus der Autoindustrie stammender – angestellter CEO unauffällig und geräuschlos, aber profitabel das klein-klein eines OEM abwickeln. Die Frage ist aber, ob Tesla dann immer noch Tesla ist.