Für einen V-Verlauf sind wir noch ganz schön weit unten: Die Wirtschaftsweisen haben am 20. März in ihrem Sondergutachten für Deutschland einen tiefen Absturz mit vergleichsweise schneller Erholung prognostiziert. Das war zu optimistisch gedacht und ist bereits jetzt von der Wirklichkeit überholt.
Die stärkste Wirtschaftskrise seit 1929
Das Statistische Bundesamt ermittelte am 15. Mai einen Rückgang des Bruttoinlandsprodukts (BIP) um 2,2 Prozent. Die Bundesregierung geht von 6,3 Prozent für das ganze Jahr 2020 aus. Kurz gesagt: Die Rezession ist da und sie ist beispiellos. Dieser starke Einbruch liegt unter anderem auch daran, dass die Corona-Krise sowohl die Angebots- als auch die Nachfrageseite betrifft.
Denn anders als in der Finanzkrise von 2008 bleiben die Verbraucher nicht unbeeindruckt, im Gegenteil. Außer bei Lebensmitteln und Unterhaltungsmedien haben die Verbraucher deutlich weniger konsumiert. Diese Kaufzurückhaltung wird uns noch lange erhalten bleiben. So mussten deutsche Autohersteller bereits wenige Wochen nach dem Neustart ihrer Produktion den Ausstoß wieder verringern, weil die Kunden ausbleiben.
Doch es ist zu einseitig, das Bild nur schwarz in schwarz zu malen. Die wirtschaftlichen Sektoren sind unterschiedlich betroffen. So wird in den nächsten Monaten die Zahl der Insolvenzen in einigen Branchen stark ansteigen, während andere weniger betroffen sind oder sogar von der Krise profitieren. Zu letzteren gehören vor allem die großen Plattformunternehmen, in erster Linie Amazon.
Digitale Vorreiter sind widerstandsfähiger
Eine genaue Analyse der Folgen der Corona-Krise in unterschiedlichen Branchen bringt das Trendbook Smarter Enterprise, dass ich zusammen mit dem digitalen Mastermind Bernhard Steimel geschrieben habe. Unsere These dabei: Je stärker ein Unternehmen digitalisiert ist, desto besser ist es mit der Krise klargekommen.
Das eindrücklichste Beispiel ist natürlich das Homeoffice. Viele Unternehmen haben sich bisher dagegen gewehrt. So verschenkten sie in der Corona-Krise wertvolle Zeit, bis alle Mitarbeiter in ihren Heimbüros wieder arbeitsfähig waren. Nur Unternehmen mit digitalen Arbeitsplätzen konnten ab Tag Eins ungebremst weiter arbeiten.
Viele weitere Beispiele finden sich in der Studie, aber auch in einem Gespräch zwischen Bernhard Steimel, dem Wirtschaftsjournalisten Gunnar Sohn und weiteren Digitalexperten. Auch hier die einhellige Meinung: Digitale Vorreiter sind widerstandsfähiger. Deutsche Firmen sollten davon lernen, gerade jetzt, während des Neustart der Wirtschaft.
Die Krise als Turbo der Digitalisierung
Es gibt eine ganze Reihe an Unternehmen, die in der Krise geschickt agiert haben. Ein Kosmetikunternehmen setzte das Personal der geschlossenen Filialen als Berater im Online-Verkauf über Social-Apps wie WeChat ein. Eine Restaurantkette entwickelte Halbfertig-Gerichte, die das Kochen zu Hause erleichtern. Ein Lebensmittelhersteller sah das Hamstern voraus und verlagerte seinen Vertriebsschwerpunkt auf E-Commerce.
Die Unternehmen waren dadurch in der Lage, wenigstens einen Teil ihrer Umsätze zu halten und nach dem Neustart der Wirtschaft zu wachsen. Diese Beispiele haben allerdings einen Haken: Sie stammen aus China. Weit fortgeschrittene Digitalisierung und eine agile Arbeitsweise erlaubten rasche Krisenreaktion bereits im Januar. Deutsche Unternehmen dagegen mussten häufig erst die technischen Voraussetzungen für Webshops oder Videomeetings schaffen.
So macht Corona schmerzhaft auf viele Digitalisierungslücken in der deutschen Wirtschaft aufmerksam und wirkt gleichzeitig als Digitalisierungsturbo. Einige Lücken sind jetzt im Eiltempo geschlossen worden, andere erfordern hohe Investitionen in digitale und nachhaltige Technologien – um Innovationen zu schaffen.
Das alternative Ende: Die neue Normalität ist die alte
Unser Trendbook hat einige grimmige Nachrichten für die deutsche Wirtschaft. Wir sind aber optimistisch gestimmt und gehen davon aus, dass Wirtschaft und Politik in Deutschland verstanden haben. notwendig sind jetzt mehr Digitalisierung, neuartige (agile) Arbeitsweisen und viel Innovation.
Für bewegliche Unternehmen ist das meist kein Problem. Die im Vergleich zur Bay Area eher kleine, aber fix agierende Startup-Szene in Deutschland zeigt es. Auch auf den ersten Blick traditionell wirkende Mittelständler reagierten fix, beispielsweise Trigema als ein Vorreiter bei der Produktion von Stoffmasken.
Doch gerade einige Unternehmen aus deutschen Kernbranchen scheinen bei diesen Lektionen geschlafen zu haben: Sie kappen Investitionen, kürzen Forschungsausgaben und stoppen Innovationsprojekte, wie der Plattformexperte Holger Schmidt in einem Artikel in der Zeit kritisiert. Die große Gefahr ist, dass die Unternehmen wieder in ihre alten, abwehrenden Reflexe verfallen und die üblichen Verdächtigen aus der GAFA-Ecke die einzige Gewinner der Krise sind.
Produktivitätssteigerung
ist das Mantra des Cloud Computing. Das zeigen die Überschriften von aktuellen
Fachveröffentlichungen. Als kleine Auswahl: Wie Cloud Computing die
Produktivität ihres Recruiting steigert. Produktivität steigern durch
Automatisierung. Wie der Digital Workplace produktiver macht. Die Cloud als
zentraler Produktivitätsfaktor. Usw. usf.
Doch wo genau
erzeugt die Cloud eine höhere Produktivität? Diese Frage ist nicht ohne
weiteres zu beantworten. Zumindest aus der Sicht der Gesamtwirtschaft wächst
die Arbeitsproduktivität seit Jahrzehnten kaum noch. Eine
erklärungsbedürftige Entwicklung, denn genau in diesen Zeitraum fällt die
flächendeckende Verbreitung von Informationstechnologie. Trotz ihres großen
Produktivitätsversprechens scheint es, als seien Unternehmen kaum produktiver
geworden.
Dieser
Zusammenhang wird auch als das Produktivitätsparadoxon der
Informationstechnologie
bezeichnet. Es gibt eine Menge Hinweise darauf, dass die Hypothese stimmt. Ein
alltägliches Beispiel: Office-Software verlagert die Arbeit am Inhalt auf
Gefrickel an der Form. Dadurch wird ein simpler Bericht zum Zwischenstand eines
Projekts zu einem Hochglanzdokument in Magazin-Optik. Kostete ein solcher
Bericht in den frühen achtziger Jahren vielleicht 500 Mark an Material und
Arbeitseinsatz, so geht es heute in den vierstelligen Bereich – da ist sie hin,
die Arbeitsproduktivität.
Einfach Cloud? Nein, hybride Multi-Cloud
Um die Frage
nach der Produktivität der Cloud wenigstens einigermaßen beantworten zu können,
zunächst ein Blick auf eine wichtige Stoßrichtung von Cloud Computing: Der
Ersatz selbstbetriebener IT durch eine neue Form von Outsourcing. Am
deutlichsten ist dies bei Geschäftsanwendungen, die im Browser genutzt werden.
Software as a Service (SaaS) ersetzt lokal installierte Programme.
Zunächst einmal
ist das eine Win-Win-Situation. Der Hersteller der Software erspart sich den
Aufwand für die Distribution. Es gibt nur noch ein Release, dessen einzige
Instanz gepflegt und weiterentwickelt wird. Updates stehen allen Nutzern sofort
zur Verfügung. Admins in Unternehmen müssen keine Software verteilen, kein
Patchmanagement betreiben und nur vergleichsweise wenige Computerressourcen
bereithalten.
Doch der Rückschlag folgt auf dem Fuße. Durch die Möglichkeit der schnellen Releases hat sich eine Featuritis breitgemacht, sowohl bei einzelnen Cloudservices als auch im Gesamtmarkt. Inzwischen gibt es für jedes nur denkbare Problem irgendeine Cloudanwendung. Kanban-Boards online? Kein Problem mit Trello. SEO-Texte unkompliziert verfassen? Searchmetrics steht bereit. Sprachaufzeichnungen transkribieren? Hier lang zu Trint.
Und das ist nur
SaaS. Wer sein Rechenzentrum abschaffen möchte, kann Cloudinfrastruktur bei
fünf großen und Dutzenden kleineren Anbietern buchen. Der Funktionsumfang der
Marktführer ist gigantisch, ihre Leistungsfähigkeit ebenso und viele ihrer
Spezialfunktionen sind konkurrenzlos. So nutzen Unternehmen häufig zahlreiche
SaasS-Anbieter und Infrastrukturservices zur gleichen Zeit – die viel zitierte
Multi-Cloud ist entstanden.
Sie ist außerdem
oft eine Mischung aus lokalen und wolkigen Anwendungen – die Hybrid-Cloud. Der
Grund: Zumindest in den KRITIS-Branchen dürfen viele Cloudanwendungen nur in
einer Private Cloud im eigenen Rechenzentrum betrieben werden. Die
EU-Datenschutzregeln fügen dem weitere strenge Anforderungen hinzu, sodass
viele internationale Clouds ungeeignet sind. Was aber ihre Nutzung nicht
verhindert, wenn es um nicht datenschutzrelevante Informationen geht.
Die Cloud: Nicht weniger komplex als früher, nur anders
Die Unternehmen befinden sich also in einem Dilemma: Auf der einen Seite machen Cloudservices tatsächlich vieles einfacher. Auf der anderen erhöhen sie die Komplexität der IT auf neue Weise, etwa durch eine aufwändige Konfiguration und Integration der Cloudservices. Bereits ein scheinbar simpler Service wie Microsoft Office 365 Enterprise erweist sich beim näheren Hinschauen als Labyrinth, das ebenso kenntnis- wie trickreiche Admins erfordert.
Eine Explosion
der Komplexität ist zudem die Folge, wenn zusätzlich zur Public Cloud auch
selbstbetriebene Anwendungen wie die SAP-Suite und eine Private Cloud zu einem
stabilen und leistungsfähigen Ganzen integriert werden sollen. Hier endet dann
das Versprechen der Cloud, IT ganz einfach zu machen. Denn ohne Know-how und
Erfahrung geht nichts. Die beim Auflösen des eigenen IT-Betriebs freigesetzten
Admins sind zur Vordertür hinaus und zur Hintertür wieder hereingekommen. In
vielen großen Unternehmen ist sogar das Gegenteil einer Vereinfachung passiert:
Die Kosten für Investitionen und Personal in der IT steigen seit Jahren.
Zudem wächst
auch der Beratungsbedarf. Ein Beispiel ist die Highend-Cloudanwendung
Salesforce. Sie ist an ihrer Basis immer noch eine einfach zu nutzende
CRM-Lösung, bietet aber zudem viele neue Möglichkeiten rund um Kundenservice,
Social Media und interne Zusammenarbeit. Wenn ein Unternehmen diesen Mehrwert
nutzen will, muss es zuerst auf den Prüfstand. So setzen viele Möglichkeiten
von Salesforce auch entsprechende Strukturen voraus. Wer zum Beispiel die
inhaltliche Expertise nicht im Haus hat, kann mit den entsprechenden Funktionen
nur wenig anfangen.
Beratungsbedarf: Cloudservices in Etappen einführen
Im
zweiten Schritt muss der Nutzer Salesforce an die bestehende digitale
Infrastruktur anpassen, meint Florian Gehring, Gründer des
Consulting-Unternehmens Salesfive, das sich auf Beratung von Salesforce-Nutzern
spezialisiert hat. Ein boomender Sektor: Seit der Gründung 2016 ist das junge
Unternehmen auf knapp 70 Mitarbeiter angewachsen und hat weit über 250
erfolgreiche Beratungsprojekte verwirklicht. Der Kundenstamm reicht dabei von
Startups über Hidden Champions aus dem Mittelstand bis hin zu Konzernen.
„Salesforce
ist gut darin, die Komplexität der Cloud von den Anwendern abzuschirmen“, sagt
Gehring. „Man muss kein Entwickler oder Informatiker sein, um Salesforce
richtig aufzusetzen. Die Setup-Konsole funktioniert wie ein Baukastensystem und
führt die Nutzer zuverlässig zum Ziel.“ Das sei auch das Prinzip von
Salesforce, die Anwender sollten möglichst viel selbst machen. Der
Salesfive-Gründer betont: Die eigentliche Komplexität entstehe auf einem
anderen Feld.
„Salesforce
hat ein offenes Ökosystem aufgebaut, in das die Nutzer sehr viele verschiedene
andere Systeme integrieren können“, erklärt Sven Strehlke, Mitgründer von
Salesfive. „Dazu muss aber ein Digitalisierungskonzept definiert werden. Hier
liegt unsere eigentliche Beratungsleistung.“ Seiner Meinung nach holen im
Moment noch nicht alle Nutzer das Maximum aus Salesforce heraus. Das könne sein,
weil sie die Komplexität der Möglichkeiten nicht überblicken oder weil sie
Unterstützung bei der Integration von Drittsystemen benötigen.
In
der Praxis arbeiten die Berater von Salesfive vorwiegend in
Multi-Cloud-Projekten, bei denen Komplexität selbstverständlich ist. Hinzu
kommt, dass Salesforce neben CRM auch Service, Marketing, Commerce,
verschiedene Industrielösungen und vieles mehr anbietet – und auch immer mehr
Kunden darauf zugreifen. Dahinter verbergen sich große Change-Projekte: „Es ist
wichtig, ein iteratives und agiles Verfahren zu wählen, bei dem die Stakeholder
eingebunden werden.“ sagt Strehlke. „Es gibt einen enormen Beratungsbedarf, vor
allem im Mittelstand. Dort arbeiten sehr viele Unternehmen noch mit einer
Kombination aus Notizblock und Excel.“
Cloudproduktivität lässt sich nur schwer messen
Dieser Ausflug
in das Salesforce-Ökosystem zeigt, dass die Zeiten einfacher Lösungen vorbei
sind. Wenn ein Unternehmen von der Cloud profitieren will, muss es zu 100
Prozent auf sie setzen. Umfassende Digitalisierung ist gefragt. Wer noch
Papierschnittstellen und Excel-Basteleien nutzt, verschenkt viel Potenzial.
Und was ist mit
der Produktivität? Vermutlich ist das Produktivitätsparadoxon nur ein Trugbild.
Es basiert auf einer Vorstellung von Produktivität, die auf Messungen
zurückgeht. Alles, was sich nicht (ohne weiteres) messen lässt, fällt demnach
nicht unter die Produktivität. Denn der eigentliche Vorteil der Entwicklung des
Cloud Computing in den letzten 15 Jahren liegt nicht in einer Produktivitätssteigerung,
die an simplen KPIs ablesbar ist. Sie liegt in den neuen Möglichkeiten, die uns
ohne Cloud nicht verfügbar wären.
Ein Beispiel:
Vor 25 Jahren wurden im Marketing in erster Linie Broschüren per Post
versendet. Damals gab es noch keine Nahe-Echtzeit-Kommunikation via Facebook
oder LinkedIn. Sie ist chancenreich, aber auch kostenträchtig – vor allem beim
Personal. Die Idealvorstellung ist ein Newsroom mit 24×7-Besetzung, der im
Notfall zu jeder Tages- und Nachtzeit aggressiv aufgeschaukelte Diskussionen
glättet.
So machen heute oft zwei Dutzend Leute eine Aufgabe, die es vor einem Vierteljahrhundert gar nicht gab. Aus einer stark vereinfachten Sicht heraus macht das Marketing heute nichts anderes als früher™, aber mit dem zigfachen Personal und entsprechend höheren Gestehungskosten. Die entscheidende Frage bei der Produktivität der Cloud: Welche Aufgaben ermöglicht sie. Es geht nicht darum, einen fixen Bestand an Arbeit auf weniger Köpfe zu verteilen. Es geht darum, in einem durch Digitalisierung und Informationstechnologie bestimmten Alltag zu arbeiten.
Wenn ein Porträt Deutschlands mit dem Versailler Vertrag beginnt, kann es sich eigentlich nur um einen Abgesang handeln. Und so liest sich der Artikel aus der Business Week vom April 2019: „Deutschland wirkt, als würde es in den letzten Tagen einer Ära leben; da ist diese Atmosphäre des bevorstehenden Wandels, für den niemand bereit zu sein scheint. Das Land bleibt zwar reich und politisch stabil, aber es ist schwer, sich dem Eindruck zu entziehen, dass die Deutschen selbstgefällig auf die Bedrohung ihres Wohlstands reagieren.“
Darauf folgen ein
paar Stichworte, die uns auch von den eigenen Medien regelmäßig um die Ohren
gehauen werden: Kanzlerinnendämmerung, Ende des Verbrennungsmotors,
sklerotischer Bankensektor, Gegenwind durch globale Handelskriege, alarmierend
geringes Wachstum. Doch die Business Week sieht neben viel Schatten auch ein
wenig Licht: „Die Menge an kleinen und mittelgroßen Unternehmen, aus denen
sich der mächtige deutsche Mittelstand zusammensetzt, bleiben innovativ und
hochspezialisiert in ihren Premium-Nischen. Deutschland liegt bei der
Automatisierung auf dem dritten Platz weltweit. Der Wechsel zu sauberem Strom
hat es zu einem globalen Zentrum für erneuerbare Energien gemacht.“
Aus der Außensicht wirkt die Situation der hiesigen Wirtschaft durchwachsen. Doch wenigstens in Apokalyptik wollen die Deutschen Weltmeister sein. „Technologisch fast abgehängt: Deutschlands Wohlstand in ernster Gefahr“, titelte die Wirtschaftswoche Ende Oktober. Die Revolutionen und Innovationen der Tech-Branche seien an Deutschland vorbeigegangen – keine Computer, keine Smartphones, kein Internet, kein Cloud Computing und bald auch weder Machine Learning noch Künstliche Intelligenz. Das Land sei schwach in Sachen Software, habe nicht genügend Investoren für innovative Geschäftsmodelle und zehre immer noch von den Errungenschaften des 19. Jahrhunderts. Ein Klagegesang in D-Moll.
Die Innovationsfähigkeit der Wirtschaft
Es ist leider so: Die deutsche Digitalwirtschaft und Softwarebranche sind unterentwickelt. Doch Tech-Branchen wie Maschinenbau, Automatisierungstechnik und Automobilindustrie sind immer noch weltweit führend. Nicht umsonst hat E-Auto-Visionär Elon Musk den Produktionstechnik-Spezialisten Grohmann aus der Eifel einfach aufgekauft, um sich das Wissen und die Erfahrung der Mitarbeiter für seine Giga-Factories zu sichern – von denen eine in Deutschland gebaut werden soll. Dieses uneinheitliche Bild zeigt sich auch wieder beim seit 2007 fortlaufend ermittelten “Global Innovation Index (GII)” der „World Intellectual Property Organization (WIPO)“ der UN. Er sieht Deutschland auf dem 9. Rang. Es war allerdings auch schon mal auf Rang 13 (2013) und sogar auf Rang zwei (2007).
[toggle title=“Einige Ergebnisse des GII im Detail“]
Mit diesem Index wird die Wettbewerbsfähigkeit von 144 Nationen gemessen und zwar anhand von mehr als 80 Kriterien, darunter die Gründungsaktivitäten, Ausgaben für Bildung und Forschung und vieles mehr. Dabei wird zwischen Input-Kriterien (etwa Bildungssystem oder Dienstleistungssektor) und Output-Kriterien (Marktkapitalisierung, verfügbare Investments oder wissenschaftliche Veröffentlichungen) unterschieden. Bei einigen entscheidenden Indikatoren liegt die deutsche Wirtschaft bereits seit Jahren in der zweiten Hälfte der Liste.
So sind wir beim Gründen (Indikator “New businesses/th pop. 15–64”) auf Rang 64, es wird nach wie vor nicht ausreichend investiert (Indikator “Gross capital formation, % GDP”, Rang 91) und auch das Dauerproblem der schwierigen Unternehmensgründung ist noch da (Indikator ”Ease of starting a business”, Rang 88). Und traditionell liegt unser Land bei den Ausgaben für Bildung ebenfalls nicht vorn, nämlich auf Rang 55 (Expenditure on education, % GDP). Positiv dagegen: Rang 8 bei der Forschung (Indikator „Gross expenditure on R&D, % GDP“) und Rang 6 bei der Indikatorengruppe „Knowledge Creation“. Die Indikatoren zeigen außerdem , dass Deutschland auch als Standort für die Hightech-Herstellung (Indikator „High- & medium-high-tech manufactures, %“) mit Rang 6 ganz gut dasteht.
Die letzten zehn Jahre sind bei Deutschland von wechselnden Positionen im Mittelfeld gekennzeichnet, jedenfalls gemessen am deutschen Selbstbild. Dass dies nicht mehr so ganz realistisch ist, merken viele Leute beim Überschreiten der holländischen Grenze. Das kleine Land hat sich längst aus dem Zeitalter der Wassertomate verabschiedet und stärkere Anstrengungen In Sachen Digitalisierung unternommen – wie auch Großbritannien. Entsprechend sind beide Länder seit einigen Jahren auf Spitzenplätze abonniert.
Interessant auch der dauerhafte erste Platz für die Schweiz und das sehr gute Abschneiden der Schweden. Auch den USA sind immer gute oder sehr gute Plätze sicher. Ein deutlicher Absteiger im letzten Jahrzehnt war Hongkong, das traditionell auf Augenhöhe mit den westlichen Industriestaaten agierte. Dies ist sicher im Zusammenhang mit dem Aufstieg von Mainland China zu sehen – die chinesische Regierung zieht vermutlich Innovationskapazität aus Hongkong ab und stärkt andere Metropolen – deutlich sichtbar am Aufstieg in die Top 25.
[/toggle]
„Länder wie Dänemark, Finnland, Großbritannien oder die Niederlande machen deutlich mehr aus ihren Möglichkeiten“, urteilt der Innovationsberater Jürgen Stäudtner. „Vor allem beim Innovations-Output fallen wir gegen diese Länder zurück.“ Stäudtner hat kürzlich eine erweiterte Auflage seines Buchs „Deutschland im Innovationsstau“ herausgebracht. Eine Kernaussage des Autoren: Die deutschen Unternehmen sind nicht innovativ genug. „Deutsche Manager verstehen zu selten, dass Innovation die finanziell erfolgreichste Strategie ist und widmen sich lieber Sparplänen.“ Investitionen in Neues seien den deutschen Unternehmen nicht wichtig. „Wir zehren lieber von der Vergangenheit“, sagt Stäudtner.
Auf die Frage, wie
deutsche Unternehmen innovativer werden können, findet Stäudtner folgende
Antwort: Indem die Menschen ideenreicher, kreativer und offener für neue
Gedanken werden. Jedes Unternehmen braucht deshalb Mitarbeiter, die Regeln
brechen, Kunden wirklich verstehen, mit Leidenschaft ihre Ideen vertreten, mit
Augenmaß ihre Chancen nutzen, auch in schwierigen Situationen dranbleiben und
Moonshot-Projekte beherrschen. Er plädiert für Innovationsinitiativen und
Unternehmensgründungen, um ein Thema neu zu denken und zu gestalten. Seine
Erkenntnis: „Die deutsche Gesellschaft legt Innovatoren Steine in den Weg.
Jeder einzelne ist aufgerufen, dies zu ändern.“
Zur Lage der Innovation in Deutschland
„Das haben wir
immer schon so gemacht. Das haben wir noch nie so gemacht. Das hat schon beim
letzten Mal nicht funktioniert. Das wollen unsere Kunden nicht. Das können
unsere Mitarbeiter nicht.“ Diese Killerphrasen hört jeder, der in einem
deutschen Unternehmen etwas Ungewöhnliches vorschlägt. Trotzdem behauptet
gefühlt jedes Unternehmen, besonders innovativ zu sein oder zumindest bald zu
werden. Gibt es eigentlich noch ein größeres Unternehmen ohne Innovation Lab?
Gemessen an der Anzahl solcher und ähnlicher Initiativen müsste die deutsche
Wirtschaft Innovationsweltmeister sein.
Da ist Skepsis angebracht, meinen die Autoren der Studie „Innovative Milieus in Deutschland 2019“ von IW Consult im Auftrag der Bertelsmann-Stiftung, für die rund 1.000 Unternehmen aus unterschiedlichen Branchen befragt wurden. Sie kritisieren: „Deutsche Unternehmen bewegen sich zu häufig auf ausgetretenen Pfaden. Einer relativ kleinen Speerspitze von innovativen Unternehmen steht hierzulande eine Mehrzahl von innovationsfernen Firmen gegenüber.“ Nur rund ein Viertel der deutschen Unternehmen zeichnet sich laut der Studie durch Innovationsfreude und Technologieführerschaft aus. Und in etwa der Hälfte der hiesigen Firmen werden Innovationen nicht aktiv vorangetrieben. Das Urteil der Studienautoren: „Hier fehlen vor allem Risikobereitschaft und eine Innovationskultur, die Mitarbeiter ermutigt, neue Wege zu gehen.“
Die Analyse zeigt,
dass die deutsche Wirtschaft vor großen Herausforderungen steht. Zwar ist der
Mittelstand mit (inkrementellen) Produkt- und Prozess-Innovationen erfolgreich,
doch in den Innovationsbereichen mit hohem Potenzial für Disruption gibt es Defizite.
Der Grund liegt in der Verteilung der innovativen Milieus in der deutschen
Wirtschaft: Weniger als die Hälfte der Unternehmen gehört zu einem Milieu, in
dem das Austesten und Überwinden von Grenzen großgeschrieben wird. Die
Verteilung lässt sich in einem „Blasendiagramm“ recht eindrücklich
darstellen:
[toggle title=“Gesellschaftliche Milieus in Deutschland“]
Die Studie von IW Consult basiert auf einem Ansatz der Soziologie, der soziale Milieus untersucht. Traditionell wurden in der Soziologie Gesellschaften nach dem Schichtenmodell beurteilt. Doch in der Realität zeigte sich, dass dieser zu grobschlächtig ist. So gibt es in den einzelnen Schichten ganz unterschiedliche Lebensstile und Lebenswelten – getrennte Milieus. Sie sind definiert als Gruppen Gleichgesinnter mit ähnlichen Grundwerten und ähnlicher Lebensführung. Sie besitzen eine erhöhte Binnenkommunikation und grenzen sich gegenüber anderen Gruppen ab.
Die bekannteste Einteilung von Milieus in der empirischen Sozialforschung sind die sogenannten Sinus-Milieus, die auf eine für 40 Länder erhobene Zielgruppen-Typologie des Markt- und Sozialforschungsunternehmens Sinus-Institut zurückgeht. Im Rahmen der Innovationsstudie sind vor allem die Sinus-Milieus für Deutschland wichtig. Die Merkmale und Verteilung dieser Milieus wird regelmäßig über qualitative Interviews ermittelt, bei denen Personen aus unterschiedlichen soziodemographischen Segmenten der Gesellschaft befragt werden. Anschließend erfolgt die quantitative Überprüfung mittels empirischer Sozialforschung. Insgesamt geht Sinus dabei iterativ vor: Die Abfolge von qualitativen und quantitativen Analysen wird so lange wiederholt, bis sich das theoretische Modell statistisch signifikant nachweisen lässt.
Die
Einteilung in Milieus erfolgt in zwei Dimensionen: Erstens die soziale Lage,
also die Schichtzugehörigkeit und zweitens die ethisch-gesellschaftliche
Grundorientierung. Hierbei sind die Merkmale Tradition, Modernisierung,
Individualisierung und Neuorientierung wichtig. Für die Einteilung in Milieus
werden Neben soziodemographische Daten (Alter, Bildung oder Einkommen) auch
Wertorientierungen und Alltagseinstellungen abgefragt, beispielsweise zu
Arbeit, Familie, Freizeit, Konsum und Medien.
[/toggle]
[toggle title=“Innovative Milieus in der deutschen Wirtschaft“]
IW Consult hat den das Sinus-Milieumodell auf das Thema Innovation in Unternehmen übertragen. Auch hierbei werden die einzelnen Unternehmen anhand von Werten und Handlungen in verschiedene Milieus eingeteilt. Genauer: Ein innovatives Milieu ist eine branchen- und größenunabhängig definierte Gruppe von Unternehmen, die sich unterscheiden – und zwar an Hand ihres Innovationserfolgs sowie ihres Innovationsprofils.
Der Innovationserfolg der Unternehmen ergibt sich aus der Anzahl der unterschiedlichen Neuerungen in den Bereichen Produkte, Prozesse, Organisation und Marketing. Erstaunlicherweise fehlt hier das Kriterium Geschäftsmodelle, denn vor allem die Unternehmen aus der Digitalwirtschaft sind mit neuartigen Geschäftsmodellen erfolgreich geworden – beispielsweise durch digitalisierte zweiseitige Märkte und Plattformen. Das Fehlen von Geschäftsmodellinnovationen als Dimension kann zu Verzerrungen in den Ergebnissen führen. Denn deutsche Industrieunternehmen experimentieren durchaus mit neuartigen Geschäftsmodellen wie „Druckluft as a Service“.
Das
Innovationsprofil eines Unternehmens basiert auf sechs Dimensionen:
Innovationsorganisation, -kompetenz, -kultur, interne und externe Vernetzung
sowie die Wettbewerbsposition. Die Marktforscher haben mit einer vergleichbaren
Methodik wie das Sinus-Institut insgesamt sieben unterschiedliche Milieus
identifiziert:
Technologieführer verschieben die technologischen Grenzen regelmäßig weiter nach außen – durch Forschung, Entwicklung und Patente.
Disruptive Innovatoren besitzen eine große Offenheit für Neues, hohe Risikobereitschaft und eine kooperative Unternehmenskultur, die vollständig auf Innovation ausgerichtet.
Konservative Innovatoren sind sehr stark in Forschung und Entwicklung und melden viele Patente an, die Unternehmenskultur ist jedoch nicht ganzheitlich auf Innovation ausgerichtet.
Kooperative Innovatoren besitzen eine kooperative Unternehmenskultur, die stark auf interne Vernetzung ausgerichtet ist. Innovation entsteht hier durch interdisziplinäre Zusammenarbeit in der Belegschaft.
Zufällige Innovatoren haben weder eine klare Innovationsstrategie noch eine Innovationsorganisation. Innovationen sind hier eher glückliche Zufallstreffer.
Passive Umsetzer sind nicht aus eigenem Antrieb innovativ, sondern reagieren lediglich auf Anregungen ihrer Kunden zur Verbesserung ihrer Produkte und Services.
Unternehmen ohne Innovationsfokus betrachten Innovation nicht als wettbewerbsrelevant.
[/toggle]
Das Milieu der Disruptoren – wie im Silicon Valley?
Auf den ersten Blick
sehen die Ergebnisse deutlich weniger schlecht aus, als es in vielen
Medienberichten über die Innovationsfeindlichkeit in Wirtschaft und
Gesellschaft scheint. Immerhin ist ein gutes Fünftel der Unternehmen hoch
innovativ (Innovationserfolg: Leader). Doch ein Blick auf die drei Blasen oben
rechts in der Abbildung von IW Consult zeigt, dass die Masse der überhaupt
innovativen Unternehmen nur mittelerfolgreich sind.
Ein genauer Blick in
die Ergebnisse zeigt darüber hinaus, dass ein großer Teil der hochinnovativen
Unternehmen aus klassischen Branchen kommen. So stammen Technologieführer und
konservative Innovatoren hauptsächlich aus Chemie, Pharma, Metall und Elektro –
oft Großunternehmen. Kooperative Innovation gehören ebenfalls zum Kernbereich
der deutschen Wirtschaft. Hier finden sich zahlreiche Organisationen, die
unternehmensnahe Dienstleistungen im Angebot haben. Startups der
Digitalwirtschaft finden sich zusammen mit anderen IT- und Tech-Unternehmen
unter den disruptiven Innovatoren.
„Mit einem Fünftel kommt mir die Zahl der disruptiven Unternehmen in Deutschland ungewöhnlich hoch vor“, wundert sich Innovationsberater Jürgen Stäudtner. Er vermutet, dass dieses Ergebnis die Folge eines sehr breiten Verständnisses von Disruption ist. Clayton M. Christensen, der Theoretiker der technologischen Disruption, beklagt in diesem Interview, dass der Begriff häufig viel zu schwammig genutzt wird. Er macht klar:
Disruption beschreibt einen Prozess, bei dem ein kleines Unternehmen oft mit geringen Ressourcen ein erfolgreiches etabliertes Geschäft herausfordert. […] [Es bietet] einfachere Produkte meist zu einem geringeren Preis an. […] Es gibt aber auch disruptive Firmen, die neue Märkte schaffen, die bisher nicht existiert haben.
Christensen betont, dass nicht jede Neuerung disruptiv ist. Die meisten Innovationen verbessern entweder die Effizienz des Unternehmens oder ein bestimmtes Produkt. Aus seiner Sicht arbeitet die disruptive Innovation anders:
Sie transformiert ein Produkt, das bisher sehr kompliziert und teuer war und macht es einfacher und billiger, so dass es sich mehr und neue Kunden leisten können. Nur diese Form von Innovation führt zu echtem Wachstum. In Deutschland sehe ich da aber bisher kaum etwas.
Disruptive Innovation, staatlich geprüft?
Das soll sich in Zukunft ändern und der Staat will hier ähnlich wie bei der Unternehmensfinanzierung eine starke und aktive Rolle spielen, mit der Agentur für Sprunginnovation. Sie ist im Herbst 2019 in Leipzig gegründet worden. Bisher ist allerdings außer einigen Interviews (etwa im Deutschlandfunk, bei Spiegel Online oder mit der Technology Review) des Gründungsdirektors Rafael Laguna de la Vera noch nicht viel geschehen – kurz vor Weihnachten exisitierte noch nicht einmal eine Website.
Der Name der Agentur enthält einen Neologismus, eine deutsche Version des Begriffes „disruptive Innovation“. De la Vera: „Eine Sprunginnovation ist eine, die unser Leben verändert, wo die Welt danach nicht mehr so ist, wie die Welt vorher war.“ Als Beispiel nennt er Auto, Penicillin, Internet und Smartphone. „Man kann sich nur noch schwer vorstellen, wie man eigentlich vor diesen Erfindungen gelebt hat.“ Aufgabe der Agentur ist es, solche radikalen Neuerungen zu entdecken, zu fördern und in marktreife Produkte umzuwandeln. Denn hier hat Deutschland Defizite.
Häufig genanntes Beispiel ist das Soundformat MP3: am Fraunhofer-Institut für Integrierte Schaltungen (IIS) in Erlangen erfunden, von ausländischen Unternehmen verwertet. Ähnlich ist es mit dem Lithium-Ionen-Akku. Die grundlegenden Prinzipien sind Mitte der 1970er Jahre an der TU München entwickelt worden, marktreife Produkte kamen Jahre später aus Japan. Die Agentur für Sprunginnovationen soll solche Entwicklungen vermeiden.
Doch kann das gelingen? Denn ganz offensichtlich mangelte es in den beiden geschilderten Fällen nicht an Erfindungsgeist. Es fehlte eher an der Fähigkeit, in der Erfindung das zukünftige Produkte, Geschäftsmodelle und Märkte zu erkennen. Denn erfinderisch sind viele Menschen, doch eine Erfindung ist noch lange keine Innovation, „die unser Leben verändert“.
Jenseits des Turbokapitalismus
Eine staatliche Agentur wird die Rahmenbedingungen kaum verändern, also weder den Mangel an Risikokapital beheben noch die Innovationsfreude in der Gesellschaft stärken. Deshalb sieht der Wirtschaftsjournalist Gunnar Sohn sehr viele offene Fragen. In einem Überblicksartikel für die Netzpiloten lässt er Skeptiker und vorsichtige Optimisten zu Wort kommen. Zusammengefasst empfehlen er und seine Gesprächspartner einen anderen Weg als den Turbokapitalismus im Stile des Silicon Valley.
Richtig, wir sind hier nicht im Silicon Valley (und auch nicht in Shenzhen). Eine Übertragung der dort gemachten Erfahrungen ist fast unmöglich, denn es gibt hier hierzulande weder die mentalen noch die gesellschaftlichen Voraussetzungen. Gefragt ist letztlich ein Weg zu disruptiven Innovationen, der die kulturellen, sozialen, ökonomischen und politischen Besonderheiten Deutschlands in Rechnung stellt. Das sagt sich einfacher, als es zu leisten ist. Rafael Laguna de la Vera wird hier noch manche Nuss zu knacken haben.
Denn unter anderem ist Deutschland auch das Land, das regelmäßig Zukunftsindustrien vor die Wand fährt. Vor zehn Jahren war es die Solarindustrie und im Moment die Windkraft, ein weiteres Opfer unsinniger Regulierungen. Ist man Verschwörungstheoretiker, wenn man hier den Einfluss von Lobbyisten vermutet? Das setzt sich auch in der EU fort, denn die neuen Einschränkungen von Assistenzsystemen in Autos sinf auffällig genau an den aktuellen Entwicklungsstand bei den europäischen OEMs angepasst.
Anders gefragt: Wollen die politischen und wirtschaftlichen Akteure in Deutschland überhaupt Innovationen, die zum Aufbau von neuen Industrien führen könnten – und zum Abbau der vorhandenen? Möchten sie nicht viel lieber so weitermachen wie bisher? Es gibt zu viele Hinweise, dass die Antwort „Ja“ lautet.
Was wirklich passiert ist: Elon Musk hat höchstpersönlich den Preis einer Autozeitung entgegengenommen, für das Model 3. In einem Nebensatz verkündete er, dass die Gigafactory 4 bei Berlin, auf der grünen Wiese in Brandenburg gebaut wird. Etwas später präzisierte Musk dann per Twitter: Dort werde unter anderen das Model Y gebaut und Ende 2021 soll es mit der Produktion losgehen. Von etlichen tausend Arbeitsplätzen war die Rede und tatsächlich sind bereits Stellenausschreibungen für Brandenburg auf der Tesla-Website zu sehen.
Eine Bauzeit von zwei Jahren ist recht optimistisch, schließlich sind wir hier nicht in China. Dort betrug die Bauzeit der Gigafactory 3 gut zehn Monate. Im Moment beginnt dort der Produktionstest für das Model 3 und möglichst schnell soll die Massenproduktion für den chinesischen Markt anlaufen. Doch Elon Musk wird sich der deutschen Eigenheiten bewusst sein. Darauf weist auch das milde Lächeln bei dem Satz hin, dass seine Fabrik ein wenig schneller als der Berliner Flughafen eröffnet werden müsse. Das mag so sein, wenn die Politik ihre Hausaufgaben gemacht hat. Es ist sicher sinnvoll, dass der nicht mit Industrieansiedlungen verwöhnte Flächenstaat Brandenburg ein möglichst rasches Genehmigungsverfahren für den Bau anstrebt.
Jenseits der Bedenkenträgerei
Eine Industrieansiedlung in dieser Größe, noch dazu im Einzugsbereich von etlichen Bundesländern mit hoher Arbeitslosigkeit, sollte eigentlich Grund für Euphorie sein. Doch eine typisch deutsche Reaktion kommt sofort: Zynismus. Das“Goldene Fass“ in diesem Genre gebührt dem Journalistenkollegen Stefan Laurin. Er verbreitete bereits wenige Stunden nach der Preisverleihung über Facebook eine dystopische Entwicklung, die er später noch ausmalte:
Vielleicht schon heute werden sich die ersten Bürgerinitiativen gegen den Bau gründen. Umweltverbände, die gegen die Fabrik klagen, werden sich ebenfalls finden. Irgendein Käfer, den heute noch niemand kennt und der für das Überleben von Grünheide und für Mutter Erde von existenzieller Bedeutung ist, wird sich schon finden. Und dann sind da noch das Klima, die Bodenversiegelung, die Lärmbelastung durch die Fabrik, die Belastungen bei ihrem Bau, die Gentrifizierung durch den Zuzug von Ingenieuren, die Ausbeutung der Tesla-Arbeiter, der Kapitalismus und irgendwas mit Frieden. […]
Musk weiß nicht, worauf er sich eingelassen hat: In fünf Jahren, wenn er vor einem Oberverwaltungsgericht um die Genehmigung des Baus der Abbiegespur kämpft, die dafür nötig ist, dass er die Zufahrtsstraße bauen darf, die zu dem bis dahin längst besetzten Grundstück führt, auf dem irgendwann seine Fabrik entstehen soll, wird er den gestrigen Tag verfluchen.
Leider habe auch ich den erfahrungsgesättigten Eindruck, dass Laurin nicht ganz falsch liegt und dieses ziemlich düstere Szenario nicht vollkommen unwahrscheinlich ist. [Update 16.11.2019 10:40]Die ersten Anti-Tesla-Truppen ziehen sich zusammen.
So ist es also: Wir haben uns an die Unbeweglichkeit unserer Gesellschaft und unseres Staates, an die Technikfeindlichkeit vieler Leute, an das ewige Genörgel, die dauernde Bedenkenträgerei, die elende Suche nach dem Haar in der Suppe schon so gewöhnt, dass wir direkt mit Zynismus reagieren. Wir halten es für wahrscheinlich, dass hier eine neue Investitionsruine entsteht, ein neuer Sarg für Steuermilliarden – als Folge einer unübersichtlichen Gemengelage aus Partikularinteressen, gesetzlichen Regelungen und der Not-In-My-Backyard-Mentalität mittelalter Nörgelbürger aus Anti-Windkraft-Vereinen. OK, Boomer.
Jenseits des Zynismus
Neben dem brandenburgischen Ministerpräsidenten freut sich immerhin der Elektroauto-Unternehmer Günther Schuh über die Initiative von Elon Musk.
Tatsächlich ist die Entscheidung für Deutschland logisch: Hier gibt es jede Menge erfahrene Leute vom Facharbeiter bis zum Ingenieur, Synergien mit deutschen Mittelständlern aus Maschinenbau und Automatisierungstechnik und es ist denkbar, dass ein Tesla „Made in Germany“ ein europaweiter Verkaufsschlager wird.
Außerdem gibt es gerade in Deutschland viele kaufkräftige SUV-Fans, an die sich das Modell Y in erster Linie richtet. Es ist recht gut auf den deutschen und europäischen Markt zugeschnitten. Obwohl sich der Blick der SUV-Gegner immer auf Schlachtschiffe wie X7 oder Q7 richtet, verkaufen sich diese Brummer eher schlecht. Kompakt-SUVs dagegen sind die Autokategorie mit den größten Wachstumsraten – Elon Musk wird das berücksichtigt haben. (Am Rande bemerkt: Elon Musk ist das, was Rheinländer „positiv bekloppt“ nennen, also das völlige Gegenteil von dumm.)
Zum Schluss noch eine Auswahl an kritischen und begeisterten Kommentaren zur Gigafactory Berlin-Brandenburg:
„Na?“ Ich
erkenne Myriams leicht kehlige, ins Dunkle gehende Stimme sofort, auch um diese
Zeit. In San Francisco ist es halb acht Uhr abends und ihre Schicht in der
Cafeteria endet gerade. Dort gibt es nur ein Münztelefon, deshalb ruft sie mich
kurz an und ich rufe zurück — eine Stunde Reden für 60 Mark. Es ist ein heißer
Sommer mit einem leichten Schlaf. Ihre Stimme ist aufgekratzt, ein wenig triumphierend. „Ich habe es, eine Erstausgabe, im roten Umschlag.“
Sie atmet hörbar, von einem leichten Satellitenecho untermalt. Ich bin sofort hellwach. Thomas Pynchon. Gravity’s Rainbow. Die Enden der Parabel. „Jeder lange Haarschnitt ist eine Reise.“ Eine Echokammer und ein Assoziationsraum; mit Anspielungen auf alles und jeden; Kaskaden der Erinnerung an TV-Serien, Comics, Filmen und Büchern. „Herrje, du bist ja ganz ergriffen.“ Diesmal ist es ein amüsiertes Lächeln, das ich über die paar tausend Kilometer heraushören kann. Ich war wohl einen Moment ganz still. „Nächstes Jahr bringe ich es mit.“
Dann beginnt sie zu erzählen, wie jeden Abend und Morgen, an dem sie anruft. Sie erzählt von ihrem Jahr 1989 in einer fremden Welt, erzählt, dass Amerika wie ein Film ist und trotzdem ganz anders. „Ich muss dir was erzählen“, beginnt sie ihre Anrufe. Sie klingt jetzt heiser. Ein paar Wochen hat sie in ihrem Toyota Carina übernachtet, auf einer Reise durch den Westen. Doch der Wagen ist schon länger ihre Wohnung. Das Geld von der Cafeteria reicht nicht für die Mieten in der Bay Area.
Der Mann, mit dem sie zusammen ist; ein Deutscher, er lebt in einem Camper. Er ist in den USA hängen geblieben. „Vielleicht bleibe ich ja auch hier hängen.“ Sie hat eine Wohnung in Aussicht, ein winziges Zimmer in einer WG mit zwei Jazzmusikern. Sie wird mit ihnen Cajun-Gerichte kochen und ein nach New York klingendes Englisch sprechen.
Eine Frau ist ihr in den Carina gefahren. Ohne Versicherung bekommt sie nicht einmal den Schaden voll ersetzt. Aber am selben Abend lernt sie in der Cafeteria einen Anwalt kennen. Nach ein paar Monaten hat sie das Geld für den Wagen. „Das ist die amerikanische Art der Umverteilung.“ Myriam findet schnell Kontakt zu Menschen. Das Ehepaar, dessen Haus in Russian Hill sie zwei Wochen lang hütet, trifft sie auf der Lombard Street, als sie die Serpentinen hinaufläuft. „Sie haben gelacht und gemeint, ich könne nicht von hier sein.“
Wir gewöhnen uns an diese Gespräche, brauchen sie als intimes Ritual. Mein Leben ist geruhsam; ich studiere, schreibe Artikel für eine Lokalzeitung, besuche meine Großmutter und mache dort die Wäsche von zwei Wochen. Manchmal gehe ich aus und fast nie lerne ich Frauen kennen. Myriam erlebt jeden Tag einen Roman. „Die Gespräche helfen mir“, sagt sie eines Morgens. „Ich gebe dir meine Erlebnisse; wie einem Treuhänder. Du sollst mir später bestätigen, dass ich das wirklich alles erlebt habe.“
Myriam ruft manchmal ein paar Tage hintereinander an, dann wieder einige Zeit gar nicht. Ich warte auf den Anruf, schlafe unruhig, bis es soweit ist. Ich lebe im Nebel der Unausgeschlafenheit, bin erschöpft — von der Warterei, von den kurzen Nächten, vom konzentrierten Zuhören, vom Satellitenecho unserer Gespräche. Ihre Stimme klingt nah, wie in meinem Kopf. „Ich muss dir was erzählen.“ Manchmal höre ich sie mitten am Tag und drehe mich verwirrt um.
Es wird Herbst. Ich
habe das Semester geschmissen und angefangen, im Altenpflegeheim zu arbeiten,
dem Ort meines Zivildienstes. Meine Telefonrechnungen bezahle ich pünktlich am
Postschalter, mit ein, zwei Hundertern in der Hand. Ich arbeite in der Frühschicht;
mal in der Gerontopsychatrie, mal auf einer Pflegestation. Die Arbeit ist
anstrengend und hektisch. Wenn ich mich von Myriam verabschiedet habe, dusche
ich und fahre los.
Eines Abends im
Oktober schalte ich meinen Fernseher ein. Ein schweres Erdbeben in San
Francisco. Ich weiß, dass Myriam wieder mit ihrem verbeulten Carina unterwegs
ist. Trotzdem kann ich in der Nacht nicht schlafen, hoffe auf einen Anruf. Um
sechs Uhr melde ich mich im Altenheim krank; schlafe ein und werde vormittags
durch das Telefon aufgeschreckt. Sie hat stundenlang Freunde angerufen, es
immer wieder versucht, bis sie wusste: es ist niemand verletzt. „Es war
anfangs nur ein dumpfes Grollen, hat Steven gesagt. Dann hat alles vibriert und
gewackelt.“
Es ist fast Winter, als sie plötzlich von Deutschland hört. Sie ruft mich mitten am Tag an, es ist tiefe Nacht bei ihr. „Ich bin auf einer Party.“ CNN bringt den Mauerfall als Breaking News, zeigt die Leute, wie sie auf der Mauer tanzen und kleine Steinchen daraus schlagen. In Köln dauert es zwei Wochen, bis die ersten Trabante und Wartburge auftauchen. Eines Morgens dann der Anruf: „Ich komme zurück, nächste Woche.“
Myriam geht langsam durch die Menschen, blickt suchend um sich. Dann hat sie mich entdeckt. Sie strahlt, reißt die Handtasche hoch. „Da ist es drin.“ Dann gluckst sie, wirft ihre sonnenhellen Haare nach hinten und pustet die Strähne auf der Stirn nach oben. So, wie sie es schon immer getan hat, kräftig, mit leicht vorgeschobenem Unterkiefer. Es lässt Myriam trotzig aussehen. Ich lache. Wir schauen uns an.
Die Bingobox verbreitet sich wie ein Virus. Kein Wunder, denn sie löst ein nerviges Alltagsproblem: Wer etwas einkaufen will, muss häufig Umwege in Kauf nehmen. Die Stadt wächst schneller als ihre Infrastruktur. Da ist ein Container mit einem automatischen Laden genau die richtige Lösung. Einfach hineingehen, dass Gesicht scannen lassen und dann einkaufen. Nudelpakete, Bambussprossen, vakuumiert verpacktes Geflügel – Kameras erfassen die Waren und rechnen sie über das Kundenkonto ab. Noch bequemer geht es nicht.
Nicht alle Probleme einer Megacity mit 80 Millionen Einwohnern sind so einfach zu lösen. Doch nach Jahren des Bauens ist es soweit: Man kann Peking falten. Es gibt nun drei Städte dieses Namens, jede wird regelmäßig in die Erde hinein- und später wieder herausgefaltet. Wenn ihre Zone weggefaltet ist, schlafen die Bewohner dank eines speziell dafür entwickelten Medikaments. Werden sie herausgefaltet, haben sie ein paar Stunden Zeit, um ihren Alltagsgeschäften nachzugehen. Dreimal Peking, dreimal Lebensraum für Millionen, dreimal eine boomende Stadt.
Chinesische Lösungen für Chinas Probleme
Beide Szenarien spielen in Chinas Hauptstadt. Das Pekinger Startup Bingobox bietet bereits seit einigen Jahren automatische Läden an, die sich in China rasch verbreiten. Der Grund: Die Städte in China wachsen und werden dauernd umgebaut. Mit einer Bingobox ist eine Vor-Ort-Versorgung schneller erreicht als durch Bau und Einrichtung eines herkömmlichen Supermarkts. Ein kleines Team aus Servicekräften hilft notfalls per Video-Chat. So können ein paar Leute Dutzende Bingoboxen überwachen. Für das Unternehmen ist das effizient und wenn die Umsätze nicht stimmen, kommt ein Kranwagen und versetzt den Laden an eine andere Stelle.
Eine prosperierende Megamillionenstadt wie Peking (oder Shanghai, Shenzhen, Guangzhou und andere) erfordert ungewöhnliche Maßnahmen. Die SF-Autorin Hao Jingfang hat sich hier in ihrer Erzählung „Peking falten“ etwas Spezielles ausgedacht: Um den städtischen Raum möglichst effizient zu nutzen, gibt es drei Sektoren, die sich platzsparend drehen, in der Erde versenken und zusammenfalten lassen. Nach einem strengen Plan wird immer nur ein Sektor entfaltet, damit die Menschen darin ihren Tätigkeiten nachgehen können.
Regierungsfunktionäre, wichtige Unternehmer und andere bewährte Bürger leben in Zone Eins, die für einen ganzen, 24-stündigen Tag herausgefaltet wird. Da zu dieser Gruppe nur fünf Millionen Personen gehören, haben sie mehr Raum zum Wohnen, Arbeiten und Erholen zur Verfügung. Die 25 Millionen Bürger der Mittelschicht leben in Zone Zwei, die 16 Stunden aktiv ist und Zone Drei – nun, das ist die Zone für die Unterschicht. Diesen 50 Millionen Einwohnern macht es ohnehin nichts aus, die meiste Zeit ihrer acht verfügbaren Stunden im Dunkeln zu verbringen.
Vor diesem Hintergrund entfaltet Hao eine Noir-Story: Der Müllarbeiter Lao Dao unternimmt einen abenteuerlichen Botengang von der dritten in die erste Zone – was eigentlich verboten ist, denn die Bewohner dürfen ihre Zone nicht verlassen. Die Story ist eine Dystopie, mit Kritik an patriarchalisch-autokratischen Politikansätzen, die eine Spezialität des chinesischen Staates sind. Doch die Geschichte erhebt sich nicht über ihren Protagonisten. Sie folgt ihm auf seinem Weg durch die Sektoren, weiß aber nicht mehr, als seine Perspektive zulässt. Die Ungleichheit des dreifachen Pekings wird gezeigt, aber nicht wie in einem politischen Pamphlet beklagt.
Genau das macht die Eleganz der Story aus und genau das hat sie preiswürdig gemacht, so dass sie als zweite chinesische Autorin 2016 mit dem renommierten Hugo-Award für die beste Science-Fiction-Erzählung ausgezeichnet wurde. Im Jahr davor erhielt ihr Kollege Liu Cixin den Hugo-Award für den besten Roman. Ausgezeichnet wurde der erste Band seiner Trisolaris-Trilogie „Die drei Sonnen“ , der im chinesischen Original bereits 2007 erschienen ist. Seit dem Frühjahr ist die Trilogie auch vollständig auf Deutsch erhältlich.
Die Breite (und Größe) chinesischer SF
Hao Jingfang und Liu Cixin zeigen die Bandbreite der modernen Science-Fiction in China. Die Autorin ist zwar Physikerin und Betriebswirtin, interessiert sich aber wenig für technisch ausgerichtete Hardcore-SF. In ihrer Erzählung, aber auch in ihrem Roman „Wandernde Himmel“ stehen Motive, Handlungen und Erfahrungen ihrer Hauptfiguren im Vordergrund. Sie setzt sie Situationen aus, zu deren Bewältigung Aufmerksamkeit, Neugier und Offenheit für andere Denkweisen notwendig ist. So ist im Roman eine Jugendliche vom Mars die Hauptfigur, die als Botschafterin des guten Willens in ein irdisches College geschickt wird und nach einigen Jahren wieder zum Mars zurückkehrt. Ihre Erfahrungen erlauben ihr, die Perspektive der in eine politische Krise verwickelten Planeten Erde und Mars zu übersteigen und eine Lösung zu finden.
Liu Cixin ist von einer anderen Art. Am besten lässt es sich durch eine vossianische Antonomasie ausdrücken: Er ist der Isaac Asimov Chinas. Seine Weltentwürfe sind aufregend, kurzweilig, stark an der amerikanischen Pop-Kultur und deren Filmsprache geschult. (Nebenbei bemerkt: Chinesen kennen sich deutlich besser mit der westlichen Kultur aus als Westler mit der chinesischen.) Seine Trilogie beginnt mit den Exzessen der Kulturrevolution und endet mit dem Tod des Universums. Trotz des enormen Umfangs von (in der deutschen Übersetzung) rund 2.400 Seiten ist es kaum möglich, die Bücher aus der Hand zu legen – vom erschöpften Absinken in einem Fluss ohne Ufer kann keine Rede sein.
Der gigantische Weltentwurf von Liu trägt tatsächlich über diese lange Strecke. Das liegt an seinem enormen Ideenreichtum, seinen wissenschaftlich unterfütterten Überlegungen zu Technik und Gesellschaft und seiner erzählerischen Potenz. Das Werk von Liu erinnert an die weit ausgreifenden Erzählstränge älterer chinesischer Romane wie „Die Reise in den Westen“ von Wu Cheng-en oder „Die drei Reiche“ von Luo Guanzhong. Sie gehören zu den kanonisierten Klassikern der chinesischen Literatur und sind deshalb auch für heutige Autoren als Referenz verpflichtend – ähnlich wie Homer, Augustinus, Cervantes, Shakespeare oder die Bibel in der europäisch geprägten Literatur.
Das Universum als dunkler Wald
Es ist unmöglich, in wenigen Absätzen eine sinnvolle Zusammenfassung der Trilogie zu geben. Auf ganz oberflächlicher Ebene geht es um eine Auseinandersetzung zwischen Menschen und den außerirdischen Trisolariern. Sie sind über Radiowellen auf die Menschheit aufmerksam geworden. Ihre Reaktion: Sie senden eine Raumschiffflotte, um die Erde zu erobern und ihre unwirtliche Heimat zu verlassen. Auf einer tieferen Ebene geht es um die Auseinandersetzung zwischen Kulturen, die sich sehr fremd sind und sich in dieser Fremdheit weder verstehen, noch missverstehen, noch nicht-verstehen. Jede der beiden Kulturen macht sich ihr eigenes Bild vom jeweils anderen, doch es erweist sich immer wieder als falsch.
Das Trisolaris-Universum wird als dunkler Wald geschildert, voll mit Lebewesen, die nicht miteinander reden können, ja nicht einmal dürfen. Die schwachen und wenig bewehrten verstecken sich ängstlich in der Schwärze und geben keinen Laut von sich. Anderenfalls werden sie von gnadenlosen Raubtieren bemerkt und vernichtet. Doch auch diese dürfen keine Aufmerksamkeit auf sich ziehen, allzu rasch werden sie zur Beute von noch stärkeren Wesen. Darum ist es in unserer Galaxie so still. Darum gibt es so viele Planeten, von denen keine Signale zu hören sind. Darum ist es so gefährlich, einfach Radiowellen in die Gegend zu senden.
Eine optimistische Lösung der Drake-Gleichung würde bedeuten, dass wir bereits Kontakt mit Aliens haben oder sie uns zumindest beobachten. Es gibt einige Anhaltspunkte dafür, dass die Galaxie von Leben erfüllt ist, auch wenn es sich nur selten um intelligentes Leben handeln mag. So hat sich gezeigt, dass eine unglaublich große Zahl an Sonnen Planeten besitzt. So ist wenigstens ein Parameter der Drake-Gleichung mit einem hohen Wert belegt. Trotzdem ist es uns (jedenfalls bis jetzt) nicht gelungen, eine andere Zivilisation zu entdecken. Nach der Theorie vom dunklen Wald hat diese Ruhe nur zwei Erklärungen: Die außerirdischen Zivilisationen stellen sich tot, weil sie überleben wollen. Oder sie wurden bereits entdeckt und vernichtet.
Liu scheint eher an Möglichkeit Zwei zu denken. Sein Universum ist kalt und gefühllos; die Kälte der kosmischen Hintergrundstrahlung überträgt sich auf die Mentalität der Lebensformen. Zwischen ihnen gibt es keine Verständigung. Für die Vertreter der Superzivilisationen, die im dritten Band einen dimensionalen Zusammenbruch des Raums erzeugen und damit die gesamte Milchstraße vernichten, sind niedrigere Lebensformen so etwas wie Wanzen: Sie treten angewidert darauf. Was bleibt? Ein paar Menschen retten sich, reisen ans (räumliche und zeitliche) Ende des Universums und beobachten sein Verschwinden. Vielleicht eine tröstliche Botschaft: Das Individuum siegt, denn es bleibt bis zuletzt.
Der Mensch und sein Sozialraum: SF in China
Starke, eigenwillige, oft egoistisch agierende Menschen bringen die Geschichte in den drei Bänden voran. Auch in dem Roman „Die Siliziuminsel“ von Chen Qiufan ist der treibende Faktor die rebellische, unangepasste Individualität der drei Hauptfiguren. Da ist der Economic Hitman Scott Brandle, der nach langer Zeit im Westen auf die Siliziuminsel zurückgekehrte Chen Kaizong und die Wanderarbeiterin Mimi, die zu einem Software-Cyborg wird und den Aufstand der Müllmenschen anführt. Chen hat diese drei auf der Siliziuminsel abgekippt, zusammen mit einem Riesenhaufen Cyberschrott vom Exoskelett bis zum Hirnimplantat. Sein Buch schreibt die (von der chinesischen Regierung kürzlich unterbundene) Praxis der westlichen Länder fort, ihren Müll in China abzukippen. Er entwickelt wie Hao oder Liu keine positive, naive Vorstellung von der Zukunft, sondern eine Dystopie, die den Menschen enormes abverlangt.
In seinem Roman, aber auch allen anderen hier vorgestellten Geschichten kämpfen die Protagonisten den Kampf jedes Individuums: Die Auseinandersetzung mit ihrer Lage, ihren persönlichen Wünschen, ihren Absichten und Gefühlen, dem gesellschaftlichen Hintergrund, den Möglichkeiten, die ihnen dieser gibt und den Grenzen ihrer Bemühungen. Das Setting ist mal Cyberpunk, mal ein galaktischer Weltentwurf. Die Figuren sind Chinesen, häufig aber auch Westler. Die geschilderte Welt ist ein Hybrid aus Osten und Westen. So beschreibt Liu, wie Englisch und Mandarin verschmelzen – erst zu einer Lingua Franca, später dann zur Muttersprache der Menschheit. In dieser Zeit wandelt sich die menschliche Gesellschaft mehrfach und wird mal kriegerischer, mal friedlicher. Liu dekliniert hier die Möglichkeiten einer Mischkultur durch, die sich über einen ganzen Planeten erstreckt und von einer unvorstellbaren Gefahr bedroht wird.
Ein einfacher Rückschluss auf das moderne China verbietet sich, doch eines ist klar: Diese chinesischen SF-Autoren schildern Westen und Osten auf Augenhöhe. In ihren Geschichten drückt sich das Selbstbewusstsein der Chinesen aus. Mit Sicherheit verstehen sie sich als Menschen der Zukunft und nicht der Vergangenheit alteuropäischer Prägung. Ein weiteres Beispiel dafür ist ein aufsehenerregendes, maximal CGI-lastiges Scifi-Action-Mashup-Movie, das aber nicht aus Hollywood kommt, sondern aus China: Die wandernde Erde. Basierend auf einer Short-Story von Liu Cixin entwirft das chinesische Produktionsteam ein gigantisches Schlachtengemälde, bei dem gleich die ganze Erde bewegt wird. Und natürlich geben Chinesen die Richtung vor.
Im September 2017 gab der US-Finanzdienstleister Equifax einen Hacker-Angriff bekannt, bei dem Daten von mehr als 145 Millionen Kunden aus den USA, Kanada und Großbritannien entwendet wurden, in einigen Fällen auch Kreditkartendaten. Aufgrund zahlreicher Klagen mit Schadenersatzforderungen in Höhe von 70 Milliarden, hat Equifax Ende Juli 2019 mit der Federal Trade Commission (FTC) einen Vergleich geschlossen. Die Gesamtkosten umfassen 300 Millionen Dollar für einen Fonds zur Entschädigung der Betroffenen sowie Strafzahlungen von 175 Millionen Dollar an die Bundesregierung und 100 Millionen Dollar an die Behörde zum Verbraucherschutz in Finanzsektor.
Doch wie sieht ein solcher Sicherheitsbruch von innen aus? Das YouTube-Video zeigt den Vortrag des neuseeländischen IT-Security-Experten Shahn Harris, der zur fraglichen Zeit für die IT-Sicherheit bei Equifax Neuseeland verantwortlich war. Er stand dabei nicht im Zentrum. Er war anfangs nicht einmal informiert, obwohl er zur fraglichen Zeit auf einer internen Security-Konferenz in der US-Zentrale von Equifax war. Den Sicherheitsbruch hat er durch die Medien erfahren. Doch dann begann für ihn und sein Security-Team der Abstieg in die Hölle: Druck, Hektik und 18-Stunden-Tage. Das Video ist ein interessanter Einblick in eine Security-Krise, wie sie zahlreiche Unternehmen jeden Tag treffen könnte.
Bereits 2014 hat die Staufen AG den ersten Industrie 4.0 Index erhoben. Damals wusste In den Unternehmen kaum jemand etwas mit dem Thema anzufangen. Doch seitdem ist er kontinuierlich gestiegen - Industrie 4.0 setzt sich durch.
Effizienz, Transparenz und Kostensenkung - die Hauptmotive für die Beschäftigung mit der Digitalisierung. Sie finden sich in so gut wie jeder Studie zum Thema; Deutschland ist halt das Land der Effizienzfanatiker.
Immerhin: Die Digitalisierung zeitigt Erfolge. Mehr als die Hälfte der befragten Unternehmen ist zufrieden, bei einem guten Fünftel liegen die Ergebnisse sogar über den Erwartungen.
Die deutsche Industrie liebt ordentliche Strukturen, klare Prozesse und zielgerichtete Wissensvermehrung. Das schlägt natürlich auch auf die Einführung der Industrie 4.0 zurück - Im Selbstbild gehen die Erfolge darauf zurück.
Beim Thema digitale Geschäftsmodelle sind die Unternehmen jedoch zurückhaltend. Zwar bieten einzelne bereits smarte, vernetzte Produkte und Services an, doch das meiste ist noch in der Entwicklung oder im Test.
Ein Blick aufs Geld: Der Erfolg schlägt sich auch finanziell nieder, ein Großteil der Smart-Factory-Initiativen rechnet sich bereits. Das zeigt mal wieder deutlich, dass die Investition in Innovation Gewinne bringt, nicht das Kostensenken.
Vielleicht ist es ja Übersättigung, denn seit Jahren ist von nichts anderem als Digitalisierung, Internet der Dinge und Industrie 4.0 die Rede. Da es ist dann schon erstaunlich, dass die strategische Bedeutung der Digitalisierung in den deutschen Chefetagen sinkt – eines der Ergebnisse der Studie „Digitale Transformation 2019. Die Zukunftsfähigkeit deutscher Unternehmen“ der Digitalisierungsberatung Etventure. Bei der Vorgängerstudie im letzten Jahr nannten noch rund zwei Drittel (62%) der befragten Großunternehmen die digitale Transformation als eines der drei wichtigsten Unternehmensziele, in diesem Jahr waren es nur noch etwa die Hälfte (54%).
Doch statt Überdruss könnte es auch einen anderen Grund haben, wie die Autoren der Studie vermuten: Die Selbstberuhigung mit den Gedanken „Es wird schon nicht so schlimm“ oder „Wir sind doch Weltmarktführer“. Wer sich mit Digitalisierung intensiv beschäftigt, weiß genau: Das schützt vor nichts, siehe Nokia und Kodak. Die digitale Transformation sollte also im Denken der Unternehmenslenker eine hohe Bedeutung haben.
Die Industrie 4.0 ist angekommen – aber noch nicht
überall
Etventure untersuchte in seiner Studie die Wirtschaft in der ganzen Breite und befragte dafür zur Hälfte Dienstleistungsunternehmen und nur zu einem Drittel Firmen aus Industrie und verarbeitendem Gewerbe. Ein etwas detailreicheres Bild malt der „Deutsche Industrie 4.0 Index 2019“ der Unternehmensberatung Staufen. So gehören die Firmen der drei deutschen Schlüsselbranchen Maschinenbau, Elektrotechnik und Automobil zu den erfolgreichen Digitalisierern der deutschen Wirtschaft. Der Index und damit die Verbreitung von Industrie-4.0-Konzepten steigt seit Jahren. (Siehe die Slideshow am Beginn dieses Beitrags)
Das wichtigste
Ergebnis: Jedes zweite Industrieunternehmen aus den Fokusbranchen setzt auf die
Smart Factory und andere Elemente aus der Industrie 4.0. Die größten
Fortschritte bei der Digitalisierung hat die Elektroindustrie gemacht: Mehr als
zwei Drittel der Unternehmen setzen auf die Smart Factory. Der Maschinenbau ist
nur wenig zögerlicher. Schlusslicht ist die Automobilindustrie, in der weniger
als jedes zweite Unternehmen Industrie 4.0 umsetzt. Dieser Wert ist gegenüber
der Untersuchung von 2018 sogar zurückgegangen. Auch hier wird also die
Krisenstimmung deutlich, die aktuell in der Automotive-Branche herrscht.
Doch die grundsätzlich positiven Ergebnisse bedeuten nicht, dass Deutschland jetzt plötzlich zum Superstar der digitalen Transformation geworden ist. Denn die Ergebnisse der Staufen-Studie zeigen deutlich zwei sehr wichtige Eigenheiten des Deutschland-Modells der Digitalisierung. So geht es in erster Linie um Effizienz und bei der Umsetzung sind die Unternehmen zu vorsichtig, sie verwirklichen in großer Mehrheit lediglich Pilotprojekte. Diese beiden Besonderheiten werden übrigens von anderen Studien bestätigt – mehr dazu in den jeweiligen Abschnitten.
Der deutsche Dreisprung: Effizienz, Transparenz,
Kostensenkung
Nach den Motiven für die Digitalisierung gefragt, nennen deutsche Industrieunternehmen seit Jahren dieselben Dauerbrenner: Sie möchten die interne Effizienz steigern, mehr Transparenz in ihren Prozessen erreichen und natürlich die Kosten senken. So auch wieder beim Industrie 4.0 Index für 2019. Auch diesmal geht es zwei Drittel bis drei Viertel der Firmen um genau diese Themen.
Dies ist auch ein wichtiger Grund dafür, dass der erst zum zweiten Mal erhobene Teilindex für Smart Business branchenübergreifend gesunken ist. Auch Staufen kommt in seiner Studie zu dem Schluss, dass das Interesse an neuen Geschäftsmodellen eher mau ist. Nur ein Fünftel der Unternehmen bietet seinen Kunden smarte, vernetzte Produkte und Services an. Die Innovatoren in den Unternehmen werden offensichtlich von den Kostensenkern ausgebremst.
Dazu passen die Ergebnisse der IDC-Studie „Industrial IoT in Deutschland 2019/2020„. Dementsprechend setzen ein Viertel der Unternehmen aus der Industrie und den industrienahen Branchen erste IoT-Projekte um. Dabei sind Unternehmen aus der Industrieproduktion am weitesten fortgeschritten. Bei ihnen steht allerdings die Optimierung im Vordergrund: Die zwei wichtigsten Gründe für das Industrial IoT sind Kostenreduzierung (40%) und die Verbesserung von interner Effizienz und Produktivität (35%).
Die deutsche Vorsicht: Lieber noch ein Pilotprojekt
Auch wenn sich eine große Zahl der Unternehmen mit Themen wie Digitalisierung, Industrie 4.0 und Industrial IoT beschäftigt: Komplett neue Geschäftsmodelle (4%) oder die vollständige operative Umsetzung der Smart Factory (8%) sind selten. Stattdessen ist die Szene beherrscht von Einzelprojekten, die bereits seit Jahren einen großen Teil der Industrie-4.0-Initiativen ausmachen.
Besonders deutlich wird dies beim Thema Smart Factory: Jedes zweite Unternehmen hat entsprechende Projekte im Angebot. Vor vier Jahren waren es noch ein Drittel. Zudem wird fleißig entwickelt: Ein Drittel der Unternehmen entwickelt aktuell smarte Produkte oder Services und weitere 10 Prozent testen gerade ihre Entwicklungsergebnisse bei den Kunden. Bei der Umsetzung hapert es allerdings, die auf breiter Front genutzte Smart Factory ist für mehr als 90 Prozent der Unternehmen noch Zukunftsmusik.
„Trotz der vielen Pilotprojekte kommt es nur sehr selten zu einer konkreten Anwendung im Unternehmen. Den Firmen gelingt es nicht, die Projekte nach der Testphase zügig in den Arbeitsalltag zu integrieren.“ Diese Aussage stammt aus einer internationalen McKinsey-Studie zum Digital Manufacturing. Interessant dabei: Unternehmen aus den traditionellen Branchen in allen Industrienationen haben diese Schwierigkeit, nicht nur die deutschen. Das lässt den Schluss zu, dass die Probleme auch der hiesigen Unternehmen eher an den Strukturen und weniger an der Mentalität liegen.
So geht’s: Erst nachdenken, dann digitalisieren
Der Staufen-Index zur Industrie 4.0 zeigt deutlich: Da die Digitalisierung in erster Linie Prozesseffizienz erreichen soll, haben die Endkunden noch vergleichsweise wenig von den Bemühungen. Das zeigt sich beispielsweise In der Autobranche beim sogenannten Connected Car – die OEMs bieten im Moment nur erste Ansätze. Verglichen mit dem Bordcomputer und der Systemsoftware eines Tesla wirkt das unausgereift.
Doch es gibt auch das genaue Gegenteil, nämlich die bewusstlose Digitalisierung von allem und jedem – vom Spielzeug-Teddy mit Sprachnachrichten-Funktion bis hin zum Toaster, bei dem sich der Bräunungsgrad per App einstellen lässt. „Hört auf, alles um jeden Preis zu digitalisieren“, fordert der Software-Unternehmer Amir Karimi in einem Blogbeitrag für mobilbranche.de. „Stattdessen sollte die Frage wieder im Mittelpunkt stehen, wie (und wem) Digitalisierung einen Mehrwert bringt.“
Er kritisiert hier Unternehmen, die zwar digitalisieren, aber vorher nicht nachdenken. Viele smarte Produkte und Services machen nur wenig Sinn und bringen den Kunden nichts. Bei vernetztem Spielzeug gibt es sogar mehr Sicherheitsprobleme als Spielspaß. Karimi stellt die auf Digitaleuphoriker ketzerisch wirkende Frage: „Bis zu welchem Grad muss ein Unternehmen digital werden?“ Seine Antwort: „Ein Bewusstsein für die Werte, die strategische Ausrichtung und die Belastbarkeit des eigenen Unternehmens sorgen für eine gesunde Dosis der Veränderung.“
Hidden Champions gibt es auch in der Industrie 4.0
Aus dieser Sicht relativiert sich auch die gemächlich wirkende Digitalisierungsgeschwindigkeit in der deutschen Industrie. Denn hinter den zahllosen Einzelprojekten und den wenigen smarten, vernetzten Produkten und Services verbirgt sich eine wachsende Wirtschaftsmacht – die digitalen Hidden Champions, wie sie Hermann Simon in einem Aufsatz für den aktuellen Harvard Business Manager nennt.
Simon erkennt den Industriesektor, also die B2B-Märkte, als große Chance für die deutsche Wirtschaft. Hier können sie ihre Erfolgsgeschichte auch in Zukunft fortsetzen. Der Grund: Silicon-Valley-Unternehmen sind blind für Nischenmärkte. Denn genau darum handelt es sich bei den digitalen Märkten für industrielle Prozesse. Sie zeichnen sich durch eine höhere Komplexität als B2C aus sowie durch ein äußerst spezialisiertes Know-how. Simon: „Am Markt ist dieses Wissen kaum verfügbar, es steckt in den Köpfen der Mitarbeiter jener Unternehmen, die auf solche Prozesse spezialisiert sind.“
Der entscheidende Vorteil der klassischen Hidden Champions ist für Simon ihre Kundennähe. Sie kennen sich sehr gut mit der Wertschöpfungskette ihrer Zielgruppen aus und können mit neuen, digitalen Lösungen echten Kundennutzen schaffen. Darüber hinaus haben sie die kalifornische Lektion gelernt: Sie setzen nicht nur auf inkrementelle Verbesserungen, sondern auf „Sprunginnovationen“ – also fundamentale, disruptive Veränderungen.
Das Know-how der Mittelständler macht den Unterschied
Für Simon hat die Digitalisierung ein spezielles Merkmal: Die B2B-Kunden der deutschen Mittelständler wissen häufig selbst nicht, was sie von der Digitalisierung erwarten können oder was diese bewirken kann. Hier greift die Stärke der digitalen Hidden Champions. Sie sind sehr gut darin, Kundenbedürfnisse und Technologie zur Übereinstimmung zu bringen. Dies kann zu Entwicklungskooperationen, Ökosystemen oder im Einzelfall sogar zu einer Fusion führen. Das beste Beispiel dafür ist der Automatisierungsexperte und Maschinenbauer Grohmann Engineering aus Prüm in der Eifel. Er heißt heute Tesla Grohmann Automation und ist am Aufbau der Gigafactories beteiligt.
„Die klare Überlegenheit von Hidden Champions rührt daher, dass sie nicht nur einen Wettbewerbsvorteil besitzen, sondern gleich mehrere“, betont Simon. Dazu gehören Produktqualität, Wirtschaftlichkeit, Service und Lieferpünktlichkeit, aber auch Systemintegration, Benutzerfreundlichkeit und Beratung. Letztlich handelt es sich dabei um Merkmale, die in der Kompetenz der Mitarbeiter wurzeln, so Simon. Dies könne weder im Silicon Valley noch in China nachgeahmt werden.
Die stark digitalisierten Hidden Champions sind beispielgebend für den gesamten deutschen Mittelstand sowie die großen Familienunternehmen. Sie sollten den Fokus auf Innovation richten und die Zwischenphase der Prozessoptimierung und Kostensenkung möglichst rasch verlassen. Dann wird auch der Staufen-Index für Smart Business im nächsten Jahr ähnlich stark ansteigen wie der für die Smart Factory.
Offenlegung: An der hier vorgestellten Studie „Deutscher Industrie 4.0 Index 2019“ war ich als Redakteur beteiligt. Dieser Blogbeitrag ist von der Staufen AG weder beauftragt noch bezahlt worden.
Ist das alles wirklich erst seit einem Jahrzehnt unser Alltag? Was haben wir früher eigentlich gemacht, wenn wir wissen wollten, ob es am nächsten Tag regnet? Inzwischen schauen wir für die Antwort ganz automatisch auf das Smartphone. Wenn wir in eine unbekannte Gegend fahren, nutzen wir Google Maps. Wenn wir eine Bahnfahrkarte brauchen, bestellen wir sie mit einer App. Dank Onlineshops können wir spontan etwas kaufen, was wir gerade bei einem Bekannten gesehen haben. Und wenn uns irgendjemand ein leckeres Rezept aus seinem Lieblings-Kochbuch zeigt, fotografieren wir es, statt es abzuschreiben.
Der digitale Reflex: Apps nutzen, ohne es zu merken
So hat sich das Smartphone in unseren Alltag eingeschlichen. Manch einer nutzt beinahe drei Dutzend digitaler Dienste am Tag. Doch fragt man ihn oder sie, so lautet die Antwort: Ich nutze etwa sieben Apps am Tag. Dieses Missverhältnis zeigt, dass viele Leute deutlich mehr Apps nutzen, als sie bewusst wahrnehmen. Das ist eines der Ergebnisse einer aktuellen Untersuchung der Cisco-Tochter AppDynamics. Das Unternehmen besitzt durch seine Auswertung der Nutzungsparameter von Apps Information aus erster Hand und hat sie durch eine Befragung von Konsumenten ergänzt. In seinem globalen „App Attention Index“ analysiert der App-Intelligence-Anbieter genau, wie Kunden Apps in der Realität nutzen und welche digitale Customer Experience sie erwarten.
So geben die Befragten an, nur sieben digitale Dienste pro Tag zu nutzen. Doch die harten Nutzungsdaten sprechen eine andere Sprache: Es sind mehr als 30. Doch immerhin ist einem Großteil (68%) der Befragten klar, dass der Einsatz von Apps inzwischen zum „digitalen Reflex“ geworden ist, wie AppDynamics es nennt. Digitale Services werden verstärkt unbewusst genutzt. Ein gutes Beispiel ist der regelmäßige Blick auf die Wetter-App, die zumindest bei den Nutzern von Android-Smartphones ihre Daten direkt auf dem Homescreen anzeigt. Ein zweites gängiges Beispiel ist der regelmäßige Kontrollblick auf WhatsApp, ob bereits eine Reaktion auf eine eben geschriebene Nachricht erfolgt ist.
Die meisten Befragten der Studie schätzten die positiven Auswirkungen auf das tägliche Leben. So sind 70 Prozent überzeugt, dass Apps Stress reduzieren und 68 Prozent denken, dass sie ihre Produktivität zu Hause oder am Arbeitsplatz verbessert haben. In vielen Fällen erfüllen die Apps im Leben der Menschen so wichtige Aufgaben, dass sie kaum darauf verzichten können. 55 Prozent der Befragten gaben an, dass sie höchstens vier Stunden ohne Smartphone auskommen und 50 Prozent greifen nach dem morgendlichen Aufwachen zuerst zum Mobilgerät.
Süchtig nach Social Media und Internet?
Auf viele (meist ältere) Leute, die nur wenig Kontakt mit digitalen Services haben, wirken solche Verhaltensweisen irritierend. Und so werden Grusel-Schlagzeilen wie die folgende gern gelesen: 100.000 Kinder und Jugendliche sind Social-Media-süchtig. Das klingt bedrohlich, doch was steckt wirklich dahinter? Die Zahlen stammen aus einer Studie der Deutschen Angestellten Krankenkasse DAK, in der rund 1.000 Kinder und Jugendliche zwischen zwölf und 17 Jahren zu ihren Verhalten in sozialen Medien befragt wurden. 26 davon haben einige Kriterien für Suchtverhalten erfüllt. Und hier tauchte wie bei ähnlichen Studien ebenfalls eine Übereinstimmung auf: Einige Jugendliche gaben an, sowohl unter depressiven Stimmungen zu leiden, als auch Social Media übertrieben intensiv zu nutzen.
[toggle title=“Was genau ist Social-Media-Sucht?“]
Die DAK-Studie fragte bei seiner Stichprobe aus Jugendlichen auch das psychometrische Instrument „Social Media Disorder (SMD) Scale“ ab, das von niederländischen Psychologen entwickelt wurde. Es sei sehr gut geeignet, zwischen Vielnutzern einerseits und Personen mit Suchtverhalten andererseits zu unterscheiden, konstatiert eine Analyse des Instruments. Die SMD-Skala basiert auf einem Katalog aus neun Fragen, von denen mindestens Fünf mit „Ja“ beantwortet werden müssen, um Hinweise auf eine Suchtstörung anzuzeigen. Es sind die folgenden neun Fragen, von mir aus dem Englischen in das Deutsche übersetzt:
Wenn Du an das vergangene Jahr denkst:
1. Hast Du schon mal versucht, weniger Zeit mit sozialen Medien zu verbringen, bist aber daran gescheitert? 2. Warst Du regelmäßig unzufrieden, weil du mehr Zeit mit sozialen Medien verbringen wolltest? 3. Hast Du dich oft schlecht gefühlt, wenn du keine sozialen Medien nutzen konntest? 4. Hast Du schon mal versucht, weniger Zeit mit sozialen Medien zu verbringen, bist aber daran gescheitert? 5. Hast Du andere Aktivitäten wie etwa Hobbys oder Sport häufig vernachlässigt, weil du soziale Medien nutzen wolltest? 6. Hast Du regelmäßig Streit mit anderen wegen deiner Nutzung von sozialen Medien? 7. Hast Du Eltern oder Freunde häufiger über die Zeit angelogen, die Du mit sozialen Medien verbringst? 8. Hast Du oft soziale Medien genutzt, um negativen Gefühlen zu entkommen? 9. Hast Du wegen deiner Nutzung von sozialen Medien ernsthafte Konflikte mit deinen Eltern oder Geschwistern?
Es handelt sich hier um eine Skala, die in erster Linie ein Diagnoseinstrument für eine einzelne Person ist. Es ist schwierig, sie auf eine soziologische Untersuchung zu übertragen – der familiäre und soziale Kontext der Kinder und Jugendlichen ist nicht bekannt. So müsste ein Psychologe erst ein längeres Anamnesegespräch mit Kindern oder Jugendlichen führen, um das vermutete Suchtverhalten zu bestätigen – und vor allem, um eine damit verbundene Depression zu diagnostizieren. In der Soziologie wäre das durch eine einzelne quantitative Studie nicht zu leisten, sondern würde umfangreiche und teure qualitative Studien erfordern. Auf jeden Fall gilt für die SMD-Skala : Die Anzahl und Art der Antworten allein ist lediglich ein Anfangsverdacht.
[/toggle]
Solche Ergebnisse gibt es bei zahlreichen soziologischen Untersuchungen. Immer wieder tauchen Korrelationen zwischen Intensivnutzung von Internet, Games und Social Media einerseits und Depressionen andererseits auf. Eine Kausalität lässt sich hieraus nicht ableiten – obwohl es in den meisten Medien immer getan wird („Instagram macht Mädchen depressiv“). Eines der wichtigsten Probleme dabei ist die Unschärfe der Fragen und Instrumente. Sie geht zurück auf einen Mangel an gut bewährten soziologischen Erkenntnissen über Jugend und Digitales; etliche Studien reflektieren lediglich allgemeine Vorurteile über die Jugend oder das Internet. Eine Ausnahme sind eine Grundlagenstudie von 2014 und die auf ihr aufbauende Nachfolgestudie von 2018, beide vom Sinus-Institut in Heidelberg.
[toggle title=“Jugend & Internet – die Sinus-Studien“]
In diesen Studien überträgt Sinus den von ihm entwickelten Milieuansatz auf die Internetnutzung von neun bis 24-jährigen. Im Einzelnen geht es um folgende Milieus bzw. Lebenswelten: Verantwortungsbedachte und Skeptiker sind eher defensiv und vorsichtig. Pragmatische und Unbekümmerte haben einen ausgeprägten Teilhabewunsch, ihr Leben spielt sich deshalb größtenteils online ab. Sie sehen sich nicht unbedingt als Experten und pflegen einen pragmatischen, teils unbedarften Online-Stil. Enthusiasten und Souveräne sind Intensiv-Onliner mit unterschiedlich ausgeprägter Grundhaltung. Während die Enthusiasten Risiken eher ausblenden, sind die Souveränen kritisch und suchen einen Weg, selbstbewusst mit Online-Gefahren umzugehen.
Soweit der Status 2014. in den folgenden vier Jahren haben sich einige Veränderungen ergeben. So musste Sinus für die 2018er-Studie das Kriterium der Internetferne streichen, es ist kein konstituierende Merkmal für ein Milieu mehr. Denn bei den derzeit Unter-25-jährigen gibt es keine Offliner. Das Internet ist fester Bestandteil ihres Alltags und nicht mehr optional. Wer sich hier bewusst dagegen entscheidet, ist in seiner Teilhabe eingeschränkt. Das ist Jugendlichen und jungen Erwachsenen deutlich bewusst. Für sie ist es keine Frage mehr, das Internet zu nutzen. Es geht stattdessen nur noch um das Wie.
Die Studien sind interessanter Lesestoff und bieten viele Erkenntnisse. Eine von zahlreichen: Kinder und Jugendliche sind ihrer eigenen Online-Nutzung deutlich skeptischer gegenüber eingestellt, als es den Eindruck macht. Zwar können sie sich ein Leben ohne Internet nicht mehr vorstellen, doch fast jeder dritte Jugendliche nimmt das eigene Nutzungsverhalten als problematisch wahr. Zudem fürchten zahlreiche Jugendliche typische Gefahren wie Cybermobbing oder Identitätsdiebstahl.
Trotz ihrer Informiertheit über die Gefahren fühlen sich viele Jugendliche eher schlecht auf ihre persönliche digitale Zukunft vorbereitet. Eine wachsende Gruppe erkennt, dass sie sich lediglich virtuos auf Oberflächen bewegt, aber von den technischen Hintergründen keine Ahnung hat. Das zu ändern, wäre natürlich eine Aufgabe für das Bildungssystem. Aber leider ist die Institution Schule eher nonline…
[/toggle]
Die Studien zeigen deutlich, dass junge Leute zu einem souveränen, aber untechnischen Umgang mit der digitalen Welt neigen. Kurz: Sie sind digitale Konsumenten. Und natürlich gibt es auch hier ein Zuviel des Konsums. Eine eingebaute Tendenz zur Dauernutzung haben vor allem spielerische Angebote mit hoher Attraktivität und einer eingebauten, ebenfalls sehr attraktiven Belohnung – etwa Aufmerksamkeit durch Zustimmung und Lob anderer Nutzer. Sucht-ähnliches Verhalten betrifft aber nur eine kleine Minderheit und die auslösenden Faktoren sind nicht hinreichend geklärt.
Die große Mehrheit
der Jugendlichen und jungen Erwachsenen hat digitale Dienste in ihre Lebenswelt
integriert, vor allem Spiele und Social Media. Sie werden genutzt, weil sie da
sind und weil sie praktisch sind. Oft handelt es sich aber auch um Jugendkultur-Phänomene,
die nur von einer bestimmten Altersgruppe oder einigen Jahrgangskohorten sehr
intensiv genutzt werden. Anschließend werden die entsprechenden Apps
uninteressant und verschwinden in Einzelfällen sogar vom Markt, wie
beispielsweise Musical.ly.
Die App-Konsumenten der Zukunft
Die Sinus-Studien stellen eine recht große Heterogenität der Nutzung von digitalen Diensten fest, doch auch einige Gemeinsamkeiten in allen Milieus: Es gibt keine Offliner mehr und digitale Services werden als Bestandteil des täglichen Lebens akzeptiert – von einigen sehr enthusiastisch, von anderen auch kritisch. Aus Sicht von Unternehmen ist das eine interessante Konsumentengruppe: Sie nutzen Fun- und Game-Apps besonders intensiv, sind aber auch aber auch offen für Marketing-Apps und andere digitale Angebote von Unternehmen.
Doch genau diese Konsumentengruppe ist anspruchsvoll und somit wird der durchschnittliche App-Nutzer auch immer mäkeliger. Die App-Dynamics-Studie konstatiert eine Null-Toleranz-Einstellung gegenüber schlechten digitalen Diensten. So gaben etwa drei Viertel der Befragten an, dass in der letzten Zeit ihre Erwartungen an die Leistungsfähigkeit von Apps gestiegen sind. Eine Mehrheit von 70 Prozent toleriert keine technischen und sonstigen Probleme mit den Apps. Auch wenn die freiwillige Angabe von Zahlungsbereitschaft immer etwas problematisch ist: Immerhin jeder zweite der Befragten würde für digitale Produkte und Services einen höheren Preis in Kauf nehmen, wenn die Qualität höher ist als bei den Mitbewerbern.
Verbraucher
verzeihen schlechte Erfahrungen nicht mehr einfach so: Sie wechseln zum
Wettbewerber (49%) oder raten anderen von der Nutzung des Dienstes oder der
Marke ab (63%). Aus der Studie lassen sich zwei wichtige Anforderungen
ableiten, den Unternehmen bei der Entwicklung ihrer digitalen Services beachten
sollten:
Arbeitsgeschwindigkeit: Die Leistung der Anwendung steht im Vordergrund. Ruckeln, lange Reaktionszeiten, endlose Datenübertragungen – all das macht für die Verbraucher einen schlechten Service. Da moderne Apps meist keine lokale Anwendungslogik mehr haben, sondern ein Cloud-Backend, ist Application Performance Management (APM) das Entdecken und Beheben von Problemen notwendig. Anbei sollte der gesamte Technologie-Stack vom Frontend über das Backend bis hin zum Netzwerk in Echtzeit überwacht werden.
Benutzererfahrung: Wichtig ist auch eine moderne, leicht verständliche und einfach zu bedienende Benutzeroberfläche. Das klingt wie eine Binse, ist aber leider immer noch nicht selbstverständlich. UX/UI-Design (User Experience, User Interface) ist heute eine eigene Disziplin des Software-Engineering und muss von den Unternehmen ernst genommen werden. Vor allem die nachwachsenden Generationen sind in dieser Hinsicht anspruchsvoll, sie erwarten eine intuitive Bedienung, die keine Fragen offen lässt.
Vor einer Woche habe ich diesen Artikel zum Thema Zeiterfassung auf LinkedIn geteilt und mit Anekdoten gewürzt. Die Überschrift lautet „Die Vertrauensarbeitszeit ist faktisch tot“ und ein Arbeitsrechtler erklärt, dass der EuGH der Täter ist. Die Folge: 48 Kommentare, 53 Reaktionen und fast 13.000 Views. Für mein wenig prominentes Profil ist das eine Menge. Da Vertrauensarbeitszeit und flexible Arbeitszeitregelungen entscheidend für die wirtschaftliche Zukunft Deutschlands sind, hier ein Artikel mit weiteren Überlegungen:
Timeo danaos et dona ferentes wissen wir durch Asterix-Lektüre. Und die Danaer von heute sind die Richter am Europäischen Gerichtshofs (EuGH). Denn sie haben den europäischen Arbeitnehmern ein Geschenk gemacht: Mit dem Urteil vom 14. Mai 2019 haben sie alle europäischen Arbeitgeber dazu verpflichtet, die tägliche Arbeitszeit jedes Mitarbeiters genau zu erfassen. Dies erleichtere den Arbeitnehmern den Nachweis der Überschreitung von Arbeitszeiten, der Unterschreitung von Ruhezeiten und biete Behörden und Gerichten ein wirksames Mittel zur Kontrolle. Die Mitgliedsstaaten sind jetzt gefordert und müssen dieses Urteil in Gesetze gießen.
Digitale Zeiterfassung ist besser
Das hört sich im
ersten Moment gar nicht mal schlecht an, schließlich will keiner unbezahlte
Arbeit leisten. Und es gibt eine ganze Menge Jobs, in denen genaue
Zeiterfassung wichtig ist. Aus eigener Erfahrung: Mir war das als Brief- und
Paketzusteller wichtig, als Altenpfleger und als Helfer im IT-Support. Diese
Jobs sind anstrengend und es ist wichtig, dass die Arbeitszeitgesetze penibel
eingehalten werden. Das bedeutet: Acht Stunden Arbeit am Tag, ausnahmsweise
zehn Stunden, elf Stunden Mindestruhezeit, Überstunden müssen bezahlt werden.
Das EuGH-Urteil verpflichtet Arbeitgeber also dazu, die Einhaltung dieser
Regeln auch nachzuweisen.
Mit modernen digitalen Verfahren ist das einfach erledigt. So könnte eine automatische Erfassung beim Betreten und Verlassen des Gebäudes mit einer RFID-Mitarbeiterkarte diesen Zweck erfüllen. Zudem ist es möglich, über das An- und Abmelden an den internen Geschäftsanwendungen eine noch genauere Erfassung der Arbeitszeit zu leisten. Außendienstler bekommen eine App für die Meldung zur Arbeit und im Homeoffice muss ja schließlich auch die Software des Unternehmens genutzt werden.
Das Urteil ist also grundsätzlich umsetzbar, doch in der Praxis wird die Zeiterfassung auf Hürden stoßen. Unsere Arbeitswelt ist flexibler als vor 20 oder 50 Jahren. Vor allem in den Bereichen, die unter dem Oberbegriff Wissensarbeit laufen, geht es in erster Linie um zielorientiertes Arbeiten. Aufträge müssen abgewickelt werden, Projekte beendet und Meilensteine erreicht werden. Viele Mitarbeiter sind nicht regelmäßig an ihrem Schreibtisch, sondern reisen zu Kunden, Lieferanten oder einer Zweigstelle. Hinzu kommen Außendienstler, die lediglich zu Besprechungen in die Zentrale kommen; Leiharbeiter, die gar nicht beim Unternehmen angestellt sind; Homeoffice-Regelungen oder ausgelagerte Arbeitsplätze in einem Coworking-Space und vieles mehr.
Digitale Tools, digitaler Akkord
Das Problem dieses Urteils, das es zum Danaergeschenk macht: Eine generelle Zeiterfassung differenziert nicht zwischen unterschiedlichen Arten der Arbeit. Denn die vom EuGH vefohlene Arbeitszeiterfassung gehört zum Zeitregime des Industriezeitalters, als Arbeitsbeginn, Pausen und Arbeitsende sehr genau festgelegt waren. Zwar gibt es auch heute noch Leute, die auf genau diese Weise arbeiten, doch in vielen Firmen ist das nicht mehr die Mehrheit.
In Zukunft müssen alle ihre Arbeitszeit erfassen, mit Softwarelösungen. Sie könnten aber zu einer totalen Kontrolle führen – eine sicher nicht von den EuGH-Richtern intendierte Nebenfolge. Sogenannte Clickworker kennen das bereits: Ihre Arbeit wird sekundengenau erfasst, etwa die Datenvorbereitung für Machine Learning. So etwas ist eine digitale Form von Akkordarbeit.
Die Clickworker sind gezwungen, eine bestimmte Arbeitsmenge pro Stunde zu schaffen, um angesichts der geringen Stücklöhne überhaupt ein halbwegs brauchbares Einkommen zu erzielen. Dabei werden Zeiten und Mengen aufgezeichnet, sodass eine genaue Abrechnung möglich wird. Diese Form von prekärer Arbeit könnte sich durch Zeiterfassung noch weiter verbreiten. Die Einführung solcher Systeme kostet und es ist naheliegend, den Aufwand durch Effizienzgewinne zu refinanzieren.
Ist Arbeitsleistung immer messbar?
Ein zweites Problem: Viele Aufgaben in der Wissensarbeit sind mit automatischer Zeiterfassung kaum messbar. Ein typisches Beispiel ist das Verfassen dieses Textes: Er ist nicht in einem Stück entstanden, sondern über mehrere Tage hinweg. Ich musste dreimal ansetzen, um meine anfangs noch unsortierten Gedanken zu ordnen. Darüber hinaus habe ich ein Mittelstück einfach gestrichen, da es mir zu abschweifend vorkam. In dieser Zeit habe ich sicher manche Viertelstunde vor dem Computer gesessen und gebrütet — von meinen Playlists beschallt und mit gelegentlicher Hirnentspannung durch Betrachten von YouTube-Videos.
Solche Situationen gibt es in zahlreichen Berufen, die mit Kreativität und Entwicklung zu tun haben, vom Grafiker bis hin zum Backend-Entwickler. Es ist praktisch unmöglich, wie eine Maschine stundenlang zu schreiben oder zu coden. Aus diesem Grunde gehen Wissensarbeiter gelegentlich einen Kaffee trinken, stellen sich zum Durchatmen auf den Balkon oder befreien sich von Denkblockaden durch ein Schwatz mit Kollegen.
Wie soll so etwas gemessen werden? Wird dann den Mitarbeitern wie in Ausbeuterjobs der Toilettenbesuch vom Lohn abgezogen? Das kann das EuGH nicht gemeint haben. Doch diese überspitzten Beispiele zeigen, dass es leider nicht so einfach ist mit der Zeiterfassung. Eine allgemeine Pflicht zur Dokumentation der Arbeitszeit könnte sinnvoll nur durch die Formel „Anwesenheit gleich Arbeitszeit“ erfüllt werden. Doch selbst das führt zu Problemen, bei Mitarbeitern im Außendienst etwa, in Vertrieb und Service.
Das digitale Zeitregime und die große Lüge
Wenn tatsächlich ein Außendienstler seine Arbeitszeit dokumentieren soll, muss auch genau festgelegt werden, was zu dieser Arbeitszeit gehört. Klar, Fahrzeiten gehören dazu. Doch was ist, wenn Kundentermine plus Anfahrt zehn Stunden überschreiten? Und wenn der nächste Termin inklusive Anfahrt so ungünstig liegt, dass keine elf Stunden Ruhezeit möglich sind? Bisher ist es üblich, diese Dinge schlicht zu ignorieren. Offiziell gelten die gesetzlichen Arbeitszeitregeln, inoffiziell wird einfach die anfallende Arbeit erledigt. In schlechten Unternehmen ist es das. In guten Unternehmen schreiben die Mitarbeiter Überstunden auf und feieren sie in Absprache mit Management und Kollegen ab.
In vielen Berufen vom Außendienstler bis zum Zeitungsreporter gab es also bisher eine Zweiteilung. Auf der einen Seite die gesetzlichen Arbeitszeitregeln, die selbstmurmelnd strikt eingehalten wurden. Auf der anderen Seite die notwendige Flexibilität, mit mehr oder weniger großzügigem Überstundenausgleich. Diese Zweiteilung wird es auch in der Welt des EuGH-Urteils geben.
Meine Vermutung: In leicht prüfbaren Arbeitssituationen wird sich das Zeitregime verschlimmern, da digitale Tools den tatsächlichen Arbeitsfortschritt gut erfassen können. In weniger leicht prüfbaren Situationen werden die Unternehmen nicht anders können, als dem Mitarbeiter die Zeiterfassung selbst zu überlassen. Unter anderem deshalb, weil viele technische Spezialisten begehrt sind. Die Unternehmen können nicht ohne sie und müssen ihnen deshalb einigermaßen angenehme Rahmenbedingungen bieten.
Zeiterfassung im 21. Jahrhundert ist also entweder zum Nachteil der Mitarbeiter oder eine große Lüge.
Die Situation der Mitarbeiter wird dadurch eher schlechter, nicht besser. Denn die Zahl der Kontrollfreaks im Management ist immer noch groß und sie werden sich die Gelegenheit nicht entgehen lassen, den Mitarbeitern genau auf die Finger zu schauen.
So stolperte Amazon in die Bias-Falle: Seit 2014 hat ein Team aus einem guten Dutzend Maschine-Learning-Spezialisten in Edinburgh an einer KI-Anwendung gewerkelt, die anhand von Bewerbungsunterlagen geeignete Kandidaten ermitteln sollte. Das Problem dabei: Die KI wertete Frauen ab und fischte aus dem digitalen Bewerbungsstapel lediglich die Männer heraus.
Der Grund: Eine
Verzerrung („Bias“) der Trainingsdaten. Machine-Learning-Modelle
müssen anhand von „korrekten“ Beispieldaten trainiert werden, etwa
den Bewerbungsunterlagen von erfolgreichen Mitarbeitern. Da es hier aber um
technische Berufe ging, spiegelt der Trainingsdatensatz deren Problematik
wieder: Männer stellen die Mehrheit. Das Modell hat also gelernt, dass ein
wichtiges Merkmal erfolgreicher Kandidaten das männliche Geschlecht ist.
Das Problem von
Amazon zeigt, dass die Auswahl der Trainingsdaten entscheidend ist für den
Erfolg einer KI-Anwendung. Mit dem richtigen Dataset kann die KI-Anwendung
korrekt arbeiten – egal, ob es um Kandidatenauswahl oder jede andere Art von
Aufgabe geht. Doch einfach ist die Bestimmung eines Dataset nicht, es können
eine Reihe von Schwierigkeiten auftauchen.
Repräsentativität – Verzerrung durch Auswahl der Daten
Ein Dataset muss für
seinen Anwendungsbereich repräsentativ sein, also (annähernd) vollständig über
sämtliche möglichen Merkmale und Merkmalskombinationen streuen. Sonst kommt es
zu schlechten Ergebnissen: Da gab es diese KI, die Schiedsrichter in einem Schönheitswettbewerb
spielen sollte. Natürlich ist sie mit Fotos von Models trainiert worden, doch
„Persons of Color“ waren dabei unterrepräsentiert. Und so wurden nur
europäisch oder asiatisch aussehende Menschen als schön gekennzeichnet.
Doch wie erhält man einen repräsentativen Datensatz? Lediglich möglichst viele Daten zu sammeln, führt nicht weiter. Auch eine noch so große Datenmenge bewirkt nicht, dass der Datensatz insgesamt repräsentativ für etwas ist, was in der Soziologie „Grundgesamtheit“ heißt. Damit ist der Bereich gemeint, für den diese Daten eine Aussage treffen sollen – beispielsweise die Grundgesamtheit „deutsche Gesellschaft“ oder „Verbraucher zwischen 16 und 46“.
Damit eine valide Aussage entsteht, muss die Auswahl des Datensatzes zufällig sein, ohne Regeln, Voraussetzungen oder Vorurteile. Eine reine und wissenschaftlich korrekte Zufallsauswahl ist in der Praxis allerdings unmöglich. Data Scientists müssen also auf eine Heuristik zurückgreifen, bei der Merkmalsvielfalt und Vollständigkeit wichtige Kriterien sind. Was das genau bedeutet, hängt vom Anwendungsbereich ab. So müsste eine Computer-Vision-Anwendung, die Hunde von Katzen unterscheiden kann, für ihre Trainingsdaten Fotos von allen möglichen Hunde- und Katzenrassen präsentiert bekommen.
Framing – Verzerrung in der Realität
Ein weiteres heuristisches Kriterium ist Framing: Der Realitätsbereich, in dem die KI-Anwendung eingesetzt wird, ist häufig bereits verzerrt. Die Amazon-KI ist ein gutes Beispiel dafür. Technische Berufe sind üblicherweise sehr stark männlich „geframet“. Dies beginnt beim geringen Interesse der Mädchen für MINT-Fächer in den Schulen, setzt sich in den entsprechenden Studiengängen fort und wird schließlich zur Realität des überwiegend männlichen Berufs.
Es ist offensichtlich, dass hier Talente verloren gehen. So ist es für die Kandidatenauswahl eine gute Idee, gleich viele Profile von Männern und Frauen als Trainingsdatensatz zusammenzustellen. Doch das Framing betrifft nicht nur das Geschlecht. Ein anderes Merkmal könnte der (Aus-)Bildungsabschluss sein. In einem „ungeframeten“ Datensatz könnten unter Umständen auch Kandidaten ohne Hochschulabschluss oder Quereinsteiger ganz ohne formelle Abschlüsse vorkommen.
Das zeigt, dass die anfängliche Entscheidung über Ziel und Aufgabe der KI-Anwendung wichtig ist. Wer die Wirklichkeit lediglich abbilden will, muss auf Repräsentativität des Datensatzes achten, wer normative Ziele hat, eher auf eine mögliche Verzerrung das Realitätsbereichs. Wenn beispielsweise eine KI-Anwendung zur Auswahl von Bewerbern dafür sorgen soll, dass normalerweise wenig berücksichtigte Kandidaten eine größere Chance bekommen, muss der Datensatz entsprechend korrigiert werden.
Bestätigungsfehler – Verzerrung durch Vor-Urteile
Hier taucht
allerdings sofort das nächste Problem bei der Auswahl von Daten auf: Der
Bestätigungsfehler. Er kann in drei unterschiedlichen Varianten vorkommen:
Die Daten werden intuitiv ausgewählt, weil sie sich „richtig anfühlen“ und mit den Vorannahmen des Auswählenden übereinstimmen. Das Ergebnis der KI-Anwendung ist dann genau das, was der menschliche Nutzer „immer schon wusste“. In diesem Fall fehlt es an einem genauen Konzept zur Daten- und Merkmalsselektion und der Aufmerksamkeit für Verzerrungen.
Die Daten werden systematisch so ausgewählt, dass sie zu dem vermuteten oder gewünschten Ergebnis passen. Leider passiert das häufig in Unternehmen: Eine in der Hierarchie höher stehende Person akzeptiert nur eine bestimmte Datenauswahl und erreicht damit das erwartete und nützliche Ergebnis.
Die Daten besitzen einen unerkannten Bias und werden auch für den Test des Neuronetzes genutzt. Diese Vorgehensweise ist häufig, ein Dataset wird geteilt und je die Hälfte zum Training und zum Überprüfen der Ergebnisse eingesetzt. In diesem Fall bestätigt sich der Bias in einem vermeintlich validen Ergebnis – Entwickler kennen das als „Garbsage in, Garbage out“.
Der letzte Punkt ist besonders wichtig. Ein ML-Modell sollte möglichst immer an Daten getestet werden, die entweder direkt aus der Praxis kommen oder auf andere Weise gewonnen werden. In der Bilderkennung beispielsweise sollten die Datasets aus unterschiedlichen Quellen kommen, um mögliche VErzerrungen besser zu erkennen.
Seltene Ereignisse – Verzerrung durch den Faktor Zeit
Eine weitere Form der Verzerrung ist das Problem der seltenen Ereignisse, das besonders für autonome Fahrzeuge kritisch ist. Ihre ML-Modelle werden mit Aufzeichnungen von Fahrsituationen trainiert, etwa Videodaten aus Fahrerperspektive oder 360°-Darstellungen von Lidar-Scannern, die Bilder mit Laser-Abtastung erzeugen. Waymo und andere Entwickler autonomer Fahrzeuge zeichnen jede gefahrene Meile auf und bauen so nach und nach einen Datensatz aus alltäglichen Fahrsituationen auf.
Inzwischen sind diese Datasets gigantisch und erfassen viele, aber leider nicht alle denkbaren Fahrsituationen. Denn jeder menschliche Autofahrer kennt seltene Ereignisse – etwa der bunte Spielzeugball, der über die Straße rollt und Sekundenbruchteile später von einem rennenden Kleinkind verfolgt wird. Wie oft erlebt jemand diese Situation in seinem Leben tatsächlich? Keinmal, einmal, zweimal? Die meisten wohl selten. Trotzdem reagiert jeder Mensch sofort richtig. Damit eine Auto-KI diese Situation zweifelsfrei erkennt, müssen die Trainingsdaten eigentlich viele Varianten enthalten, etwa rollende Bälle unterschiedlicher Größe, Spielzeuge mit Rädern oder Haustiere.
Nur: Seltene
Ereignisse in der Realität sind in einem durch Beobachtung erzeugten Dataset
ebenfalls selten. Dies zeigte sich an einem tragischen Unfall mit einem
autonomen Auto. Die KI erkannte die Gefahr nicht, als eine Frau nachts bei
schlechter Beleuchtung ihr Fahrrad quer über eine mehrspurige Straße schob. Es
gibt kaum einen Ausweg, als einfach immer weiter echte Fahrdaten zu sammeln.
Deshalb ist hier ausnahmsweise die Größe des Datensatzes recht wichtig. Den
größten hat Tesla, aus diesem Grunde sprechen einige KI-Experten dem
Unternehmen von Elon Musk Vorteile bei der Entwicklung eines autonomen Autos
zu.
Das ideale Dataset gibt es nicht
Die oben geschilderten Verzerrungen in Datasets sind nur einige Probleme. Es gibt noch weitere Verzerrungen, die in vielen Situationen zu Schwierigkeiten führen: Zu wenige geeignete Daten trotz eines großen Datasets, fehlerhafte Daten, den Mittelwert verzerrende Extremwerte, zu strenge oder zu schwache Auswahlkriterien für Daten, falsch ausgewählte Merkmale für das Training und einiges mehr.
Ohne Sorgfalt und Überlegung bei der Auswahl der Daten wird es nicht gelingen, durch das Training ein valides ML-Modell zu erhalten. Es gibt jedoch ein paar Daumenregeln. Sie helfen unter anderem dem Management eines Unternehmens, Voraussetzungen und Konsequenzen der jeweiligen Maschine-Learning-Anwendungen zu verstehen.
Ein sehr großes (Millionen Entitäten) Dataset ist keine Garantie für gültige Ergebnisse. Allerdings muss ein sehr klein wirkendes (wenige 100 Entitäten) Dataset besonders kritisch geprüft werden.
Annahmen und Voraussetzungen müssen geklärt werden. Es ist sinnvoll, in der Vorbereitungsphase eines ML-Projekts zu beschreiben, welche Annahmen für den Aufgabenbereich gelten und welche in den Trainingsdaten versteckt sein könnten.
Trainingsdaten sollten einerseits zufällig ausgewählt werden und andererseits möglichst breit streuen. Historische Daten aus dem eigenen Unternehmen sind oft weniger geeignet, da sie spezifische Verzerrungen enthalten können. Die finden sich dann in den Ergebnissen wieder.
Videobeobachtungen enthalten nur das, was tatsächlich beobachtet wurde und nicht das, was insgesamt beobachtet werden kann. Sie sind mit Vorsicht zu genießen, profitieren allerdings von der Größe des Datasets.
Beschaffung, Bearbeitung, Auswertung und Interpretation von Daten aller Art — so lässt sich das Berufsbild des Data Scientist oder Datenwissenschaftlers beschreiben. Data Science gilt als Teil der angewandten Mathematik und ist ein Querschnittfach, dass sich irgendwo zwischen Informatik, Mathematik und Statistik bewegt. Und es hat ein enorm gutes Image, denn die Harvard Business Review hat den Data Scientist zum Sexiest Job des 21. Jahrhunderts ausgerufen. Das zeigt sich auch im Jobranking von Glassdoor: Der Datenwissenschaftler landete in diesem Jahr zum vierten Mal in Folge auf dem ersten Platz.
Das Berufsbild ist recht heterogen. „Es entwickelte sich im Zuge der sich ändernden Bedürfnisse aus der Wirtschaft heraus. Daher begründet sich auch der hohe Praxisbezug“, betont Michaela Tiedemann, CMO bei der Data-Science-Beratung Alexander TAM GmbH, in einem Blogbeitrag, der einen Überblick über Berufsbild und Ausbildungsmöglichkeiten in Deutschland gibt.
Der deutsche Arbeitsmarkt für Data Scientists
Stellen für Datenwissenschaftler sind trotz der Neuigkeit des Berufsfeldes gar nicht so selten. Die Ergebnisse der Jobsuchmaschine Joblift sollten repräsentativ sein, da der Service große Stellenmärkte wie Stepstone und Monster auswertet – auch wenn Dubletten möglich sind. So gibt es im Moment etwa 1.200 offene Jobs für den Suchbegriff „Data Scientist“. Verwandte Berufe wie Data Analyst (1.600 Treffer), Data Engineer (1.800 Treffer) und Data Architect (1.100 Treffer) haben ähnlich viele Treffer. Zum Vergleich: Für Softwareentwickler gibt es zehnmal so viele Anzeigen.
Um in den Data-Science-Jobs arbeiten zu können, müssen Bewerber recht hohe Anforderungen erfüllen. Denn Datenwissenschaftler haben oft eine gehobene Position in technischen Fachbereichen. Dementsprechend gehört neben Kenntnissen in Informatik und Mathematik vor allem analytisches Denken, Kommunikationsstärke und Führungsfähigkeit zu den wichtigen Muss-Kompetenzen eines Datenwissenschaftlers – meint die Recruiting-Agentur AlphaJump in ihrem Karriereguide zum Data Scientist.
Das stark nachgefragte Berufsbild hat auch die Universitäten aufmerksam gemacht. So gibt es seit etwa 2016 eine Vielzahl an Masterstudiengängen zum Datenwissenschaftler, wohl an mehr als 20 Universitäten. Die ersten Absolventen dürften gerade auf den Markt kommen. Allerdings ist im Moment noch nicht ganz klar, wie der Arbeitsmarkt für sie aussieht. Ein genauer Blick zeigt, dass sie vermutlich bei vielen Anzeigen keinen Erfolg haben werden.
[toggle title=“Einige Beispiele für Stellenanzeigen:“]
Das bekannte Systemhaus Bechtle sucht einen Data Scientist mit mehrjähriger Berufserfahrung, der sich laut Anzeige mit Software für Data Analytics, klassischen RDBMS und No-SQL-DBMS auskennen sollte. Zu allem Überfluss sollte er oder sie auch noch Kenntnisse in Bereichen wie Virtualisierung oder Predictive Maintenance mitbringen.
Auch Discounter Aldi stellt Data Scientists ein, unter anderem im Supply Chain Management. Hier ist ebenfalls Berufserfahrung im Bereich Data Science oder Business Analytics gefragt sowie idealerweise Kenntnisse der Besonderheiten der Handelsbranche. Hinzu kommt noch Erfahrung mit SAP-Software, die in Mainstream-Unternehmen immer noch der Standard ist.
Die Telekom hat mehrere Positionen im Bereich Data Science ausgeschrieben, mit einer Gemeinsamkeit: Neben einem MINT-Studium ist mehrjährige Berufserfahrung notwendig, für Senior-Positionen sogar mindestens fünf Jahre. Das stimmt mit den Anforderungen überein. Der Telekom sind neben Kenntnissen in Sachen Datenanalyse noch solche über Software-Engineering, agile Methoden und Cloud-Technologien wichtig — alles IT-Spezialitäten, die niemand in einem Wochenendkurs lernen kann, denn sie erfordern in erster Linie praktische Erfahrung.
[/toggle]
Die Erkenntnis aus der Durchsicht einiger Dutzend Stellenanzeigen: Ohne Berufserfahrung und ein recht breites Skillset geht wenig. Natürlich gibt es auch Angebote für Hochschulabsolventen und auch Ausschreibungen von Praktika, häufig mit der englischsprachigen Stellenbeschreibung „Intern“. Das sind allerdings trotz des Verweises auf Data Science meist eher Stellen mit Assistenzcharakter. Sie sollten aber ausreichen, um erste Erfahrungen zu sammeln.
In Singapur ist es nicht anders als in Deutschland
Trotzdem ist ein Einstieg in die Data Science nicht einfach, auch nicht in der englischsprachigen Welt. Hanif Samad ist Datenwissenschaftler, aber erst nach Überwindung einiger Hindernisse. In einem ausführlichen und hochinteressanten Artikel für das Online-Magazin „Towards Data Science“ kommt er angesichts seiner anfänglich nicht erfolgreichen Bewerbungen zu einem bestechenden Schluss: Er will sich weniger auf das verlassen, was Data Scientists wissen sollen, sondern mehr darauf, was sie in der Praxis tatsächlich machen.
Denn Samad ist bei seiner Informationssuche im Vorfeld der Bewerbungen auf ein Problem gestoßen: Schon eine oberflächliche Google-Suche fördert zahlreiche Ratgeber zutage, die unglaublich viele Must-Have-Skills aufzählen. Dadurch entsteht das Bild eines allumfassend kompetenten Super-Datenwissenschaftlers, das nur leider realitätsfremd ist. Um ein besseres Bild zu erhalten, hat Samad 869 LinkedIn-Profile ausgewertet, in denen als Berufsbezeichnung Data Scientist und als Ort Singapur vorkommt — dort hat er sich gezielt beworben.
[toggle title=“Hier einige seiner Erkenntnisse im Detail:“]
Fast drei Viertel der Data Scientists haben entweder einen Masterabschluss oder einen Ph. D. Lediglich 6 Prozent waren Quereinsteiger mit nicht-traditioneller Zertifizierung.
Mit 14 Prozent hat die Informatik den größten einzelnen Anteil an den Studienabschlüssen. Die unterschiedlichen Ingenieurdisziplinen kommen auf 22 Prozent, die unterschiedlichen Studiengänge für Mathematik, mathematische Physik, Statistik sowie angewandte Mathematik haben ein Anteil von 12 Prozent. Heimlicher Gewinner dieser Statistik ist jedoch das Feld Business Analytics, das sich auf unterschiedliche Studiengänge verteilt und zusammen 15 Prozent ausmacht – viele davon Master und keine Ph. Ds.
Die Berufserfahrung der untersuchten Datenwissenschaftler liegt je nach höchster Qualifikation zwischen vier und sechs Jahren. So gibt auch der Blick in die Realität wider, was bereits aus den Stellenanzeigen abzulesen war: Neu eingestellte Datenwissenschaftler sind normalerweise keine frischen Hochschulabsolventen.
Die meisten Positionen von Datenwissenschaftlern in den Unternehmen sind vergleichsweise neue Stellen: Etwa drei Viertel haben ihre Position seit weniger als zwei Jahren. Gut 42 Prozent der Stellen sind sogar jünger als ein Jahr.
Aus dem letzten lässt sich ableiten, dass ein großer Teil der Datenwissenschaftler vor ihrem Einstieg in die Data Science eine andere Position in ihrem Wissensgebiet hatten. Auch das lässt sich über LinkedIn gut herausfinden: Zu gleichen Teilen waren sie Wissenschaftler, Software Engineers, Analysten und interessanterweise auch Praktikanten und Trainees.
Die Hälfte der untersuchten Datenwissenschaftler waren nicht bei Technologie-Unternehmen angestellt. Sie hatten häufig Positionen in der Finanz- und Versicherungswirtschaft, bei Beratungsunternehmen, in der Industrie und der Wissenschaft.
[/toggle]
Die Ergebnisse von Samad lassen sich nicht ohne weiteres auf Deutschland übertragen, doch sie besitzen einiges an Plausibilität auch für hiesige Verhältnisse und passen gut zur Analyse der Stellenanzeigen. Zusammengefasst sagen sie: Data Science steht Leuten offen, die einen Background aus Mathematik plus Informatik besitzen und mindestens drei Jahre Berufserfahrung haben sollten. Idealerweise haben sie vorher in der IT gearbeitet und praktische Erfahrungen gesammelt, bevor sie sich auf Data Science spezialisiert haben.
Der lange Weg zum Data Scientist
Für Studierende und Absolventen der einschlägigen MINT-Fächer bedeutet das: Sie sollten nach dem Studium zunächst einmal in die Praxis gehen und dabei auf einen ordentlichen IT-Anteil ihrer Tätigkeit achten. Doch praktische Erfahrungen sind nicht alles. Data Scientists müssen auch bestimmte Spezialisierungen haben, um problemlos einen Job zu finden. Studenten und Absolventen müssen darauf achten, die richtigen Dinge zu lernen, meint Jeremie Harris. Der Data Scientist ist Mitgründer eines Mentoring-Programms für Absolventen, die als Einsteiger in der Data Science arbeiten möchten — was zumindest in den USA nicht grundsätzlich ausgeschlossen ist.
Sein Artikel in „Towards Data Science“ richtet sich an Absolventen von MINT-Fächern und empfiehlt ihnen den Einstieg in einige grundlegende Wissensgebiete und Fähigkeiten. Dazu gehören Python-Kenntnisse, Wahrscheinlichkeitstheorie und Statistik. Hilfreich ist außerdem ein Einblick in die Grundzüge des Software Engineering — Stichwort Dokumentation und Versionierung. Zudem müssen Data Scientists auch einen Instinkt dafür entwickeln, welche Lösung in pragmatischer Hinsicht gefragt ist. Tipp: Technisch optimale Lösungen sind nur selten pragmatisch optimal. Zudem müssen die Datenwissenschaftler in der Lage sein, einem nicht-technischen Publikum ihre Konzepte, Projekte und Ergebnisse verständlich zu erklären.
Diese Anforderungen
sind vielen Absolventen nicht bekannt und zudem machen sie nach Ansicht von
Harris bei der Jobsuche häufig einen Fehler: Sie vermuten, dass es bei einem
Bewerbungsgespräch darum geht, sich als der technisch kompetenteste Bewerber
für die ausgeschriebene Position zu beweisen. Er hat andere Erfahrungen
gemacht: „In Wirklichkeit wollen Unternehmen Menschen einstellen, die
ihnen helfen, schneller mehr Geld zu verdienen.“ Das klingt flapsig, aber
es ist in der Tat Grund Nummer Eins für die Existenz eines Unternehmens.
Bewerber sollten das bedenken.
Im tiefen Tal der Bewerberhölle
Nun klingt das so als ob die Unternehmen eigentlich immer wissen, was sie wollen. Nichts könnte falscher sein. „Vorstellungsgespräche für eine Rolle in der Datenwissenschaft sind schwierig“, fasst der Mathematiker und Data Scientist David Neuzerling seine Erfahrungen in einem Blogbeitrag zusammen. „Vielen Unternehmen ist klar, dass sie etwas mit Daten machen müssen. Aber sie haben keine Ahnung, was genau.“ So könne es seiner Erfahrung nach vorkommen, dass Unternehmen von Machine Learning reden, aber in Wirklichkeit nur ein paar Dashboards wollen.
Deshalb rät Neuzerling Bewerbern, unbedingt konkrete Fragen zu stellen. So ist es sinnvoll, die Schlüsselworte aus der Stellenbeschreibung aufzunehmen und nach konkreten Einsatzbereichen, den verwendeten Frameworks, der Anzahl der Projekte und der Größe der Teams zu fragen. Er warnt besonders vor Stellenausschreibungen mit mehrfachen Berufsbezeichnungen wie „Data Scientist/Data Engineer“ oder „Data Scientist/Software Developer“. Neuzerling: „Das sind Anzeichen dafür, dass ein Unternehmen nicht weiß, was es von einem Kandidaten will.“
Darüber hinaus rät er aus eigener Erfahrung, Bewerbungsgespräche mit seltsamen Praktiken sofort abzubrechen. Er erwähnt beispielsweise Videointerviews, in denen er vorgefertigte Fragen beantworten solle oder Prüfungen, in denen er eine Stunde lang handschriftlich Code schreiben musste. Seine Kritik an den Unternehmen: „Sie vergessen, dass Rekrutierung ein zweiseitiger Prozess ist.“ Er rät allerdings auch, sich nicht entmutigen zu lassen — es gebe genügend gute Jobs da draußen.
Und das liebe Geld? Tja …
Die anfangs erwähnte Glassdoor-Statistik deutet es an: Mit einem Median-Einkommen von 108.000 US-Dollar ist man zumindest im nordamerikanischen Raum ein gut verdienender Experte. Einen detaillierten Einblick in die Gehaltsstruktur zeigt die Statistik der IEEE. Erwartungsgemäß verdient man in San Francisco am meisten (>166.000 USD). Interessanterweise gilt das auch, wenn die Lebenshaltungskosten in die Statistik einfließen. Dann entspricht das kalifornische Gehalt zwar nur 121.000 Dollar anderswo, aber anderswo verdient ein Datenwissenschaftler auch bereinigt weniger.
Umgerechnet bedeutet das: In den USA verdient ein erfahrener und erfolgreicher Data Scientist leicht 100.000 Euro pro Jahr. Von solchen Zahlen können die deutschen Datenwissenschaftler nur träumen. Laut der Gehaltsstatistik von Stepstone liegen typische Gehälter zwischen 47.600 und 60.700 Euro pro Jahr. Das ist weit von den US-Gehältern entfernt, zumal hier in Good ol‘ Germany auch die Steuer härter zuschlägt als in den USA. Kurz und gut: Beim Geld ist noch ordentlich Luft nach oben.
Wer kann und mag, sollte über einen Job in den USA nachdenken. Stellen gibt es und es muss ja nicht gleich die Auswanderung sein. Ein paar Jahre in den USA sind in Digitalwirtschaft und Informationstechnologie auf jeden Fall gute Karriere-Booster, jedenfalls in europaweiter Perspektive. Neben Geld ist natürlich auch die Art und Weise der Jobs wichtig. Dinge wie Mindset des Teams und der Vorgesetzten, Unternehmenskultur, Innovationsfreudigkeit, Chancen für eine Unternehmensgründung oder schlicht die Offenheit gegenüber den Ideen und Vorschlägen eines Berufsanfängers — das findet sich mit hoher Wahrscheinlichkeit eher in Kalifornien, aber auch in anderen Gegenden der wirklich sehr großen US of A.
Er ist das erste Fahrzeug von VW, dass den neuen modularen Elektrobaukasten nutzt.
Die Frontpartie ist recht kurz, da es vorne gar keinen Motor gibt.
Dadurch ist der Radstand für ein Auto seiner Klasse ungewöhnlich lang.
Das führt zu einem für die Kompaktklasse großen Innenraum.
Ein ungewöhnliches Designmerkmal, aber windschnittig: Das am Heck überspringende Dach.
Knöpfe gibt es nicht viele, die meisten Funktionen werden über den Touchscreen abgerufen.
Statt Instrumententafel gibt es ein weiteres Display.
Die wenigen Bedienelemente sind nicht-mechanische Touch-Knöpfe.
Der Fahrwahlhebel ist keiner, sondern erinnert an den legendären Bediensatelliten des Citroën CX.
Jetzt muss der ID.3 nur noch im Alltag funktionieren.
Daran habe ich nicht geglaubt: Dass es ausgerechnet einem der größten und (Halten zu Gnaden) von außen komplett einbetoniert wirkenden Konzerne — der Volkswagen AG — gelingt. Nämlich ein Auto der Kompaktklasse zu bauen, das auf Augenhöhe mit Tesla ist; wenigstens auf Zehenspitzen. Natürlich käme es für eine endgültige Bewertung auf einen mehrwöchigen Praxistest an. Mein Erkenntnisse sind zu 100 Prozent theoretisch und gewonnen aus der Auswertung diverser YouTube-Videos und Presseberichte.
Innen ein Passat, außen ein Golf
Von außen wirkt der Wagen modern und elegant, obwohl er eine kurze und auf den ersten Blick etwas knubbelig wirkende Fronthaube hat. Er erinnert damit ein wenig an einen Kompaktvan. Der Wagen ist in etwa so lang wie ein Golf (4,26 m), hat aber dank der verkürzten Front einen deutlich größeren Radstand von 2,77 Metern — was nach Auskunft von Kennern einem Passat entspricht.
Dadurch wirkt der Wagen wie ein quantenphysikalisches Wunder: Er ist innen größer als außen. Das liegt an den üblichen Relationen von Autos der Jetztzeit. Sie sind nämlich insgesamt sehr pausbackig, da die ganze Bordelektrik mit Zillionen Stellmotoren, Knautschzonen und Aufpolsterungen für Airbags und Soundsysteme schließlich untergebracht werden müssen. Das vergrößert die Wagen enorm und der Innenraum wächst nicht mit. Die geringe Größe von Elektromotoren sowie das niedrige Volumen der Zusatzaggregate erlauben deshalb einen deutlich größeren Innenraum bei gleichen Außenmaßen.
Eine weitere Van-Anmutung bewirken die Akku-Packs im Boden. Sie bedingen eine etwas erhöhte Sitzposition, die beim ID.3 allerdings zu einer recht geringen Kopffreiheit führt. Hier hätte VW noch ein paar Zentimeter hinzulegen können. In YouTube-Videos von der IAA war zu sehen, dass Leute meiner Größe (1,91 m) so gerade eben hineinpassen. Meinen Schwager (2,04 m) möchte ich eigentlich nicht im ID.3 sitzen sehen …
Die techno-spartanische Revolution geht weiter
Der Instrumentenbereich ist scheinbar karg eingerichtet. Doch das hat seinen Grund, denn erstens steigt die Anzahl der Funktionen in einem Auto. Dadurch wird die herkömmliche Bedienung über eine Batterie an Knöpfen, Schaltern und Hebeln immer undurchschaubarer. Zweitens ist die Vielzahl der Bauteile schlicht ein Kostenfaktor. Sie müssen eingekauft, Löcher und Verkabelung montiert werden und nicht zuletzt vervielfältigt sich der Montageaufwand durch Konfigurationsoptionen.
Die Vielfalt der Funktionen und Ausstattungsvarianten lässt sich über einen Touchscreen viel leichter abbilden. Per Software kann ohne Kostenaufwand ein Knöpfchen hier oder ein Slider da eingeblendet werden. Darüber hinaus ist es auch möglich, Funktionen jederzeit nachzurüsten. Tesla hat’s vorgemacht, die Benutzeroberfläche des großen Touchscreens in der Mitte hat sich von Versionssprung zu Versionssprung deutlich verändert. Das gibt den Herstellern die Möglichkeit, aus Feedback zu lernen und dabei Verbesserungen sofort allen Kunden verfügbar zu machen.
Software-basierte Instrumentierung wird sicher bald zum Standard in allen Fahrzeugklassen gehören. Zwar kostet auch deren Entwicklung Geld, doch sie ist deutlich flexibler. So ist es möglich, ein Autobetriebssystem zu schaffen, dass für alle Autoklassen vorbereitet ist. Dann unterscheidet sich der Kleinstwagen vom Oberklasse-Flaggschiff auf Seiten der Software nur durch die im „Build“ verwirklichten Funktionen. Und tatsächlich: VW konzipiert zur Zeit ein einheitliches Car-OS, das in allen Modellen aller Marken eingesetzt werden soll.
Die richtige Reichweite für den typischen Fahrer
Praktisch für die Kalkulation des Autokaufs: Den ID.3 gibt es mit gestaffelten Akkugrößen und deshalb auch Staffelpreisen. VW gibt Kapazitäten von 45, 58 und 77 kWh für Reichweiten von 330, 420 und 550 Kilometern an. Sie werden mit dem halbwegs realitätsnahen WLTP-Zyklus bestimmt. Erfahrene Elektroautofahrer sagen, dass diese Angaben allerdings nur dann realistisch sind, wenn der Fahrer ganz entspannt unterwegs ist, etwa auf der Autobahn mit wenig mehr als 100 km/h.
Außerdem hängt die
Reichweite auch von der Effizienz der Elektromotoren und der Leistungsentnahme
aus den Batterien ab. Das Tesla Model 3 gilt hier als vorbildlich und kann dies
auch in der Praxis beweisen: Elektroauto-Pionier Holger Laudeley schafft
es, mit seinem Tesla ohne Ladestopp von Bremen nach Berlin zu fahren, indem er
mit gemütlichen 90-100 km/h ganz rechts einem Lkw
„hinterherökologisiert“. Es bliebe sogar noch genügend Restkapazität
übrig, um eine Sightseeingtour durch Berlin zu fahren.
Der kleinste Akku eignet sich für budget-bewusste Wenigfahrer, die das Auto nur selten und über nicht so lange Strecken bewegen. Mal ehrlich: Dieses Nutzungsszenario trifft auf mindestens 90 Prozent aller Autobesitzer zu. Doch auch Pendler sind mit dem Einstiegsmodell gut bedient, eine Tagesleistung von 200+ Kilometern ist drin. Wer jetzt noch zu Hause und am Arbeitsplatz laden kann, hat im laut VW unter 30.000 Euro liegenden Einstiegsmodell eigentlich das ideale Elektroauto. Durch die serienmäßig verfügbare Schnellladung mit 100 Kilowatt sind auch längere Strecken möglich, erfordern aber ein paar Ladestopps mehr als mit dem größten Akku.
Die deutsche Krankheit: Morbus Pretiosa Configuratio
Die deutschen OEMs sind die Weltmeister der verdeckten Preisexplosion. Gerne bewerben sie die Preise der Einstiegsmodelle ohne zusätzliche Pakete und Optionen. Das sieht dann ganz ordentlich und mittelklasse-artig aus. Doch das böse Erwachen kommt, wenn man ein bisschen Komfort, den ein oder anderen Assistenten und ein paar Sicherheitsmerkmale möchte. So ist es auch beim ID.3, viele Komponenten gibt es nur gegen Aufpreis, einige davon sind sogar unerlässlich für das richtige Elektroauto-Feeling.
So besitzt die Serienversion des ID.3 zwar einen Wärmetauscher, aber keine Wärmepumpe — die ist nur zusätzlich zu buchen. Der Unterschied: Der Tauscher führt Wärme ab, die Pumpe beherrscht auch die Gegenrichtung und kann den Akku vorwärmen. Ein Akkumanagement mithilfe von Wärmepumpen ist ideal. Der Grund: Stromaufnahme und -entnahme am Akku sind nur in einem engen Temperaturbereich optimal. Die Wärmepumpe führt die bei schneller Fahrt und schnellem Laden entstehende Wärme ab und temperiert den kalten Akku im Winter vor. Zudem ermöglicht sie auch eine effiziente Innenraumheizung, die nicht rein elektrisch ist und das Bordnetz belastet.
Eine Wärmepumpe hat zudem den Vorteil, dass die hohen Geschwindigkeiten des DC-Ladens in jeder Situation ausgenutzt werden können. Denn Leistungseinbrüche gibt es ohne dieses Gerät nach schnellen oder langen Fahrten sowie nach Kurzstrecken bei winterlichen Temperaturen. Gut, das sich VW bei dieser Technologie an Tesla orientiert hat; schlecht, das es die Wärmepumpe nur gegen Aufpreis gibt. In der Praxis wird sich zeigen, wie gut der Wärmetauscher arbeitet oder ob es wie beim Nissan Leaf 2 zu Problemen auf längeren Fahrten mit mehreren Ladestopps kommt — dort bricht die Ladeleistung mit jedem Stopp immer weiter ein.
Motorleistung: Ausreichend in jeder Situation
Ungewöhnlich für VW ist die einheitliche Motorisierung der drei Varianten. So gibt es ausreichende 150 PS (110 kW) mit beeindruckenden 310 Newtonmetern Drehmoment. Zum Vergleich: Der in der Leistung vergleichbare 1,5 l TSI-Motor bringt in einem Golf mit Doppelkupplungsgetriebe etwa 250 Newtonmeter bei optimaler Drehzahl. Auch die Beschleunigung des Elektroautos ist besser, die Version mit 77 kW Akku ruft enorme Leistung ab und bringt es in 7,5 Sekunden auf 100 km/h. Der TSI braucht fast eine Sekunde mehr.
Doch bei
Elektromotoren ist die Frage nach der Leistung im Grunde überflüssig, sie ist
normalerweise in jeder Situation ausreichend. Cool ist allerdings das bei
Elektromotoren sehr hohe und praktisch direkt nach dem Anrollen wirksame
Drehmoment. Normalerweise schlägt ein Elektroauto beim Ampelstart jedes
Verbrennerfahrzeug mit gleicher Leistung und zwar völlig problemlos. Und seien
wir (wieder einmal) ehrlich: Schon geil, dass man mit dem Tesla Model 3
Perfomance eine Endgeschwindigkeit von 261 km/h erreicht – aber wo sollte man
so schnell fahren und warum?
Ebenso ungewöhnlich für VW ist der Heckantrieb. Doch dieses Antriebskonzept hat in einem Elektroauto erhebliche Vorteile. Es erlaubt erstens die kurze Front bei großen Innenraum und zweitens ein vergleichsweise sportliches Fahrverhalten — ein Praxistest müsste aber die theoretische Aussage prüfen. Auch im Winter sollte der Heckantrieb wegen der Motorposition an der Hinterachse unproblematisch sein, zumal die Zusatzaggregate vorne liegen und die Straßenlage verbessern. Zum Vergleich: Fahrer von Teslas mit Heckantrieb berichten von einem völlig problemlosen Fahrverhalten bei Schnee.
Wenn der Riesentanker eine Heckwende macht
Der ID.3 ist ein Fahrzeug der Golfklasse und richtet sich damit an durchschnittliche Autofahrer(innen) mit einem durchschnittlichen „Use Case“. Er ist aufgrund seines großen Innenraums und des normal dimensionierten Kofferraums ein guter und bequemer Familienwagen für bis zu vier Personen. Außer für Vielfahrer und Langstreckenpendler sollte die Basisversion mit der geringsten Reichweite ausreichen, aber im Alltag kaufen die meisten Leute lieber einen Sicherheitspuffer dazu. Sie fahren also eigentlich zu groß dimensionierte Autos. Das wird beim ID.3 nicht anders sein.
Dem Volkswagen-Konzern ist es gelungen, ein wirklich gutes Elektroauto auf den Markt zu bringen. Es befriedigt die Erwartungen und Wünsche der heutigen Autofahrer, berücksichtigt die Besonderheiten von Elektroautos und weist in die Zukunft — etwa durch den Einsatz von Touchscreens, Head-up-Displays und berührungsaktiven Knöpfen (wo es sie überhaupt noch gibt). Weder bei der Ausstattung noch bei der Reichweite müssen die Käufer große Kompromisse eingehen.
Doch wird der Wagen
auch ein Verkaufsrenner? Das ist schwer vorherzusagen, denn die Preise sind
schon ganz ordentlich. So wird für eine Vollausstattung mit großem Akku
vermutlich ein Preis jenseits der 50.000 Euro fällig. Hier befindet sich VW in
Tesla-Dimensionen, das Model 3 Performance kostet ohne weitere Optionen ähnlich
viel. Der vergleichsweise hohe Preis ist den im Moment noch hohen Akkupreisen
geschuldet, denn VW muss Zellen zukaufen, während Tesla sie selbst herstellt.
Das zeigt, dass die deutschen OEMs spät dran sind. Trotz seiner hohen Qualität
muss der ID.3 erst noch zeigen, ob er VW zum elektromobilen Erfolg führt.
Vor 50 Jahren bauten Menschen mit vier Computern das Internet. Dies war die Sekunde Null des digitalen Universums, der Urknall. Es folgten eine Expansionsphase, das Erscheinen von seltsamen Attraktoren und schließlich das Ende als weitgehend ungenutzte Leere.
1969: Der Urknall des Internets mit vier Computern
Die Geschichte des
Internet beginnt in den späten 60er Jahren in den USA. Die dem amerikanischen
Verteidigungsministerium unterstellte ARPA („Advanced Research Projects
Agency“) subventionierte Entwicklungen im Bereich der Computervernetzung.
Die ARPA begann 1969, die Rechner der verschiedenen militärischen und
akademischen Einrichtungen in den USA untereinander zu vernetzen. Das Netz trug
den Namen ARPAnet und bestand anfangs aus lediglich vier Rechnern.
Das ARPAnet wuchs
langsam, aber stetig. Schnell zeigte sich, dass nicht nur das
Verteidigungsministerium einen Bedarf an Vernetzung hatte: Weitere
Organisationen, Regierungsdienststellen und eine Reihe von Firmen aus dem
Sektor Netzwerktechnologie wollten teilhaben. Um dem gestiegenen Bedarf gerecht
zu werden, wurde die bestehende Netzstruktur aus etwas mehr als 50 Rechnern ab
1973 auf ein neues und speziell für das ARPAnet entwickelte Protokoll
umgestellt: IP, das Internet Protocol. Es ist heute noch die technische Basis
des Internets.
Anfang 1981 bestand das ARPAnet aus 213 Rechnern. Die militärischen Teile gliederten sich in einem eigenen Unternetz namens Milnet aus. Das ARPAnet als Ganzes wurde seit etwa 1983 immer öfter als „Internet“ bezeichnet. Auch international schritt die Vernetzung fort und seit Mitte der achtziger Jahre wurden überall auf der Welt verstärkt IP-Netze aufgebaut und mit dem amerikanischen Internet verbunden. 1989 waren etwa 80.000 Rechner am Internet angeschlossen – in der Überzahl Universitäten, staatliche Einrichtungen und Forschungsinstitute.
[toggle title=“Grafik: Anzahl der Computer im Internet“]
Das Internet Systems Consortium hat bis vor einiger Zeit den sogenannten Internet Domain Survey durchgeführt, eine Zählung der öffentlich zugänglichen IPv4-Adressen. Das sind nicht ausschließlich Server mit einem spezifischen Angebot. Viele Rechner nutzen das Internet über eine feste IP-Adresse. Das sind oft Gateways für die Computer von Heimanwendern. Für die letzten Jahre ist dieser Survey nicht mehr zuverlässig, da die Anzahl der über IPv6-Adressen zugänglichen Rechner stark gestiegen ist. Deshalb ist Survey ausgesetzt.
[/toggle]
1992: Beginn der Expansion dank World Wide Web
Mit dem Beginn der
neunziger Jahre explodierte das Internet. Anfang 1991 waren etwa 376.000
Rechner angeschlossen, 1996 bereits mehr als 21 Millionen. Dazwischen lag die
Einführung des World Wide Web (WWW). Ursprünglich war das nur einer von vielen
Diensten im Internet, doch inzwischen gibt es neben E-Mail eigentlich nur noch
das Web. Erfunden wurde es von dem britischen Physiker und Informatiker Tim
Berners-Lee. Er arbeitete Ende der achtziger Jahre am CERN in Genf und schlug
der Direktion ein modernes Informationsmanagementsystem vor, das den
Datenaustausch unter Forschern vereinbaren sollte.
Grundprinzip des Web
ist sogenannter Hypertext: Informationen sind in Textform auf Seiten dargestellt und
untereinander mit Links verknüpft. Ein Mausklick darauf und schon taucht eine
andere Seite auf, die weitere Informationen liefert. Das Web wurde binnen
weniger Jahre zu einem gigantischen Erfolg, aufgrund seiner leichten
Verständlichkeit, den vielfältigen Anwendungsmöglichkeiten und der Tatsache,
dass Berners-Lee keine geschäftlichen Interessen mit seiner Erfindung
verfolgte. Er hat damit eine kostenlos nutzbare Infrastruktur für den freien
Austausch von Informationen geschaffen.
1992 ging das Web offiziell online, so dass jeder einen Webserver aufsetzen und dort irgendetwas anbieten konnte. Zunächst gab es nur zehn Webserver weltweit, ein Jahr später bereits 130 und bereits 1997 wurde die Millionengrenze überschritten. Die Entwicklung beschleunigte sich nach der Jahrtausendwende noch einmal deutlich stärker, denn es gab immer mehr Möglichkeiten im Web: Musik hören, Videos gucken, spielen, plaudern, kaufen, sich selbst darstellen und digitalen Sex haben — oder wenigstens anschauen.
2006: Das Erscheinen des seltsamen Attraktors Facebook
Soziale Netzwerke wie Friendster oder Myspace waren einer der vielen Subtrends im Web der Nuller Jahre. Vor allem Myspace hat wegen der quietschbunten und beliebig knetbaren Oberfläche rasch Millionen Fans gefunden. Doch die sozialen Netze der Anfangszeit existieren nicht mehr oder sind bedeutungslos. Nachzügler Facebook hat durch geschickte Adaption diverser Trends und eine ebenso geschickte Einkaufspolitik eine umfassende Infrastruktur aufgebaut.
Inzwischen ist ein
großer Teil der Weltbevölkerung bei Facebook, Instagram oder WhatsApp
vertreten. Das soziale Netzwerk von Mark Zuckerberg hat sich zu einem enormen
Attraktor entwickelt, dessen Schwerkraft Nutzer in Milliardenzahl anzieht.
Viele Leute kennen fast nur noch Facebook und identifizieren es mit dem
Internet. Kein Wunder, kann man dort doch ohne Wechsel der Website mit Familie
und Freunden plaudern, Nachrichten lesen, spielen, über Themen diskutieren und
noch so manches mehr.
Durch die ebenfalls
bedeutenden Plattformen Instagram und WhatsApp hat das Unternehmen Facebook
einen enormen Einfluss auf die Jugendkultur und speziell auf die
Internetkultur. Zwar ist das Selfie auf Myspace entstanden, aber erst die
Nutzer von Instagram haben es perfektioniert und sogar zum Geschäftsmodell
gemacht – der Influencer entstand. Das Unternehmen hat sogar technologische
Trends umgekehrt: Der Aufstieg von WhatsApp hat den Abstieg der SMS bewirkt,
die inzwischen mehr und mehr in der Nische verschwindet.
[toggle title=“Grafik: Anzahl der Websites im Internet“]
Die Menge der Websites wird über eine Domainzählung sowie zusätzlichen statistischen Erhebungen von Internet Live Stats geschätzt. Dabei ist die Anzahl der Sites nicht deckungsgleich mit der Anzahl der an das Internet angeschlossenen Computer, die diese Websites beherbergen. NetCraft hat im August 2019 etwa 8,94 Millionen solcher Computer ermittelt. Tatsächlich aktive Websites werden über eine Eigenheit des „Domain-Parking“ erkannt: Da die jeweiligen Websites über Vorlagen erzeugt werden, ist ihre Struktur immer gleich.
[/toggle]
2019: Das Internet besteht aus leerem Raum
Das Internet des Jahres 2019 ist ein seltsamer Ort. Es gibt ungefähr 1,7 Milliarden einzelne Websites, aber nur ein paar Dutzend sind tatsächlich von großer Bedeutung. Hinzu kommt, dass viele Services nicht primär über eine Website genutzt werden — etwa Instragram und WhatsApp oder WeChat und TikTok aus China.
Das Bemühen dieser wenigen Websites ist es, die Nutzer anzuziehen und festzuhalten. Google muss man bei der Informationssuche oft nicht mal mehr verlassen, die wichtigsten Stichworte werden dort angezeigt. YouTube bietet alles, was sich in Form eines Videos pressen lässt — von der Mathehausaufgabe über Kochrezepte bis in zu Verschwörungstheorien. Die Nutzer verbringen Stunden dort und informieren sich häufig überhaupt nicht mehr aus anderen Quellen.
Der Rest des World Wide Web besteht in erster Linie aus leerem Raum. Mashable weist darauf hin, dass der größte Teil aller Websites aus inhaltslosen Seiten besteht, für ungenutzte und lediglich geparkte Domain-Namen. Die Anzahl der aktiven Websites liegt nur bei etwa 200 Millionen, der Wert wächst kaum noch. Der Rest ist ein einziges großes Nichts, 90 Prozent Leere und Stille.
… sagt jeder zweite Angestellte gelegentlich, auch wenn das in Unternehmen meist verboten ist. Trotzdem: Der digitale Arbeitsplatz ist in vielen Firmen bereits angekommen, durch die Hintertür. Aber er sieht nicht so aus, wie sich das Anbieter von Lösungen für den Digital Workplace vorstellen.
Improvisation, das Umgehen von Sicherheitsbestimmungen, der Einsatz von nicht offiziell zugelassenen Apps und die Allzweckwaffe Excel bestimmen immer noch die tägliche Arbeit der meisten Angestellten in deutschen Unternehmen. Auch die verbotene Nutzung von privaten Mailkonten ist üblich. Denn oft müssen Mitarbeiter von außerhalb auf Dokumente zuzugreifen — auch wenn es dafür offiziell keine Tools gibt, oder zumindest nicht die richtigen.
Private Apps und Mailkonten als Notwehr
Etwa jeder zweite Mitarbeiter in den befragten Unternehmen einer Studie von Citrix gibt an, berufliche Dokumente an die private E-Mail-Adresse zu senden, wenn das nötig sein sollte. Und wenn die E-Mail nicht ausreicht, suchen sich Mitarbeiter eigene Wege zum Ziel, so wie die acht Prozent der Befragten, die eine persönliche Cloud nutzen. Das bedeutet den einfachen Dokumentenaustausch via Dropbox oder der Einsatz von unkomplizierten, aber privaten Apps für Termin- und Aufgabenverwaltung — inklusive aller Risiken für Datenverlust und Sicherheitsbrüche.
Die Ergebnisse der Citrix-Studie sind nicht erstaunlich. Bereits Anfang des Jahres hat der D21-Digital-Index 2018/2019 festgestellt, dass lediglich 16 Prozent der Unternehmensmitarbeiter in Deutschland über einen echten digitalen Arbeitsplatz verfügen. Was zu der Frage führt: Wie sieht ein komfortabler und effizienter Digital Workplace eigentlich aus? Die Antwort: Er befindet sich auf einer Informations- und Arbeitsplattform im internen Netz des Arbeitsgebers und führt alle Daten und Anwendungen aus dem gesamten Portfolio der Business-Software zusammen.
In der Praxis bedeutet dies, dass die Mitarbeiter ihre Arbeitsumgebung auf jedem beliebigen Gerät inklusive Smartphones vorfinden und dort eine für ihren Job notwendigen Aufgaben erfüllen können — etwa das Schreiben von E-Mails, Berichten und Präsentationen oder der Zugriff auf Geschäftsanwendungen. Kurz: Ein digitaler Arbeitsplatz integriert sämtliche sonst getrennten Anwendungen unter einer einheitlichen Oberfläche. Ein solcher virtualisierter Desktop ist die entscheidende Komponente eines modernen Arbeitsplatzes.
Digitale Arbeitsplätze machen es Mitarbeitern leichter
Der Digital Workplace unterscheidet sich erheblich von dem herkömmlichen Desktop unter Windows. Trotzdem finden sich Mitarbeiter problemlos damit zurecht, denn die wirklichen Unterschiede sind erst unter der Haube sichtbar. Alle Anwendungen inklusive des Desktops selbst werkeln im Rechenzentrum oder der Cloud. Der lokale PC dient lediglich der Anzeige des Desktops und erfüllt nur nachrangige Aufgaben. Er ist zum smarten Terminal degradiert, das vielleicht noch Daten zwischenspeichern darf, damit nicht immer die gesamte Arbeitsumgebung neu übertragen werden muss.
Solche neuartigen, IT-basierten Arbeitsformen zahlen sich für Arbeitgeber aus. In der letztjährigen IDC-Studie Future of Work zeigte sich, dass jeweils ein gutes Drittel der Unternehmen Kosteneinsparungen und Produktivitätsgewinne verzeichnet. Das klingt im ersten Moment nicht nach viel, doch in den meisten Unternehmen findet echtes — mobiles — digitales Arbeiten leider nicht statt.
Den schwarzen Peter hat hier die Geschäftsführung. Denn grundsätzlich ist laut der Citrix-Studie ein großer Teil der Mitarbeiter daran interessiert, moderne digitale Produktivitätswerkzeuge einzusetzen. So glaubt fast jeder zweite, dass diese Hilfsmittel das effiziente Arbeiten befördern und ein knappes Viertel vermutet, dass sie die Produktivität steigern. Auch die viel zitierte Technikfeindlichkeit in Deutschland gilt offensichtlich nur für eine Minderheit: 60 Prozent der befragten Arbeitnehmer sind neugierig, wenn ihr Unternehmen die vorhandene IT-Ausstattung durch neue Tools ersetzt.
Die Mitarbeiter sind weiter als die Unternehmen
„Mangelndes Interesse für neue Technologien kann man deutschen Arbeitnehmern nicht vorwerfen“, kommentiert Oliver Ebel, Area Vice President CE von Citrix die Ergebnisse der Studie. „Technologie und die Möglichkeiten, die moderne IT bietet, sehen die meisten Menschen in ihrem Privatleben. Im Job ist es dagegen immer noch oft nicht möglich, schnell ein paar Dokumente in die Cloud zu ziehen.“ Das senke die Effizienz in den Unternehmen und frustriere die Mitarbeiter.
Denn die die wollen längst etwas anderes als den klassischen Arbeitsalltag der Industrieproduktion: Laut D21-Digital-Index findet fast die Hälfte der Berufstätigen, dass zeitlich und räumlich flexibles Arbeiten die Lebensqualität steigert. Zwar sind längst nicht alle Jobs dafür geeignet, aber Büroarbeit ist ohne Verrenkungen auch zu Hause zu bewältigen. Doch sehr viele Unternehmen sind der flexiblen Heimarbeit gegenüber generell kritisch eingestellt.
Typische Gegenargumente finden sich in einer Bitkom-Umfrage: Die Mitarbeiter sind nicht jederzeit ansprechbar (33%), die Arbeitszeit ist nicht zu kontrollieren (29%), die Datensicherheit ist bedroht (22%), die technische Ausstattung ist zu teuer (16%) und Identifikation der Mitarbeiter mit dem Unternehmen könne sinken (9%). Eigentlich sind es keine Argumente, sondern Ausreden. Für jedes dieser Scheinprobleme gibt es eine praktische Lösung und sei es der Verzicht auf Arbeitszeitkontrolle und Anwesenheitswahn.
Digitale Leichtigkeit vs. Industriegesellschaft
Manches Hindernis wird auch durch den Regulierungswahn in Deutschland aufgebaut: Zwischen zwei Arbeitsphasen muss eine elfstündige Mindestruhezeit liegen. Das ist für den klassischen Malocher eine sinnvolle Regel. Heute führt sie aber dazu, dass jeder, der spätabends noch mal die dienstlichen Mails checkt und morgens an seinen Schreibtisch pendelt, ungesetzlich handelt – eigentlich, denn die meisten machen es halt trotzdem.
Solche Eigentümlichkeiten führen dazu, dass die meisten Arbeitgeber auf Nummer sicher gehen. Sie wollen den Angestellten bei der Arbeit sehenselbst wenn er hin und wieder lediglich „arbeitet“. Demgegenüber steht die digitale Leichtigkeit der mobilen und virtuellen Desktops. Kein Problem, auch sonntags vormittags mal eine Stunde an der schon längst überfälligen Präsentation zu feilen — wenn es denn die Familie toleriert.
Was ist besser? Das Festhalten am Taylorismus der Industriegesellschaft oder das Akzeptieren einer digitalen Arbeitswelt, die eher auf Ergebnisse als auf Anwesenheit achtet? Meiner Einschätzung nach ist der störrische Widerstand gegen Homeoffice, Mobilität und Flexibilität lediglich ein Rückzugsgefecht. Die traditionell-hierarchisch organisierten Unternehmen haben bereits jetzt verloren.
Italiener sind Schnellsprecher, Deutsche dagegen bevorzugen das langsame Reden mit langen Substantiven — so ungefähr lauten die Klischees. Ganz falsch ist das nicht, denn italienischsprecher bringen bis zu neun Silben pro Sekunde an den Gesprächspartner, Deutschsprecher dagegen nur fünmf bis sechs Silben. Trotzdem übermitteln beide, ebenso wie der Rest der Menschheit, die gleiche Informationsmenge mit ihrer jeweiligen Sprache: nämlich 39 Bit pro Sekunde.
Diesen Wert hat ein Forschungsprojekt an der Universität von Lyon festgestellt. Damit bestätigt sich eine These, nach der die Sprechgeschwindigkeit zusammen mit der Informationsdichte einer Sprache immer ungefähr die gleiche Informationsmenge ergibt. Informationsdichte Sprachen verpacken die Syntax in kleinere Einheiten, sodass die Sprecher nur langsam vorankommen. Weniger informationsdichte Sprachen wie etwa Italienisch können deshalb schneller gesprochen werden.
In einer ausführlichen Studie schildern die Wissenschaftler ihr Vorgehen. Sie haben zunächst die Informationsdichte pro Silbe für 17 Sprachen berechnet. Anschließend ging es für drei Jahre in die Feldforschung: Die Forscher haben für die Sprachen jeweils fünf männliche und weibliche Sprecher rekrutiert, die 15 identische Passagen in ihrer Muttersprache vorgelesen haben. Für einige Sprachen wurden vorhandene Tonaufnahmen eingesetzt, sodass für alle 17 Sprachen eine durchschnittliche Sprechgeschwindigkeit von Silben pro Sekunde ermittelt werden konnte.
Durch Multiplikation der Sprechgeschwindigkeit mit der Informationsdichte kam heraus, dass die Bitrate menschlicher Sprecher im Durchschnitt etwa 39,15 Bit/s beträgt. Ein wichtiger Schluss daraus: Jede Sprache ist hinsichtlich ihrer Effizienz bei der Informationsübertragung vollkommen gleichwertig.
Eine Suche in Google Trends zeigt es deutlich: Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI) ist weltweit ein Hype. Der Suchbegriff wird etwa doppelt so häufig abgefragt wie am Anfang des Jahrzehnts. Dabei handelt es sich nicht um einen kurzlebigen Trend. Obwohl es ganz offensichtlich gewisse Konjunkturen gibt, ist das Interesse am Suchbegriff seit einigen Jahren kontinuierlich hoch. Und wer in das Suchfeld von Google den Begriff „Artificial Intelligence“ eingibt, erhält die ersten zehn von ungefähr 436 Millionen Webseiten zu diesem Stichwort präsentiert.
Es ist nur sehr schwer möglich, hier noch einen einigermaßen fundierten Überblick zu behalten. Einen ebenso wichtigen wie interessanten Ausschnitt aus der KI zeigt der Bericht State of AI 2019. Die beiden Autoren Nathan Benaich und Ian Hogarth sind langjährige Beobachter der KI-Szene als Investoren und Wissenschaftler. Sie präsentieren nach eigener Auskunft auf 136 Seiten „einen Schnappschuss der exponentiellen Entwicklung der KI mit einem Schwerpunkt auf Entwicklungen in den letzten zwölf Monaten“. Der Bericht widmet sich fünf wichtigen Schlüsselbereichen innerhalb der künstlichen Intelligenz und präsentiert sie in den folgenden Abschnitten:
Research: Forschungsergebnisse und technologische Durchbrüche.
Talent: Berufsbilder und Personalgewinnung in der KI.
Industry: KI-Unternehmen und ihre Finanzierung.
China: Neue KI-Trends in China.
Politics: Die Behandlung der KI im Rahmen von Politik und Gesellschaft.
Da der Bericht nur schwer zusammenzufassen ist, habe ich einige besonders interessante Themen ausgewählt und sie jeweils in einem Kurzartikel dargestellt. Wer einen lesen möchte: Einfach auf den grauen Balken mit dem Thema klicken.
[toggle title=“Reinforcement Learning“]
Reinforcement Learning
Diese Form von Deep Learning ist in den letzten Jahren intensiv erforscht worden. Das Prinzip: Software-Agenten lernen zielorientiertes Verhalten durch Versuch und Irrtum. Sie agieren dabei in einer Umgebung, die ihnen positive oder negative Belohnungen als Reaktion auf ihre Handlungen gibt. Für das Training von neuronalen Netzwerken sind die KI-Entwickler dazu übergegangen, Computerspiele wie beispielsweise Montezuma’s Revenge (Jump’n’Run), Quake III Arena (Egoshooter) oder Star Craft II (Echtzeit-Strategiespiel) einzusetzen.
Solche Umgebungen, aber auch speziell angefertigte Computersimulationen eignen sich hervorragend dazu, Verhalten zu variieren und anschließend erfolgreiches Verhalten zu wiederholen. Darüber hinaus sind die Belohnungen bereits in die Games integriert. In der realen Welt sind variantenreiche Lernumgebungen nicht so einfach umzusetzen, etwa für die Robotik.
So hat OpenAI eine Roboterhand in einer Simulation darin trainiert, physikalische Objekte zu manipulieren. Auch das zweibeinige Gehen wird gerne in Simulationen geprobt, denn es ist weniger einfach, als wir Menschen intuitiv glauben. Um nicht regelmäßig teuren Elektroschrott zu erzeugen, werden gehende Roboter deshalb ebenfalls in Simulationen trainiert. Dabei wird unter anderem Reinforced Learning genutzt.
Simulationen und Computerspiele eignen sich gut zum Trainieren von lernfähigen Systemen, da sie kostengünstig und weithin verfügbar sind. Im Grunde kann jeder Entwickler damit arbeiten, auch ohne Risikokapital im Hintergrund. Darüber hinaus können die Spielumgebungen unterschiedlich komplex gestaltet werden. Das ist einer der Gründe, warum Open World Games wie Grand Theft Auto gerne beim grundlegenden Training von Deep-Learning-Modellen für das autonome Fahren genutzt werden.
Sind Games und Simulationen also die optimale Umgebung für das KI-Training? Sicher nicht, wie auch die Autoren des Berichts nahelegen. Denn jede simulierte Welt ist deutlich weniger komplex als die wirkliche Welt. Im Normalfall wird das Ergebnis niemals ein austrainiertes KI-Modell sein, das direkt und ohne Probleme in der Wirklichkeit eingesetzt werden kann. Die Erfahrungen mit den bisherigen KI-Anwendungen für fahrerlose Autos zeigen, dass hier auch ein altbekanntes Prinzip für die Optimierung von Prozessen gilt: Die letzten Prozent der zu trainierende Fähigkeiten machen mindestens so viel Aufwand wie der Rest.
[/toggle]
[toggle title=“Natural Language Processing“]
Natural Language Processing
Alexa, Siri & Co. haben in den letzten Jahren gezeigt, dass Natural Language Processing (NLP) recht weit fortgeschritten ist und es zahlreiche alltagstauglich Anwendungen gibt — in bestimmten Bereichen. Schwierig sind echte Dialoge mit Rückbezügen auf vorher Gesagtes. Außerdem kommt das menschliche Gehirn immer noch besser mit dem uneigentlichen Sprechen wie Ironie oder Hyperbeln zurecht. Wer mit Alexa redet, muss eindeutig und in Anweisungsform sprechen, typisch menschliche Unschärfen in der Aussage führen meist nicht zum Ergebnis.
Die Erkenntnis zahlreicher Projekte: Vortrainierte Sprachmodelle verbessern die Ergebnisse von NLP deutlich. Im Bereich Computer Vision sind damit große Erfolge erzielt worden. So werden beispielsweise viele neuronale Netze für die Bilderkennung mit ImageNet vortrainiert und erst dann mit weiterem Training an den speziellen Anwendungsfall angepasst. Dieses Dataset besteht aus momentan knapp 14,2 Millionen Bildern, die nach fast 22.000 semantischen Kategorien indiziert sind. Diese wiederum sind nach den Prinzipien der lexikalisch-semantischen Datenbank WordNet organisiert.
Eine vergleichbare Vorgehensweise ist auch bei NLP sinnvoll, denn es ist aufwendig, valide Trainingsdaten für Teilaufgaben zu entwickeln — beispielsweise das Bestellen einer Pizza, wie es Google Duplex beherrschen soll. Google hat vor einiger Zeit eine Technik für das Vortrainieren von NLP-Modellen als Open Source freigegeben. Das Ergebnis heißt BERT (Bidirectional Encoder Representations from Transformers) und basiert auf demselben Neuronetz wie Google Translator. BERT kann vergleichsweise einfach durch ein Zusatztraining an die jeweilige Aufgabe angepasst werden.
Zudem kann BERT auch durch weitere Lernverfahren ergänzt werden, beispielsweise durch Multi-Task Learning (MTL). Eine Demo dieser Möglichkeiten bietet Microsoft Research mit seinem Multi-Task Deep Neural Network (MT-DNN). Dabei werden verschiedene, aber verknüpfte Aufgaben gleichzeitig gelernt, wodurch der Lernfortschritt größer wird. Pate war hier eine Eigenheit des menschlichen Lernens: Wer bereits gut auf Inlinern skaten kann, lernt das Schlittschuhfahren deutlich schneller als jemand ohne Inliner-Erfahrung.
Der Einsatz
vortrainierter Modelle hat in der Computer Vision manchen Durchbruch gebracht,
Benaich und Hogarth hoffen, dass dies ebenso für das Verständnis menschlicher
Sprache durch neuronale Netze gilt.
[/toggle]
[toggle title=“Rückkehr der symbolischen KI“]
Rückkehr der symbolischen KI
Das Verstehen natürlicher Sprache ist ein wesentliches Element von Sprachassistenten. Doch zahlreiche Praktiker sind mit reinen KI-Modellen über ein Problem gestolpert: Domänenwissen lässt sich einem Neuronetz nicht ohne weiteres antrainieren, denn das Training ist aufwendig und die Gewinnung von validen Datasets teuer.
Hier kommt dann ein Ansatz ins Spiel, der Mitte der achtziger Jahre als der Königsweg zur künstlichen Intelligenz galt: Symbolische KI, die unter anderem mit Verzeichnissen von Regeln und Alltagswissen arbeitet, um das Schlussfolgern aus Common-Sense-Sachverhalten zu ermöglichen. Die bekannteste Datenbank dieser Art ist Cyc und wird seit 1984 schrittweise aufgebaut.
Dieser Ansatz galt über lange Jahre hinweg als gescheitert, da selbst eine noch so große Datenbank nicht das gesamte Weltwissen enthalten kann. Doch als Partnerverfahren ist Domänenwissen inzwischen wieder wertvoll für KI. Denn eine Datenbank wie Cyc kann ein Deep-Learning-System durch Wissensprimitive ergänzen, sodass das Training sich ausschließlich High-Level-Sachverhalten widmen kann.
[/toggle]
[toggle title=“Autonome Fahrzeuge“]
Autonome Fahrzeuge
Roboterautos und andere autonome Fahrzeuge gehören zu den wichtigsten Zukunftsvisionen bei KI. Einer der Vorreiter ist Waymo, dessen autonome Fahrzeugflotte auf den US-Straßen mehr als 16 Millionen Kilometer bewältigt und dabei wichtige Fahrdaten gesammelt hat. Die Daten von weiteren 11 Milliarden Kilometern in Computersimulationen kommen hinzu. Allein im letzten Jahr haben die 110 Waymo-Wagen in Kalifornien mehr als 1,5 Millionen Kilometer bewältigt.
Hinzu kommt der Datensatz von Tesla, der durch Auswertung aller von jedem einzelnen Tesla-Modell gefahrenen Kilometer entsteht. Die genaue Fahrleistung ist unbekannt, wird aber auf mehr als zwanzig Milliarden Kilometer geschätzt. Was die Menge der Daten angeht, dürfte Tesla einen uneinholbaren Vorsprung vor der Konkurrenz haben. Hinzu kommt: Das Unternehmen entwickelt seinen eigenen KI-Chip. Die Analysten des institutionellen Investors ArkInvest schätzen, dass Teslas Konkurrenten beim autonomen Fahren drei Jahre hinterher fahren.
Es ist allerdings sehr schwer, den tatsächlichen Erfolg der einzelnen Anbieter von Robotertaxis einzuschätzen. Einen kleinen Hinweis geben die von der kalifornischen Straßenbehörde veröffentlichten Disengagement-Reports. Danach schaffen Fahrzeuge von Waymo eine Jahresfahrleistung von fast 50.000 Kilometern mit lediglich einem oder zwei Aussetzern („Disengagements“), bei denen der menschliche Testfahrer übernehmen musste. Zum Vergleich: Auch Mercedes testet in Kalifornien. Doch 2018 waren es nur vier Fahrzeuge mit wenigen hundert Kilometern Fahrleistung, aber etlichen hundert Aussetzern.
Von Tesla gibt es übrigens keine Angaben dazu. Das Unternehmen sammelt zurzeit in erster Linie Fahrdaten, vermutlich um seine Modelle in Simulationen zu trainieren. Trotz des Vorsprung: Selbst der Datensatz von Tesla ist im Vergleich zu den menschlichen Fahrleistungen winzig. So wird die Gesamtfahrleistung nur der kalifornischen Autofahrer für das Jahr 2017 auf knapp 570 Milliarden Kilometer geschätzt. Dem stehen etwa 485.000 Autounfälle gegenüber, was einem Disengagement auf jeweils 1,2 Millionen Kilometer entspricht. Kurz: Das Robotertaxi scheint noch einige Zeit entfernt zu sein.
[/toggle]
[toggle title=“Robotic Process Automation“]
Robotic Process Automation
Robotic Process
Automation (RPA) hat nichts mit Robotik zu tun, sondern ist ein Verfahren der
Prozessautomatisierung und nachfolgend der Kostensenkung in Unternehmen. Das
klingt im ersten Moment langweilig, ist aber ein spannendes Anwendungsgebiet in
der KI. Denn es wird in der Praxis bereits eingesetzt und ist zu einem Markt
mit hohen Erwartungen geworden: Anbieter wie UiPath sind mit 800 Millionen
Dollar und Automation Anywhere mit 550 Millionen Dollar Risikokapital
ausgestattet.
Für Unternehmen, die
mit der Digitalisierung ihrer Prozesse kämpfen, ist RPA eine interessante
Sache. Vereinfacht ausgedrückt ersetzen RPA-Anwendungen die menschlichen
Endanwender in der vorhandenen Software-Infrastruktur. Dadurch ist es möglich,
Prozesse zu automatisieren, die mehrere Anwendungen übergreifen, vor allem,
wenn es keine definierten Software-Schnittstellen dafür gibt. RPA-Anwendungen
sind in aller Regel lernfähig, sodass sie vergleichsweise leicht auch an
exotische Altysteme anzupassen sind.
[/toggle]
[toggle title=“Demand Forecasting“]
Demand Forecasting
Ein brandneues Thema
ist Demand Forecasting nicht, unter dem Stichwort Bedarfsermittlung wird es
bereits seit längerer Zeit mit statistischen Methoden oder Fuzzy Logic
umgesetzt. Es geht dabei um die Prognose der Anforderung bestimmter Ressourcen
anhand von historischen Daten. Dabei wird zunehmend Machine Learning
eingesetzt, um auch externe Daten (Wetter, Verkehr, Kundenströme usw.) zu
berücksichtigen.
Es gibt einige Branchen und Anwendungsgebiete, in denen Demand Forecasting erfolgreich eingesetzt wird: So ermitteln Energieversorger beispielsweise den Strombedarf anhand von Wetterinformationen, Betriebsdaten und gemessenen Leistungsanforderungen. Zur Vorbereitung auf Starkregenfälle mit anschließenden Überflutung-Szenarien erschließt Machine Learning auf der Basis von historischen hydrologischen Daten neue Wege der Vorhersage von Fluten.
In Handel, Logistik, Gastronomie, Hotellerie und Touristik ordnet Machine Learning Ressourcen deutlich flexibler zu als herkömmliche Methoden. Ein Beispiel: Die Nachfrage nach bestimmten Produkten oder Services ist unter anderem vom Wetter, der aktuellen Verkehrslage in der Region, jahreszeitlichen Trends, aktuellen Moden bei Farbe oder Form und vielen anderem abhängig. Mit Machine Learning werden solche Faktoren berücksichtigt.
Große Supermarktketten müssen täglich Entscheidungen über Aufnahme, Streichung oder Nachbestellung von Millionen Einzelposten treffen. Ohne KI-Verfahren wird dies in der Zukunft schwer möglich sein, da einfache „Daumenregeln“ zu Schnelldrehern und Produktplatzierungen die immer dynamischer werdende Nachfrage kaum noch abbilden.
Steve Jobs gilt als Erfinder des iPhones, doch das ist nicht ganz richtig. Denn eine genuine Erfindung ist es nicht, eher ein Konglomerat aus vorhandener Technik. So gab es 2007, im Jahr der Einführung des iPhones, bereits Smartphones. Sie besaßen oft eine Minitastatur und manchmal einen Touchscreen, der mit einem kleinen Stift bedient wurde. Das war immer ziemlich fummelig, sodass Jobs auf die Tastatur verzichtete und stattdessen einen Touchscreen nutzte, der sich mit den Fingern bedienen ließ.
Der Rest ist Geschichte. Das iPhone fand mit den kostengünstigen Android-Smartphones Nachahmer für den Massenmarkt und so haben heute viele zu jeder Zeit und an jedem Ort ein Smartphone dabei — das kleine und leichte Universalgerät rund um Kommunikation, Information und Wissen.
Ein Vorläufer des Smartphones
Wenn es so etwas wie einen Erfinder dieser Geräteklasse gibt, dann ist das erstaunlicherweise ein deutscher Schriftsteller, der 1895 geboren wurde: Ernst Jünger. Er hat nach 1945 den Pfad des Kriegers verlassen und mit unterschiedlichen literarischen Genres experimentiert, unter anderem mit utopischen Romanen.
Sein erster Versuch in diesem Genre war Heliopolis. Rückblick auf eine Stadt von 1949. Das Buch bietet keine Science-Fiction in der Nachfolge von Hans Dominik, sondern eine Utopie im Stile Thomas Morus‘ — den Entwurf einer fiktiven Gesellschaft, die andere historische und gesellschaftliche Traditionen besitzt. In dem Buch ist sie autokratisch organisiert, so gibt es unter anderem eine ständige Überwachung aller Bürger.
Vehikel dafür ist der Phonophor (Allsprecher), der als eine Art Mobiltelefon allerlei Zusatzfunktionen besitzt, inklusive Personenidentifikation, Navigation, Geldbörse und einer Möglichkeit zur Anpeilung. Der Phonophor gehört zusammen mit Dingen wie Weltraumfahrt, Strahlenwaffen und Schwebepanzern zum futuristischen Hintergrundgemälde des Buches. Jünger hat dieses Szenario allerdings nur wenig ausgearbeitet. Es ist in erster Linie eine Markierung, die den Roman zeitlich in der Zukunft verankert. Doch zu seiner Idee des Phonophor schreibt Jünger etwas ausführlicher.
Die Vorzüge von Telefon und Radio
Ein Phonophor wird als flache Hülse in der linken Brusttasche getragen, aus der er fingerbreit hervorragt.
[Ein Phonophor überträgt] Orts- und astronomische Zeit, Länge und Breite, Wetterstand und Wettervoraussage. Ersetzt Kennkarte, Pässe, Uhr, Sonnenuhr und Kompaß, nautisches und meteorologisches Gerät. Vermittelt automatisch die genaue Position des Trägers an alle Rettungswarten bei Gefahren zu Lande, auf dem Wasser und in der Luft. Verweist im Peilverfahren an jeden Ort. Weist auf den Kontostand des Trägers beim Energeion und ersetzt auf diese Weise das Scheckbuch bei jeder Bank und jeder Postanstalt, und in unmittelbarer Verrechnung die Fahrkarten auf allen Verkehrsmitteln. Gilt auch als Ausweis, wenn die Hilfe der örtlichen Behörden in Anspruch genommen wird. Verleiht bei Unruhen Befehlsgewalt.
Vermittelt die Programme aller Sender und Nachrichten-Agenturen, Akademien, Universitäten, sowie die Permanentsendungen des Punktamtes und des Zentralarchivs. Hat Anschluß an alle Radiostationen mit ihren Strömen des Wissens, der Bildung und Unterhaltung, soweit sie durch Ton und Wort zu übermitteln sind. Gibt Einblick in alle Bücher und Manuskripte, soweit sie durch das Zentralarchiv akustisch aufgenommen sind, ist an Theater, Konzerte, Börsen, Lotterien, Versammlungen, Wahlakte und Konferenzen anzuschließen, und kann als Zeitung, als ideales Auskunftsmittel, als Bibliothek und Lexikon verwandt werden.Gewährt Verbindung mit jedem anderen Phonophor der Welt, mit Ausnahme der Geheimnummern der Regierungen, der Generalstäbe und der Polizei. Ist gegen Anrufe abschirmbar. Auch kann eine beliebige Menge von Anschlüssen gleichzeitig belegt werden – das heißt, daß Konferenzen, Vorträge, Wahlakte, Beratungen möglich sind. Auf diese Weise vereinen sich die Vorzüge der Telephone mit denen der Radios.
Ernst Jünger: Heliopolis. Rückblick auf eine Stadt, Berlin 1948
Zusammenführen und weiterdenken
Diese Erklärungen und vor allem der letzte Satz zeigen deutlich, dass der Phonophor ausschließlich eine Sprachschnittstelle nutzt. Ein kleiner Minibildschirm mit Bedienung per Berührung war für Jünger damals unvorstellbar. Zwar kannte er mit hoher Wahrscheinlichkeit die ersten TV-Versuche in den 193oer Jahren und die darin benutzte monströse Technik. Doch er hat sie wohl als nicht für die Miniaturisierung geeignet betrachtet.
Denn der beinahe wichtigste Aspekt des Phonophors ist seine Kleinheit. Jünger hat scharfsinnig erkannt, dass technische Geräte im Laufe der Zeit schrumpfen. Er hat auch in anderer Hinsicht bereits vorhandene Phänomene weitergedacht. So sagten die Mitarbeiterinnen der Handvermittlung im Fernsprechamt seit Anfang des 20. Jahrhunderts auf Wunsch auch die Uhrzeit an. Ab 1937 wurde die Zeitansage automatisiert und von hier bis zum akustischen Lexikon ist es nur ein kurzer Denkschritt.
Ernst Jünger hat etwas ähnliches gemacht wie sechs Jahrzehnte später Steve Jobs. Er hat die vorhandene Technik weitergedacht und zusammengeführt. Aber anders als Jobs musste er sich um die Verwirklichung keine Gedanken machen, sodass manche Funktion eher umständlich ist. Denn gegenüber Audio und Video hat die Textkommunikation einen großen Vorteil: Sie ist schnell. Viele Leute lesen ein Buch rascher als sie es in einem Audiobook anhören könnten.
Innovation bedeutet nicht: Völlig neu
An der verblüffenden Ähnlichkeit des Phonophor mit dem iPhone lässt sich zeigen, was Innovation wirklich bedeutet und was nicht. Beide Geräte sind innovativ, weil sie vorhandene Ideen bündeln und zu einer Novität zuspitzen. Sie sind jedoch nicht fundamental neu. Ein Innovator hat immer einen Ausgangspunkt — er muss die Innovation ja denken können, auf der Basis seines aktuellen Wissensstands.
Doch er darf nicht dabei stehenbleiben. Ein erfolgreicher Innovator stellt gängige Denkmuster infrage und gibt sich nicht mit scheinbaren Naturgesetzlichkeiten zufrieden. Nur weil eine Sache immer schon auf eine bestimmte Weise gemacht wurde, bedeutet das nicht, dass es nicht auch anders geht. Und nur weil eine Sache noch nie gemacht wurde, ist sie nicht grundsätzlich unmöglich.
Entscheidend ist ein frischer Blick auf Selbstverständlichkeiten und der kommt meist von außen. So haben häufig fachliche Außenseiter gute, innovative Ideen, denn sie sind mit den Konventionen und Traditionen eines Sachgebiets nicht vertraut. Beides kann durchaus hinderlich sein. Wie sagte der Dadaist Francis Picabia 1922? „Unser Kopf ist rund, damit das Denken die Richtung wechseln kann.“
China hat es geschafft: Es besitzt in einigen Bereichen der Digitalwirtschaft einen deutlichen technologischen Vorsprung gegenüber Deutschland und Europa.. Ob es nun um Elektromobilität, 5G-Mobilfunk oder künstliche Intelligenz geht – in China ist Realität, worüber Deutschland noch umständlich diskutiert.
Ein Beispiel: Hierzulande sind laut Statista lediglich 228 Elektrobusse unterwegs. In China dagegen fahren nach Untersuchungen von Bloomberg etwa 421.000 dieser Gefährte. Städte wie Guangzhou und Shenzhen haben inzwischen ihre gesamte Busflotte auf Elektromobilität umgerüstet. Im Moment betreiben chinesische Nahverkehrsanbieter etwa 20 Prozent der Busse elektrisch, bis 2040 sollen es 70 Prozent werden.
Chinas Digitalwirtschaft boomt enorm
Auch in der Digitalwirtschaft prescht China vorneweg, wie der China Internet Report 2019der englischsprachigen South China Morning Post zeigt. Er bietet eine Vielzahl an interessanten Zahlen zu verschiedenen Branchen der Digitalwirtschaft und zur Internetnutzung in China. Der Bericht zeigt deutlich: Dank des riesigen Binnenmarkts skalieren beispielsweise Apps oft schneller als im englischsprachigen Raum. Darüber hinaus sind die chinesischen Entwickler durchaus innovativ und werden inzwischen häufig selbst kopiert. So zogen die superkurzen Videos von TikTok eine Welle an Nachahmern hinter sich her.
Solche Entwicklungen zeigen, dass mit China zu rechnen ist. Dabei hat das Land neben dem Binnenmarkt ein weiteren Vorteil: Als Nachzügler und ehedem unterentwickeltes Land konnte es einige technologische Zwischenstufen einfach überspringen. So bedeutet Internetnutzung in China in erster Linie mobiles Internet und eine große Mehrheit nutzt auch Mobile Payment. Die unterschiedlichen Zahlungsdienste haben etwa 583 Millionen Nutzer, was einer Verbreitung von 42 Prozent entspricht – es gab vorher kein gut ausgebautes Bankensystem. In Deutschland nutzen dagegen lediglich gut 4,1 Millionen Personen oder etwa zwei Prozent das mobile Bezahlen.
Daran zeigt sich eine Besonderheit von China: Die Bevölkerung steht technologischen Neuerungen sehr offen gegenüber. Sie interessiert sich in höherem Maße für die Sharing-Ökonomie wie beispielsweise Ridesharing. Hier gibt es zwar eine ganze Reihe von Anbietern, doch absoluter Marktführer (91 %) ist Didi Xuching. Auch Smart Speaker mit Sprachschnittstelle haben sich in einem Jahr rasant verbreitet. So wird inzwischen jedes zweite Neugerät in China ausgeliefert.
Bald haben 176 Millionen Chinesen 5G-Mobilfunk
Die deutsche Politik
konnte sich trotz der desaströsen Erfahrungen mit der Versteigerung der
UMTS-Lizenzen nicht zurückhalten: Auch die 5G-Lizenzen sind wieder versteigert
worden, für sechs Milliarden Euro. Das bindet natürlich enorme Mengen von
Investitionskapital, führt zu einer eher negativen Konkurrenzsituation und für
die zukünftigen 5G-Nutzer sicher wieder mal zu überteuerten, aber schlechten
Mobilfunkverbindungen.
China dagegen hat das 5G-Problem mehr oder weniger per Anweisung geregelt. Die Regierung hat die drei großen Telkos zur Zusammenarbeit bei 5G verdonnert und zahlreiche Auflagen gemacht. Dafür geht es dann recht schnell voran. Bis Ende des Jahres sollen 200.000 Basisstationen online sein, sodass in einigen Metropolregionen 167 Millionen Person potenziell Zugriff darauf haben.
Die Konsequenz: In Deutschland hat der Staat ein paar Euro, mit denen er Haushaltslöcher stopfen kann. China kann dagegen den technischen Vorsprung in Sachen 5G ausbauen. Der ist ohnehin nicht klein, denn der Telko-Riese Huawei aus Shenzhen bietet die zur Zeit technisch fortgeschrittensten und ausgereiftesten 5G-Netzwerkkomponenten an.
Der Vorsprung bei Computer Vision wächst
Künstliche
Intelligenz (KI) wird in China besonders stark gefördert. Die Regierung hat
dieses Thema als eines der wirtschaftlichen und technologischen Schlüsselthemen
für die nächsten 50 Jahre identifiziert und entsprechende strategische
Förderprogramme aufgelegt. Besonders stark ist China im Bereich Computer
Vision, vor allem bei der Gesichtserkennung.
So wird Gesichtserkennung auf einem Bahnhof in Shenzhen zum Bezahlen genutzt. Pendler scannen ihr Gesicht auf einem Tablet am Eingang und lassen den Fahrpreis von ihrem Bankkonto einziehen. E-Commerce-Riese Alibaba hat ein Hotel, in dem sich die Zimmertüren durch Gesichtserkennung öffnen.
Doch auch andere Formen von Machine Learning sind im Einsatz. So bietet Alibaba die Positions- und Fahrdaten seiner Lieferfahrzeuge den lokalen Verwaltungen an, die damit die Anfahrtszeiten von Krankenwagen durch bessere Planung verkürzen.
Eine wichtige KI-Anwendung ist die Personenerkennung durch Kameras an allen möglichen Standorten. Sie dient einerseits der Verbrechensaufklärung und andererseits der Vorbereitung des von der chinesischen Regierung propagierten Social-Score-Systems. Dort gibt es für „vertrauenswürdiges Verhalten“ Punkte, für das Gegenteil Punktabzüge.
Wirtschaft und Regierung investieren in
Zukunftsbranchen
Der Vorsprung in Sachen Gesichtserkennung liegt an der leichten Verfügbarkeit von Daten. Mangels Datenschutz und durch die hohe Verbreitung von Social-Media-Profilen mit Fotos und Videos haben chinesische KI-Entwickler Zugriff auf eine gigantische Menge an „gelabelten“ Trainingsdaten für die Entwicklung von Anwendungen.
Entsprechend
investiert die Wirtschaft in China stark in KI. Der chinesische Anteil der
globalen KI-Investments ist innerhalb von fünf Jahren von drei auf 14 Prozent
angestiegen. Auch das Thema autonome Fahrzeuge wird stark unterstützt. So haben
zahlreiche chinesische Städte ihre Straßen ganz oder teilweise für fahrerlose
Autos geöffnet und verteilen Lizenzen an interessierte Unternehmen aus aller
Welt.
Zwar nutzt die chinesische Suchmaschine Baidu mit ihrer KI-Tochter die Hälfte dieser Lizenzen, doch in der anderen Hälfte des Lizenzpools tauchen auch deutsche Autohersteller wie BMW, Mercedes und Audi auf. Der Grund ist ganz einfach: Während in Deutschland noch über mögliche rechtliche Probleme diskutiert wird, können die Unternehmen in China bereits Testfahrzeuge einsetzen.
Teslas größter Feind ist keiner der traditionellen Autohersteller. Sie bieten (im Moment) keine konkurrenzfähigen Modelle. Der technische Vorsprung des US-Unternehmens bleibt trotz aller Anstrengungen groß: Hervorragende (bald Kobalt-freie) Akkus mit einem ausgereiften Temperaturmanagement, hocheffiziente Elektromotoren und eine beispiellose Software. Kurz: Die OEMs bauen E-Autos, Tesla dagegen liefert ein Gesamtkonzept inklusive Supercharger-Infrastruktur.
Doch während der letzten Monate ist ein neuer Gegner für Tesla aufgetaucht, der den Erfolg des Unternehmens bedroht: Tesla selbst. Denn mögen auch die Autos einen technologischen Spitzenplatz einnehmen, die Qualitätssicherung und der Service vor, während und nach der Auslieferung ist unterirdisch – finden viele Tesla-Besitzer wie Marcus Mayenschein.
Der Rastatter ist langjähriger Modell-S-Besitzer und fährt seit kurzem ein neues Model S Performance. Grundsätzlich ist er begeistert von den Neuerungen in der aktuellen Serie mit der internen Bezeichnung „Raven“, die seit dem Mai ausgeliefert wird. „Aber die Verarbeitung und der Lack sind definitiv schlechter als vor 3 Jahren! Dies weiß ich auch von zahlreichen privaten Zuschriften“, schreibt er zu einem 15-minütigen Video, in dem er alle Probleme vorstellt und auch die ersten Reparaturen zeigt.
Mayenschein führt die Probleme in erster Linie auf Personalmangel bei gleichzeitiger Priorität einer möglichst raschen und zahlreichen Auslieferung zurück. Dadurch wird offensichtlich die Übergabe eines problemfreien Autos zum Glücksspiel. Dieser Käufer eines Model 3 hat nichts zu klagen. Das Auto ist perfekt verarbeitet, wie Tesla-Doc Ove Kröger beim Check feststellte. Demgegenüber stehen zahlreiche Käufer, die zum Teil erhebliche Mängel hatten, wie dieser Thread im Forum „Tesla Fahrer und Freunde“ zeigt.
Die Liste der Schwierigkeiten ist lang: Schlechte oder fehlende Lackierung, falsch montierte Bauteile, elend lange Wartezeiten auf einen Reparaturtermin beim Servicecenter, keine Rückrufe, nicht erreichbarer Service, und so weiter und so fort. Wer eine Stunde Zeit hat, sollte sich dieses Video anschauen. Mayenschein und der mit ihm befreundete Tesla-Fahrer Gabor Reiter diskutieren hier intensiv über die aufgezählten Probleme. Sie fordern von Tesla, dringend Qualitätssicherung und Service zu verbessern. Andernfalls vergraule das Unternehmen potentielle Kunden abseits der innovationsfreudigen Early Adopter der Elektromobilität.
Hallo Tesla: Die Zeit der Early Adopter ist vorbei
Bei ihnen gibt es eine gewisse Leidensfähigkeit: Wer in einer frühen Phase innovative Technik nutzt, ist durchaus bereit, niedrigere Standards bei Qualität und Service zu ignorieren. Doch langsam findet die Elektromobilität auch Aufmerksamkeit bei durchschnittlichen Autokäufern, die für ihr Geld ein hochwertiges Auto und herausragenden Service wünschen.
Der typische Autokäufer möchte losfahren und längere Zeit keine Werkstätten und Servicecenter von innen sehen. Und falls doch mal etwas ist, möchte er Termine oder Ersatzteile nicht innerhalb von zwei Monaten, sondern zwei Tagen. Neukunden erwarten von Tesla also einen Auftritt wie ein typischer OEM. Dies betrifft auch den B2B-Markt, der bei den traditionellen Autoherstellern überlebensnotwendig ist Wenn Tesla langfristig überleben will, muss es auch diesen Markt angreifen. In Teilen passiert das bereits, denn einige Autovermietungen haben sich auf Elektromobilität spezialisiert.
Die größte ist NextMove aus Leipzig, die 380 Elektrofahrzeuge zur Kurz- und Langzeitmiete anbieten, neben den Modellen von Tesla auch von allen relevanten Herstellern. Stefan Moeller, einer der beiden nextmove-Gründer, hat von Anfang an Tesla-Modelle in das Portfolio aufgenommen. Sie gehören natürlich zu den gefragtesten Mietfahrzeugen und so hat das Unternehmen im Dezember 2018 einhundert (!) Model 3 bestellt. Insgesamt ging es also um eine Bestellung im Wert von mehr als fünf Millionen Euro, wenn man den Grundpreis einer Long-Range-Version zugrunde legt.
Nur jedes vierte Model 3 für nextmove war fehlerfrei
Doch bei der
Auslieferung waren die nextmove-Mitarbeiter überrascht: „Nach der
Auslieferung der ersten 15 Modell 3 musste nextmove wegen schwerer Qualitäts-
und Sicherheitsmängel die Auslieferung weiterer Fahrzeuge stoppen. Nur jedes
vierte Fahrzeug war fehlerfrei, in einigen Fällen waren die Fahrzeuge nicht
einmal fahrtüchtig.“ Die übliche Vorgehensweise bei Tesla ist nun, alle
Mängel bei einem späteren Termin im Servicecenter oder einer zertifizierten
Werkstatt zu beheben.
Doch solche Termine
können im Moment durchaus in weiter Zukunft liegen. Darüber hinaus gibt es
teils sehr lange Lieferfristen für Ersatzteile, sodass ein Fahrzeug wochen-
oder sogar monatelang nicht genutzt werden kann. Für eine Autovermietung ist
das nicht hinzunehmen, denn in aller Regel laufen Leasingverträge oder
Finanzierungen und Kunden müssen vertröstet oder sogar entschädigt werden.
Wie machen das andere OM? Ganz einfach: Sie haben für ihre Geschäftskunden entsprechende B2B-Prozesse, die anders ablaufen als bei Privatkunden. Darüber hinaus ist die für Tesla typische Vorkasse unüblich. Die Autovermietung hat also Tesla vorgeschlagen, einen Sonderprozess zu vereinbaren. Das gelang scheinbar auch bei dem direkten Ansprechpartner, doch bereits am Folgetag wurde die Vereinbarung wieder gekippt und Tesla stornierte den Auftrag. Wer sich für alle Details der Geschichte interessiert, findet sie in diesem und jenem Video in großer Ausführlichkeit oder im nextmove-Blog etwas knapper erzählt.
Tesla muss sich weiterentwickeln
Diese Geschichte und die erste Reaktion von Tesla darauf (Der Kunde ist schuld) zeigen deutlich: Das Unternehmen muss sich dringend weiterentwickeln. Vor allem der CEO hat das nötig, findet das Manager Magazin. Ziert das Titelbild noch Elon Musk in Siegerpose, so geht es im Inneren des Heftes zur Sache: „Elektrovisionär Elon Musk scheitert an den Niederungen des Autogeschäfts.“ Und weiter: „Der Zuwachs der Fahrzeugflotte bringt die Serviceinfrastruktur an den Rand des Zusammenbruchs.“
In seinem typischen, stark personalisierenden Stil bringt das Manager Magazin verschiedene Analysten und Investoren als Kritiker in Stellung. Sie hätten Tesla bislang positiv gesehen und bekämen jetzt langsam Zweifel . Dazu gehört nach Ansicht des Magazins beispielsweise James Anderson vom größten Tesla-Investor Baillie Gifford. Er vermisst Wachstum, kritisiert die schlecht gemachte Kapitalerhöhung im Frühjahr und findet, Musk müsse sich nicht persönlich in jede kleine Entscheidung einmischen.
Wird Elon Musk also zum Problem? Er ist sicher nicht der typische graue Manager, der auf Zahlen achtet und seinen Laden auf Effizienz trimmt. Er ist einerseits ein Visionär, dessen Beharrlichkeit uns nicht nur Elektroautos, sondern auch wiederverwendbare Raketen mit schicken Landeanflügen gebracht hat. Zugleich hat er die Tendenz, seinen Hang zu unkonventionellen Lösungen auf kleinste Bereiche auszudehnen. Immerhin ist es ihm so gelungen, das Auto in Teilen neu zu erfinden.
Tesla darf seine Vergangenheit nicht aufgeben
Doch ständige Innovation ist teuer, kosteneffizienter Automobilbau lebt von langfristig geltenden Standards. Vermutlich muss sich Tesla in genau diese Richtung weiterentwickeln. Ein Spagat: Einerseits sollte das Unternehmen innovativ und visionär bleiben, es darf seine Vergangenheit nicht aufgeben. Doch andererseits muss es im Massenmarkt mit seinen geringen Margen Erfolg haben, um profitabel werden.
Dieser Spagat muss
allerdings nicht zwingend von einer Person geleistet werden. Die Entwicklung
von Tesla könnte auch bedeuten, dass sich Elon Musk auf die Position eines
Chairman zurückzieht, der für Visionen und Innovation verantwortlich ist. Nun
kann ein – womöglich aus der Autoindustrie stammender – angestellter CEO
unauffällig und geräuschlos, aber profitabel das klein-klein eines OEM
abwickeln. Die Frage ist aber, ob Tesla dann immer noch Tesla ist.