IT-Sicherheit: Ein Abstieg in die Hölle

Im September 2017 gab der US-Finanzdienstleister Equifax einen Hacker-Angriff bekannt, bei dem Daten von mehr als 145 Millionen Kunden aus den USA, Kanada und Großbritannien entwendet wurden, in einigen Fällen auch Kreditkartendaten. Aufgrund zahlreicher Klagen mit Schadenersatzforderungen in Höhe von 70 Milliarden, hat Equifax Ende Juli 2019 mit der Federal Trade Commission (FTC) einen Vergleich geschlossen. Die Gesamtkosten umfassen 300 Millionen Dollar für einen Fonds zur Entschädigung der Betroffenen sowie Strafzahlungen von 175 Millionen Dollar an die Bundesregierung und 100 Millionen Dollar an die Behörde zum Verbraucherschutz in Finanzsektor.

Doch wie sieht ein solcher Sicherheitsbruch von innen aus? Das YouTube-Video zeigt den Vortrag des neuseeländischen IT-Security-Experten Shahn Harris, der zur fraglichen Zeit für die IT-Sicherheit bei Equifax Neuseeland verantwortlich war. Er stand dabei nicht im Zentrum. Er war anfangs nicht einmal informiert, obwohl er zur fraglichen Zeit auf einer internen Security-Konferenz in der US-Zentrale von Equifax war. Den Sicherheitsbruch hat er durch die Medien erfahren. Doch dann begann für ihn und sein Security-Team der Abstieg in die Hölle: Druck, Hektik und 18-Stunden-Tage. Das Video ist ein interessanter Einblick in eine Security-Krise, wie sie zahlreiche Unternehmen jeden Tag treffen könnte.

Ein Sicherheitsbruch von unten: Druck, Hektik und 18-Stunden-Tage

Bildquelle: Pete Linforth / Pixabay

Industrie 4.0: Kostensenker vs. Innovatoren

  • Bereits 2014 hat die Staufen AG den ersten Industrie 4.0 Index erhoben. Damals wusste In den Unternehmen kaum jemand etwas mit dem Thema anzufangen. Doch seitdem ist er kontinuierlich gestiegen - Industrie 4.0 setzt sich durch.

Vielleicht ist es ja Übersättigung, denn seit Jahren ist von nichts anderem als Digitalisierung, Internet der Dinge und Industrie 4.0 die Rede. Da es ist dann schon erstaunlich, dass die strategische Bedeutung der Digitalisierung in den deutschen Chefetagen sinkt – eines der Ergebnisse der Studie „Digitale Transformation 2019. Die Zukunftsfähigkeit deutscher Unternehmen“ der Digitalisierungsberatung Etventure. Bei der Vorgängerstudie im letzten Jahr nannten noch rund zwei Drittel (62%) der befragten Großunternehmen die digitale Transformation als eines der drei wichtigsten Unternehmensziele, in diesem Jahr waren es nur noch etwa die Hälfte (54%).

Doch statt Überdruss könnte es auch einen anderen Grund haben, wie die Autoren der Studie vermuten: Die Selbstberuhigung mit den Gedanken „Es wird schon nicht so schlimm“ oder „Wir sind doch Weltmarktführer“. Wer sich mit Digitalisierung intensiv beschäftigt, weiß genau: Das schützt vor nichts, siehe Nokia und Kodak. Die digitale Transformation sollte also im Denken der Unternehmenslenker eine hohe Bedeutung haben.

Die Industrie 4.0 ist angekommen – aber noch nicht überall

Etventure untersuchte in seiner Studie die Wirtschaft in der ganzen Breite und befragte dafür zur Hälfte Dienstleistungsunternehmen und nur zu einem Drittel Firmen aus Industrie und verarbeitendem Gewerbe. Ein etwas detailreicheres Bild malt der „Deutsche Industrie 4.0 Index 2019“ der Unternehmensberatung Staufen. So gehören die Firmen der drei deutschen Schlüsselbranchen Maschinenbau, Elektrotechnik und Automobil zu den erfolgreichen Digitalisierern der deutschen Wirtschaft. Der Index und damit die Verbreitung von Industrie-4.0-Konzepten steigt seit Jahren. (Siehe die Slideshow am Beginn dieses Beitrags)

Das wichtigste Ergebnis: Jedes zweite Industrieunternehmen aus den Fokusbranchen setzt auf die Smart Factory und andere Elemente aus der Industrie 4.0. Die größten Fortschritte bei der Digitalisierung hat die Elektroindustrie gemacht: Mehr als zwei Drittel der Unternehmen setzen auf die Smart Factory. Der Maschinenbau ist nur wenig zögerlicher. Schlusslicht ist die Automobilindustrie, in der weniger als jedes zweite Unternehmen Industrie 4.0 umsetzt. Dieser Wert ist gegenüber der Untersuchung von 2018 sogar zurückgegangen. Auch hier wird also die Krisenstimmung deutlich, die aktuell in der Automotive-Branche herrscht.

Doch die grundsätzlich positiven Ergebnisse bedeuten nicht, dass Deutschland jetzt plötzlich zum Superstar der digitalen Transformation geworden ist. Denn die Ergebnisse der Staufen-Studie zeigen deutlich zwei sehr wichtige Eigenheiten des Deutschland-Modells der Digitalisierung. So geht es in erster Linie um Effizienz und bei der Umsetzung sind die Unternehmen zu vorsichtig, sie verwirklichen in großer Mehrheit lediglich Pilotprojekte. Diese beiden Besonderheiten werden übrigens von anderen Studien bestätigt – mehr dazu in den jeweiligen Abschnitten.

Der deutsche Dreisprung: Effizienz, Transparenz, Kostensenkung

Nach den Motiven für die Digitalisierung gefragt, nennen deutsche Industrieunternehmen seit Jahren dieselben Dauerbrenner: Sie möchten die interne Effizienz steigern, mehr Transparenz in ihren Prozessen erreichen und natürlich die Kosten senken. So auch wieder beim Industrie 4.0 Index für 2019. Auch diesmal geht es zwei Drittel bis drei Viertel der Firmen um genau diese Themen.

Dies ist auch ein wichtiger Grund dafür, dass der erst zum zweiten Mal erhobene Teilindex für Smart Business branchenübergreifend gesunken ist. Auch Staufen kommt in seiner Studie zu dem Schluss, dass das Interesse an neuen Geschäftsmodellen eher mau ist. Nur ein Fünftel der Unternehmen bietet seinen Kunden smarte, vernetzte Produkte und Services an. Die Innovatoren in den Unternehmen werden offensichtlich von den Kostensenkern ausgebremst.

Dazu passen die Ergebnisse der IDC-Studie „Industrial IoT in Deutschland 2019/2020„. Dementsprechend setzen ein Viertel der Unternehmen aus der Industrie und den industrienahen Branchen erste IoT-Projekte um. Dabei sind Unternehmen aus der Industrieproduktion am weitesten fortgeschritten. Bei ihnen steht allerdings die Optimierung im Vordergrund: Die zwei wichtigsten Gründe für das Industrial IoT sind Kostenreduzierung (40%) und die Verbesserung von interner Effizienz und Produktivität (35%).

Die deutsche Vorsicht: Lieber noch ein Pilotprojekt

Auch wenn sich eine große Zahl der Unternehmen mit Themen wie Digitalisierung, Industrie 4.0 und Industrial IoT beschäftigt: Komplett neue Geschäftsmodelle (4%) oder die vollständige operative Umsetzung der Smart Factory (8%) sind selten. Stattdessen ist die Szene beherrscht von Einzelprojekten, die bereits seit Jahren einen großen Teil der Industrie-4.0-Initiativen ausmachen.

Besonders deutlich wird dies beim Thema Smart Factory: Jedes zweite Unternehmen hat entsprechende Projekte im Angebot. Vor vier Jahren waren es noch ein Drittel. Zudem wird fleißig entwickelt: Ein Drittel der Unternehmen entwickelt aktuell smarte Produkte oder Services und weitere 10 Prozent testen gerade ihre Entwicklungsergebnisse bei den Kunden. Bei der Umsetzung hapert es allerdings, die auf breiter Front genutzte Smart Factory ist für mehr als 90 Prozent der Unternehmen noch Zukunftsmusik.

„Trotz der vielen Pilotprojekte kommt es nur sehr selten zu einer konkreten Anwendung im Unternehmen. Den Firmen gelingt es nicht, die Projekte nach der Testphase zügig in den Arbeitsalltag zu integrieren.“ Diese Aussage stammt aus einer internationalen McKinsey-Studie zum Digital Manufacturing. Interessant dabei: Unternehmen aus den traditionellen Branchen in allen Industrienationen haben diese Schwierigkeit, nicht nur die deutschen. Das lässt den Schluss zu, dass die Probleme auch der hiesigen Unternehmen eher an den Strukturen und weniger an der Mentalität liegen.

So geht’s: Erst nachdenken, dann digitalisieren

Der Staufen-Index zur Industrie 4.0 zeigt deutlich: Da die Digitalisierung in erster Linie Prozesseffizienz erreichen soll, haben die Endkunden noch vergleichsweise wenig von den Bemühungen. Das zeigt sich beispielsweise In der Autobranche beim sogenannten Connected Car – die OEMs bieten im Moment nur erste Ansätze. Verglichen mit dem Bordcomputer und der Systemsoftware eines Tesla wirkt das unausgereift.

Doch es gibt auch das genaue Gegenteil, nämlich die bewusstlose Digitalisierung von allem und jedem – vom Spielzeug-Teddy mit Sprachnachrichten-Funktion bis hin zum Toaster, bei dem sich der Bräunungsgrad per App einstellen lässt. „Hört auf, alles um jeden Preis zu digitalisieren“, fordert der Software-Unternehmer Amir Karimi in einem Blogbeitrag für mobilbranche.de. „Stattdessen sollte die Frage wieder im Mittelpunkt stehen, wie (und wem) Digitalisierung einen Mehrwert bringt.“

Er kritisiert hier Unternehmen, die zwar digitalisieren, aber vorher nicht nachdenken. Viele smarte Produkte und Services machen nur wenig Sinn und bringen den Kunden nichts. Bei vernetztem Spielzeug gibt es sogar mehr Sicherheitsprobleme als Spielspaß. Karimi stellt die auf Digitaleuphoriker ketzerisch wirkende Frage: „Bis zu welchem Grad muss ein Unternehmen digital werden?“ Seine Antwort: „Ein Bewusstsein für die Werte, die strategische Ausrichtung und die Belastbarkeit des eigenen Unternehmens sorgen für eine gesunde Dosis der Veränderung.“

Hidden Champions gibt es auch in der Industrie 4.0

Aus dieser Sicht relativiert sich auch die gemächlich wirkende Digitalisierungsgeschwindigkeit in der deutschen Industrie. Denn hinter den zahllosen Einzelprojekten und den wenigen smarten, vernetzten Produkten und Services verbirgt sich eine wachsende Wirtschaftsmacht – die digitalen Hidden Champions, wie sie Hermann Simon in einem Aufsatz für den aktuellen Harvard Business Manager nennt.

Simon erkennt den Industriesektor, also die B2B-Märkte, als große Chance für die deutsche Wirtschaft. Hier können sie ihre Erfolgsgeschichte auch in Zukunft fortsetzen. Der Grund: Silicon-Valley-Unternehmen sind blind für Nischenmärkte. Denn genau darum handelt es sich bei den digitalen Märkten für industrielle Prozesse. Sie zeichnen sich durch eine höhere Komplexität als B2C aus sowie durch ein äußerst spezialisiertes Know-how. Simon: „Am Markt ist dieses Wissen kaum verfügbar, es steckt in den Köpfen der Mitarbeiter jener Unternehmen, die auf solche Prozesse spezialisiert sind.“

Der entscheidende Vorteil der klassischen Hidden Champions ist für Simon ihre Kundennähe. Sie kennen sich sehr gut mit der Wertschöpfungskette ihrer Zielgruppen aus und können mit neuen, digitalen Lösungen echten Kundennutzen schaffen. Darüber hinaus haben sie die kalifornische Lektion gelernt: Sie setzen nicht nur auf inkrementelle Verbesserungen, sondern auf „Sprunginnovationen“ – also fundamentale, disruptive Veränderungen.

Das Know-how der Mittelständler macht den Unterschied

Für Simon hat die Digitalisierung ein spezielles Merkmal: Die B2B-Kunden der deutschen Mittelständler wissen häufig selbst nicht, was sie von der Digitalisierung erwarten können oder was diese bewirken kann. Hier greift die Stärke der digitalen Hidden Champions. Sie sind sehr gut darin, Kundenbedürfnisse und Technologie zur Übereinstimmung zu bringen. Dies kann zu Entwicklungskooperationen, Ökosystemen oder im Einzelfall sogar zu einer Fusion führen. Das beste Beispiel dafür ist der Automatisierungsexperte und Maschinenbauer Grohmann Engineering aus Prüm in der Eifel. Er heißt heute Tesla Grohmann Automation und ist am Aufbau der Gigafactories beteiligt.

„Die klare Überlegenheit von Hidden Champions rührt daher, dass sie nicht nur einen Wettbewerbsvorteil besitzen, sondern gleich mehrere“, betont Simon. Dazu gehören Produktqualität, Wirtschaftlichkeit, Service und Lieferpünktlichkeit, aber auch Systemintegration, Benutzerfreundlichkeit und Beratung. Letztlich handelt es sich dabei um Merkmale, die in der Kompetenz der Mitarbeiter wurzeln, so Simon. Dies könne weder im Silicon Valley noch in China nachgeahmt werden.

Die stark digitalisierten Hidden Champions sind beispielgebend für den gesamten deutschen Mittelstand sowie die großen Familienunternehmen. Sie sollten den Fokus auf Innovation richten und die Zwischenphase der Prozessoptimierung und Kostensenkung möglichst rasch verlassen. Dann wird auch der Staufen-Index für Smart Business im nächsten Jahr ähnlich stark ansteigen wie der für die Smart Factory.

Bildquelle:  chiradech / Adobe Stock

Slideshow: © Staufen AG

Offenlegung: An der hier vorgestellten Studie „Deutscher Industrie 4.0 Index 2019“ war ich als Redakteur beteiligt. Dieser Blogbeitrag ist von der Staufen AG weder beauftragt noch bezahlt worden.

Digitale Selbstverständlichkeit

Ist das alles wirklich erst seit einem Jahrzehnt unser Alltag? Was haben wir früher eigentlich gemacht, wenn wir wissen wollten, ob es am nächsten Tag regnet? Inzwischen schauen wir für die Antwort ganz automatisch auf das Smartphone. Wenn wir in eine unbekannte Gegend fahren, nutzen wir Google Maps. Wenn wir eine Bahnfahrkarte brauchen, bestellen wir sie mit einer App. Dank Onlineshops können wir spontan etwas kaufen, was wir gerade bei einem Bekannten gesehen haben. Und wenn uns irgendjemand ein leckeres Rezept aus seinem Lieblings-Kochbuch zeigt, fotografieren wir es, statt es abzuschreiben.

Der digitale Reflex: Apps nutzen, ohne es zu merken

So hat sich das Smartphone in unseren Alltag eingeschlichen. Manch einer nutzt beinahe drei Dutzend digitaler Dienste am Tag. Doch fragt man ihn oder sie, so lautet die Antwort: Ich nutze etwa sieben Apps am Tag. Dieses Missverhältnis zeigt, dass viele Leute deutlich mehr Apps nutzen, als sie bewusst wahrnehmen. Das ist eines der Ergebnisse einer aktuellen Untersuchung der Cisco-Tochter AppDynamics. Das Unternehmen besitzt durch seine Auswertung der Nutzungsparameter von Apps Information aus erster Hand und hat sie durch eine Befragung von Konsumenten ergänzt. In seinem globalen „App Attention Index“ analysiert der App-Intelligence-Anbieter genau, wie Kunden Apps in der Realität nutzen und welche digitale Customer Experience sie erwarten.

So geben die Befragten an, nur sieben digitale Dienste pro Tag zu nutzen. Doch die harten Nutzungsdaten sprechen eine andere Sprache: Es sind mehr als 30. Doch immerhin ist einem Großteil (68%) der Befragten klar, dass der Einsatz von Apps inzwischen zum „digitalen Reflex“ geworden ist, wie AppDynamics es nennt. Digitale Services werden verstärkt unbewusst genutzt. Ein gutes Beispiel ist der regelmäßige Blick auf die Wetter-App, die zumindest bei den Nutzern von Android-Smartphones ihre Daten direkt auf dem Homescreen anzeigt. Ein zweites gängiges Beispiel ist der regelmäßige Kontrollblick auf WhatsApp, ob bereits eine Reaktion auf eine eben geschriebene Nachricht erfolgt ist.

Die meisten Befragten der Studie schätzten die positiven Auswirkungen auf das tägliche Leben. So sind 70 Prozent überzeugt, dass Apps Stress reduzieren und 68 Prozent denken, dass sie ihre Produktivität zu Hause oder am Arbeitsplatz verbessert haben. In vielen Fällen erfüllen die Apps im Leben der Menschen so wichtige Aufgaben, dass sie kaum darauf verzichten können. 55 Prozent der Befragten gaben an, dass sie höchstens vier Stunden ohne Smartphone auskommen und 50 Prozent greifen nach dem morgendlichen Aufwachen zuerst zum Mobilgerät.

Süchtig nach Social Media und Internet?

Auf viele (meist ältere) Leute, die nur wenig Kontakt mit digitalen Services haben, wirken solche Verhaltensweisen irritierend. Und so werden Grusel-Schlagzeilen wie die folgende gern gelesen: 100.000 Kinder und Jugendliche sind Social-Media-süchtig. Das klingt bedrohlich, doch was steckt wirklich dahinter? Die Zahlen stammen aus einer Studie der Deutschen Angestellten Krankenkasse DAK, in der rund 1.000 Kinder und Jugendliche zwischen zwölf und 17 Jahren zu ihren Verhalten in sozialen Medien befragt wurden. 26 davon haben einige Kriterien für Suchtverhalten erfüllt. Und hier tauchte wie bei ähnlichen Studien ebenfalls eine Übereinstimmung auf: Einige Jugendliche gaben an, sowohl unter depressiven Stimmungen zu leiden, als auch Social Media übertrieben intensiv zu nutzen.

[toggle title=“Was genau ist Social-Media-Sucht?“]

Die DAK-Studie fragte bei seiner Stichprobe aus Jugendlichen auch das psychometrische Instrument „Social Media Disorder (SMD) Scale“ ab, das von niederländischen Psychologen entwickelt wurde. Es sei sehr gut geeignet, zwischen Vielnutzern einerseits und Personen mit Suchtverhalten andererseits zu unterscheiden, konstatiert eine Analyse des Instruments. Die SMD-Skala basiert auf einem Katalog aus neun Fragen, von denen mindestens Fünf mit „Ja“ beantwortet werden müssen, um Hinweise auf eine Suchtstörung anzuzeigen. Es sind die folgenden neun Fragen, von mir aus dem Englischen in das Deutsche übersetzt:

Wenn Du an das vergangene Jahr denkst:

1. Hast Du schon mal versucht, weniger Zeit mit sozialen Medien zu verbringen, bist aber daran gescheitert?
2. Warst Du regelmäßig unzufrieden, weil du mehr Zeit mit sozialen Medien verbringen wolltest?
3. Hast Du dich oft schlecht gefühlt, wenn du keine sozialen Medien nutzen konntest?
4. Hast Du schon mal versucht, weniger Zeit mit sozialen Medien zu verbringen, bist aber daran gescheitert?
5. Hast Du andere Aktivitäten wie etwa Hobbys oder Sport häufig vernachlässigt, weil du soziale Medien nutzen wolltest?
6. Hast Du regelmäßig Streit mit anderen wegen deiner Nutzung von sozialen Medien?
7. Hast Du Eltern oder Freunde häufiger über die Zeit angelogen, die Du mit sozialen Medien verbringst?
8. Hast Du oft soziale Medien genutzt, um negativen Gefühlen zu entkommen?
9. Hast Du wegen deiner Nutzung von sozialen Medien ernsthafte Konflikte mit deinen Eltern oder Geschwistern?

Es handelt sich hier um eine Skala, die in erster Linie ein Diagnoseinstrument für eine einzelne Person ist. Es ist schwierig, sie auf eine soziologische Untersuchung zu übertragen – der familiäre und soziale Kontext der Kinder und Jugendlichen ist nicht bekannt. So müsste ein Psychologe erst ein längeres Anamnesegespräch mit Kindern oder Jugendlichen führen, um das vermutete Suchtverhalten zu bestätigen – und vor allem, um eine damit verbundene Depression zu diagnostizieren. In der Soziologie wäre das durch eine einzelne quantitative Studie nicht zu leisten, sondern würde umfangreiche und teure qualitative Studien erfordern. Auf jeden Fall gilt für die SMD-Skala : Die Anzahl und Art der Antworten allein ist lediglich ein Anfangsverdacht.

[/toggle]

Solche Ergebnisse gibt es bei zahlreichen soziologischen Untersuchungen. Immer wieder tauchen Korrelationen zwischen Intensivnutzung von Internet, Games und Social Media einerseits und Depressionen andererseits auf. Eine Kausalität lässt sich hieraus nicht ableiten – obwohl es in den meisten Medien immer getan wird („Instagram macht Mädchen depressiv“). Eines der wichtigsten Probleme dabei ist die Unschärfe der Fragen und Instrumente. Sie geht zurück auf einen Mangel an gut bewährten soziologischen Erkenntnissen über Jugend und Digitales; etliche Studien reflektieren lediglich allgemeine Vorurteile über die Jugend oder das Internet. Eine Ausnahme sind eine Grundlagenstudie von 2014 und die auf ihr aufbauende Nachfolgestudie von 2018, beide vom Sinus-Institut in Heidelberg.

[toggle title=“Jugend & Internet – die Sinus-Studien“]

In diesen Studien überträgt Sinus den von ihm entwickelten Milieuansatz auf die Internetnutzung von neun bis 24-jährigen. Im Einzelnen geht es um folgende Milieus bzw. Lebenswelten: Verantwortungsbedachte und Skeptiker sind eher defensiv und vorsichtig. Pragmatische und Unbekümmerte haben einen ausgeprägten Teilhabewunsch, ihr Leben spielt sich deshalb größtenteils online ab. Sie  sehen sich nicht unbedingt als Experten und pflegen einen pragmatischen, teils unbedarften Online-Stil. Enthusiasten und Souveräne sind Intensiv-Onliner mit unterschiedlich ausgeprägter Grundhaltung. Während die Enthusiasten Risiken eher ausblenden, sind die Souveränen kritisch und suchen einen Weg, selbstbewusst mit Online-Gefahren umzugehen.

Soweit der Status 2014. in den folgenden vier Jahren haben sich einige Veränderungen ergeben. So musste Sinus für die 2018er-Studie das Kriterium der Internetferne streichen, es ist kein konstituierende Merkmal für ein Milieu mehr. Denn bei den derzeit Unter-25-jährigen gibt es keine Offliner. Das Internet ist fester Bestandteil ihres Alltags und nicht mehr optional. Wer sich hier bewusst dagegen entscheidet, ist in seiner Teilhabe eingeschränkt. Das ist Jugendlichen und jungen Erwachsenen deutlich bewusst. Für sie ist es keine Frage mehr, das Internet zu nutzen. Es geht stattdessen nur noch um das Wie.

Die Studien sind interessanter Lesestoff und bieten viele Erkenntnisse. Eine von zahlreichen: Kinder und Jugendliche sind ihrer eigenen Online-Nutzung deutlich skeptischer gegenüber eingestellt, als es den Eindruck macht. Zwar können sie sich ein Leben ohne Internet nicht mehr vorstellen, doch fast jeder dritte Jugendliche nimmt das eigene Nutzungsverhalten als problematisch wahr. Zudem fürchten zahlreiche Jugendliche typische Gefahren wie Cybermobbing oder Identitätsdiebstahl.

Trotz ihrer Informiertheit über die Gefahren fühlen sich viele Jugendliche eher schlecht auf ihre persönliche digitale Zukunft vorbereitet. Eine wachsende Gruppe erkennt, dass sie sich lediglich virtuos auf Oberflächen bewegt, aber von den technischen Hintergründen keine Ahnung hat. Das zu ändern, wäre natürlich eine Aufgabe für das Bildungssystem. Aber leider ist die Institution Schule eher nonline…

[/toggle]

Die Studien zeigen deutlich, dass junge Leute zu einem souveränen, aber untechnischen Umgang mit der digitalen Welt neigen. Kurz: Sie sind digitale Konsumenten. Und natürlich gibt es auch hier ein Zuviel des Konsums. Eine eingebaute Tendenz zur Dauernutzung haben vor allem spielerische Angebote mit hoher Attraktivität und einer eingebauten, ebenfalls sehr attraktiven Belohnung – etwa Aufmerksamkeit durch Zustimmung und Lob anderer Nutzer. Sucht-ähnliches Verhalten betrifft aber nur eine kleine Minderheit und die auslösenden Faktoren sind nicht hinreichend geklärt.

Die große Mehrheit der Jugendlichen und jungen Erwachsenen hat digitale Dienste in ihre Lebenswelt integriert, vor allem Spiele und Social Media. Sie werden genutzt, weil sie da sind und weil sie praktisch sind. Oft handelt es sich aber auch um Jugendkultur-Phänomene, die nur von einer bestimmten Altersgruppe oder einigen Jahrgangskohorten sehr intensiv genutzt werden. Anschließend werden die entsprechenden Apps uninteressant und verschwinden in Einzelfällen sogar vom Markt, wie beispielsweise Musical.ly.

Die App-Konsumenten der Zukunft

Die Sinus-Studien stellen eine recht große Heterogenität der Nutzung von digitalen Diensten fest, doch auch einige Gemeinsamkeiten in allen Milieus: Es gibt keine Offliner mehr und digitale Services werden als Bestandteil des täglichen Lebens akzeptiert – von einigen sehr enthusiastisch, von anderen auch kritisch. Aus Sicht von Unternehmen ist das eine interessante Konsumentengruppe: Sie nutzen Fun- und Game-Apps besonders intensiv, sind aber auch aber auch offen für Marketing-Apps und andere digitale Angebote von Unternehmen.

Doch genau diese Konsumentengruppe ist anspruchsvoll und somit wird der durchschnittliche App-Nutzer auch immer mäkeliger. Die App-Dynamics-Studie konstatiert eine Null-Toleranz-Einstellung gegenüber schlechten digitalen Diensten. So gaben etwa drei Viertel  der Befragten an, dass in der letzten Zeit ihre Erwartungen an die Leistungsfähigkeit von Apps gestiegen sind. Eine Mehrheit von 70 Prozent toleriert keine technischen und sonstigen Probleme mit den Apps. Auch wenn die freiwillige Angabe von Zahlungsbereitschaft immer etwas problematisch ist: Immerhin jeder zweite der Befragten würde für digitale Produkte und Services einen höheren Preis in Kauf nehmen, wenn die Qualität höher ist als bei den Mitbewerbern.

Verbraucher verzeihen schlechte Erfahrungen nicht mehr einfach so: Sie wechseln zum Wettbewerber (49%) oder raten anderen von der Nutzung des Dienstes oder der Marke ab (63%). Aus der Studie lassen sich zwei wichtige Anforderungen ableiten, den Unternehmen bei der Entwicklung ihrer digitalen Services beachten sollten:

  1. Arbeitsgeschwindigkeit: Die Leistung der Anwendung steht im Vordergrund. Ruckeln, lange Reaktionszeiten, endlose Datenübertragungen – all das macht für die Verbraucher einen schlechten Service. Da moderne Apps meist keine lokale Anwendungslogik mehr haben, sondern ein Cloud-Backend, ist Application Performance Management (APM) das Entdecken und Beheben von Problemen notwendig. Anbei sollte der gesamte Technologie-Stack vom Frontend über das Backend bis hin zum Netzwerk in Echtzeit überwacht werden.
  2. Benutzererfahrung: Wichtig ist auch eine moderne, leicht verständliche und einfach zu bedienende Benutzeroberfläche. Das klingt wie eine Binse, ist aber leider immer noch nicht selbstverständlich. UX/UI-Design (User Experience, User Interface) ist heute eine eigene Disziplin des Software-Engineering und  muss von den Unternehmen ernst genommen werden. Vor allem die nachwachsenden Generationen sind in dieser Hinsicht anspruchsvoll, sie erwarten eine intuitive Bedienung, die keine Fragen offen lässt.

Bildquelle: TeroVesalainen / Pixabay

Das digitale Zeitregime

Vor einer Woche habe ich diesen Artikel zum Thema Zeiterfassung auf LinkedIn geteilt und mit Anekdoten gewürzt. Die Überschrift lautet „Die Vertrauensarbeitszeit ist faktisch tot“ und ein Arbeitsrechtler erklärt, dass der EuGH der Täter ist. Die Folge: 48 Kommentare, 53 Reaktionen und fast 13.000 Views. Für mein wenig prominentes Profil ist das eine Menge. Da Vertrauensarbeitszeit und flexible Arbeitszeitregelungen entscheidend für die wirtschaftliche Zukunft Deutschlands sind, hier ein Artikel mit weiteren Überlegungen:

Timeo danaos et dona ferentes wissen wir durch Asterix-Lektüre. Und die Danaer von heute sind die Richter am Europäischen Gerichtshofs (EuGH). Denn sie haben den europäischen Arbeitnehmern ein Geschenk gemacht: Mit dem Urteil vom 14. Mai 2019 haben sie alle europäischen Arbeitgeber dazu verpflichtet, die tägliche Arbeitszeit jedes Mitarbeiters genau zu erfassen. Dies erleichtere den Arbeitnehmern den Nachweis der Überschreitung von Arbeitszeiten, der Unterschreitung von Ruhezeiten und biete Behörden und Gerichten ein wirksames Mittel zur Kontrolle. Die Mitgliedsstaaten sind jetzt gefordert und müssen dieses Urteil in Gesetze gießen.

Digitale Zeiterfassung ist besser

Das hört sich im ersten Moment gar nicht mal schlecht an, schließlich will keiner unbezahlte Arbeit leisten. Und es gibt eine ganze Menge Jobs, in denen genaue Zeiterfassung wichtig ist. Aus eigener Erfahrung: Mir war das als Brief- und Paketzusteller wichtig, als Altenpfleger und als Helfer im IT-Support. Diese Jobs sind anstrengend und es ist wichtig, dass die Arbeitszeitgesetze penibel eingehalten werden. Das bedeutet: Acht Stunden Arbeit am Tag, ausnahmsweise zehn Stunden, elf Stunden Mindestruhezeit, Überstunden müssen bezahlt werden. Das EuGH-Urteil verpflichtet Arbeitgeber also dazu, die Einhaltung dieser Regeln auch nachzuweisen.

Mit modernen digitalen Verfahren ist das einfach erledigt. So könnte eine automatische Erfassung beim Betreten und Verlassen des Gebäudes mit einer RFID-Mitarbeiterkarte diesen Zweck erfüllen. Zudem ist es möglich, über das An- und Abmelden an den internen Geschäftsanwendungen eine noch genauere Erfassung der Arbeitszeit zu leisten. Außendienstler bekommen eine App für die Meldung zur Arbeit und im Homeoffice muss ja schließlich auch die Software des Unternehmens genutzt werden.

Das Urteil ist also grundsätzlich umsetzbar, doch in der Praxis wird die Zeiterfassung auf Hürden stoßen. Unsere Arbeitswelt ist flexibler als vor 20 oder 50 Jahren. Vor allem in den Bereichen, die unter dem Oberbegriff Wissensarbeit laufen, geht es in erster Linie um zielorientiertes Arbeiten. Aufträge müssen abgewickelt werden, Projekte beendet und Meilensteine erreicht werden. Viele Mitarbeiter sind nicht regelmäßig an ihrem Schreibtisch, sondern reisen zu Kunden, Lieferanten oder einer Zweigstelle. Hinzu kommen Außendienstler, die lediglich zu Besprechungen in die Zentrale kommen; Leiharbeiter, die gar nicht beim Unternehmen angestellt sind; Homeoffice-Regelungen oder ausgelagerte Arbeitsplätze in einem Coworking-Space und vieles mehr.

Digitale Tools, digitaler Akkord

Das Problem dieses Urteils, das es zum Danaergeschenk macht: Eine generelle Zeiterfassung differenziert nicht zwischen unterschiedlichen Arten der Arbeit. Denn die vom EuGH vefohlene Arbeitszeiterfassung gehört zum Zeitregime des Industriezeitalters, als Arbeitsbeginn, Pausen und Arbeitsende sehr genau festgelegt waren. Zwar gibt es auch heute noch Leute, die auf genau diese Weise arbeiten, doch in vielen Firmen ist das nicht mehr die Mehrheit.

In Zukunft müssen alle ihre Arbeitszeit erfassen, mit Softwarelösungen. Sie könnten aber zu einer totalen Kontrolle führen – eine sicher nicht von den EuGH-Richtern intendierte Nebenfolge. Sogenannte Clickworker kennen das bereits: Ihre Arbeit wird sekundengenau erfasst, etwa die Datenvorbereitung für Machine Learning. So etwas ist eine digitale Form von Akkordarbeit.

Die Clickworker sind gezwungen, eine bestimmte Arbeitsmenge pro Stunde zu schaffen, um angesichts der geringen Stücklöhne überhaupt ein halbwegs brauchbares Einkommen zu erzielen. Dabei werden Zeiten und Mengen aufgezeichnet, sodass eine genaue Abrechnung möglich wird. Diese Form von prekärer Arbeit könnte sich durch Zeiterfassung noch weiter verbreiten. Die Einführung solcher Systeme kostet und es ist naheliegend, den Aufwand durch Effizienzgewinne zu refinanzieren.

Ist Arbeitsleistung immer messbar?

Ein zweites Problem: Viele Aufgaben in der Wissensarbeit sind mit automatischer Zeiterfassung kaum messbar. Ein typisches Beispiel ist das Verfassen dieses Textes: Er ist nicht in einem Stück entstanden, sondern über mehrere Tage hinweg. Ich musste dreimal ansetzen, um meine anfangs noch unsortierten Gedanken zu ordnen. Darüber hinaus habe ich ein Mittelstück einfach gestrichen, da es mir zu abschweifend vorkam. In dieser Zeit habe ich sicher manche Viertelstunde vor dem Computer gesessen und gebrütet — von meinen Playlists beschallt und mit gelegentlicher Hirnentspannung durch Betrachten von YouTube-Videos.

Solche Situationen gibt es in zahlreichen Berufen, die mit Kreativität und Entwicklung zu tun haben, vom Grafiker bis hin zum Backend-Entwickler. Es ist praktisch unmöglich, wie eine Maschine stundenlang zu schreiben oder zu coden. Aus diesem Grunde gehen Wissensarbeiter gelegentlich einen Kaffee trinken, stellen sich zum Durchatmen auf den Balkon oder befreien sich von Denkblockaden durch ein Schwatz mit Kollegen.

Wie soll so etwas gemessen werden? Wird dann den Mitarbeitern wie in Ausbeuterjobs der Toilettenbesuch vom Lohn abgezogen? Das kann das EuGH nicht gemeint haben. Doch diese überspitzten Beispiele zeigen, dass es leider nicht so einfach ist mit der Zeiterfassung. Eine allgemeine Pflicht zur Dokumentation der Arbeitszeit könnte sinnvoll nur durch die Formel „Anwesenheit gleich Arbeitszeit“ erfüllt werden. Doch selbst das führt zu Problemen, bei Mitarbeitern im Außendienst etwa, in Vertrieb und Service.

Das digitale Zeitregime und die große Lüge

Wenn tatsächlich ein Außendienstler seine Arbeitszeit dokumentieren soll, muss auch genau festgelegt werden, was zu dieser Arbeitszeit gehört. Klar, Fahrzeiten gehören dazu. Doch was ist, wenn Kundentermine plus Anfahrt zehn Stunden überschreiten? Und wenn der nächste Termin inklusive Anfahrt so ungünstig liegt, dass keine elf Stunden Ruhezeit möglich sind? Bisher ist es üblich, diese Dinge schlicht zu ignorieren. Offiziell gelten die gesetzlichen Arbeitszeitregeln, inoffiziell wird einfach die anfallende Arbeit erledigt. In schlechten Unternehmen ist es das. In guten Unternehmen schreiben die Mitarbeiter Überstunden auf und feieren sie in Absprache mit Management und Kollegen ab.

In vielen Berufen vom Außendienstler bis zum Zeitungsreporter gab es also bisher eine Zweiteilung. Auf der einen Seite die gesetzlichen Arbeitszeitregeln, die selbstmurmelnd strikt eingehalten wurden. Auf der anderen Seite die notwendige Flexibilität, mit mehr oder weniger großzügigem Überstundenausgleich. Diese Zweiteilung wird es auch in der Welt des EuGH-Urteils geben.

Meine Vermutung: In leicht prüfbaren Arbeitssituationen wird sich das Zeitregime verschlimmern, da digitale Tools den tatsächlichen Arbeitsfortschritt gut erfassen können. In weniger leicht prüfbaren Situationen werden die Unternehmen nicht anders können, als dem Mitarbeiter die Zeiterfassung selbst zu überlassen. Unter anderem deshalb, weil viele technische Spezialisten begehrt sind. Die Unternehmen können nicht ohne sie und müssen ihnen deshalb einigermaßen angenehme Rahmenbedingungen bieten.

Zeiterfassung im 21. Jahrhundert ist also entweder zum Nachteil der Mitarbeiter oder eine große Lüge.

Die Situation der Mitarbeiter wird dadurch eher schlechter, nicht besser. Denn die Zahl der Kontrollfreaks im Management ist immer noch groß und sie werden sich die Gelegenheit nicht entgehen lassen, den Mitarbeitern genau auf die Finger zu schauen.

Bildquelle: Gerd Altmann /Pixabay

Künstliche Vorurteile & ihre Vermeidung

So stolperte Amazon in die Bias-Falle: Seit 2014 hat ein Team aus einem guten Dutzend Maschine-Learning-Spezialisten in Edinburgh an einer KI-Anwendung gewerkelt, die anhand von Bewerbungsunterlagen geeignete Kandidaten ermitteln sollte. Das Problem dabei: Die KI wertete Frauen ab und fischte aus dem digitalen Bewerbungsstapel lediglich die Männer heraus.

Der Grund: Eine Verzerrung („Bias“) der Trainingsdaten. Machine-Learning-Modelle müssen anhand von „korrekten“ Beispieldaten trainiert werden, etwa den Bewerbungsunterlagen von erfolgreichen Mitarbeitern. Da es hier aber um technische Berufe ging, spiegelt der Trainingsdatensatz deren Problematik wieder: Männer stellen die Mehrheit. Das Modell hat also gelernt, dass ein wichtiges Merkmal erfolgreicher Kandidaten das männliche Geschlecht ist.

Das Problem von Amazon zeigt, dass die Auswahl der Trainingsdaten entscheidend ist für den Erfolg einer KI-Anwendung. Mit dem richtigen Dataset kann die KI-Anwendung korrekt arbeiten – egal, ob es um Kandidatenauswahl oder jede andere Art von Aufgabe geht. Doch einfach ist die Bestimmung eines Dataset nicht, es können eine Reihe von Schwierigkeiten auftauchen.

Repräsentativität – Verzerrung durch Auswahl der Daten

Ein Dataset muss für seinen Anwendungsbereich repräsentativ sein, also (annähernd) vollständig über sämtliche möglichen Merkmale und Merkmalskombinationen streuen. Sonst kommt es zu schlechten Ergebnissen: Da gab es diese KI, die Schiedsrichter in einem Schönheitswettbewerb spielen sollte. Natürlich ist sie mit Fotos von Models trainiert worden, doch „Persons of Color“ waren dabei unterrepräsentiert. Und so wurden nur europäisch oder asiatisch aussehende Menschen als schön gekennzeichnet.

Doch wie erhält man einen repräsentativen Datensatz? Lediglich möglichst viele Daten zu sammeln, führt nicht weiter. Auch eine noch so große Datenmenge bewirkt nicht, dass der Datensatz insgesamt repräsentativ für etwas ist, was in der Soziologie „Grundgesamtheit“ heißt. Damit ist der Bereich gemeint, für den diese Daten eine Aussage treffen sollen – beispielsweise die Grundgesamtheit „deutsche Gesellschaft“ oder „Verbraucher zwischen 16 und 46“.

Damit eine valide Aussage entsteht, muss die Auswahl des Datensatzes zufällig sein, ohne Regeln, Voraussetzungen oder Vorurteile. Eine reine und wissenschaftlich korrekte Zufallsauswahl ist in der Praxis allerdings unmöglich. Data Scientists müssen also auf eine Heuristik zurückgreifen, bei der Merkmalsvielfalt und Vollständigkeit wichtige Kriterien sind. Was das genau bedeutet, hängt vom Anwendungsbereich ab. So müsste eine Computer-Vision-Anwendung, die Hunde von Katzen unterscheiden kann, für ihre Trainingsdaten Fotos von allen möglichen Hunde- und Katzenrassen präsentiert bekommen.

Framing – Verzerrung in der Realität

Ein weiteres heuristisches Kriterium ist Framing: Der Realitätsbereich, in dem die KI-Anwendung eingesetzt wird, ist häufig bereits verzerrt. Die Amazon-KI ist ein gutes Beispiel dafür. Technische Berufe sind üblicherweise sehr stark männlich „geframet“. Dies beginnt beim geringen Interesse der Mädchen für MINT-Fächer in den Schulen, setzt sich in den entsprechenden Studiengängen fort und wird schließlich zur Realität des überwiegend männlichen Berufs.

Es ist offensichtlich, dass hier Talente verloren gehen. So ist es für die Kandidatenauswahl eine gute Idee, gleich viele Profile von Männern und Frauen als Trainingsdatensatz zusammenzustellen. Doch das Framing betrifft nicht nur das Geschlecht. Ein anderes Merkmal könnte der (Aus-)Bildungsabschluss sein. In einem „ungeframeten“ Datensatz könnten unter Umständen auch Kandidaten ohne Hochschulabschluss oder Quereinsteiger ganz ohne formelle Abschlüsse vorkommen.

Das zeigt, dass die anfängliche Entscheidung über Ziel und Aufgabe der KI-Anwendung wichtig ist. Wer die Wirklichkeit lediglich abbilden will, muss auf Repräsentativität des Datensatzes achten, wer normative Ziele hat, eher auf eine mögliche Verzerrung das Realitätsbereichs. Wenn beispielsweise eine KI-Anwendung zur Auswahl von Bewerbern dafür sorgen soll, dass normalerweise wenig berücksichtigte Kandidaten eine größere Chance bekommen, muss der Datensatz entsprechend korrigiert werden.

Bestätigungsfehler – Verzerrung durch Vor-Urteile

Hier taucht allerdings sofort das nächste Problem bei der Auswahl von Daten auf: Der Bestätigungsfehler. Er kann in drei unterschiedlichen Varianten vorkommen:

  • Die Daten werden intuitiv ausgewählt, weil sie sich „richtig anfühlen“ und mit den Vorannahmen des Auswählenden übereinstimmen. Das Ergebnis der KI-Anwendung ist dann genau das, was der menschliche Nutzer „immer schon wusste“. In diesem Fall fehlt es an einem genauen Konzept zur Daten- und Merkmalsselektion und der Aufmerksamkeit für Verzerrungen.
  • Die Daten werden systematisch so ausgewählt, dass sie zu dem vermuteten oder gewünschten Ergebnis passen. Leider passiert das häufig in Unternehmen: Eine in der Hierarchie höher stehende Person akzeptiert nur eine bestimmte Datenauswahl und erreicht damit das erwartete und nützliche Ergebnis.
  • Die Daten besitzen einen unerkannten Bias und werden auch für den Test des Neuronetzes genutzt. Diese Vorgehensweise ist häufig, ein Dataset wird geteilt und je die Hälfte zum Training und zum Überprüfen der Ergebnisse eingesetzt. In diesem Fall bestätigt sich der Bias in einem vermeintlich validen Ergebnis – Entwickler kennen das als „Garbsage in, Garbage out“.

Der letzte Punkt ist besonders wichtig. Ein ML-Modell sollte möglichst immer an Daten getestet werden, die entweder direkt aus der Praxis kommen oder auf andere Weise gewonnen werden. In der Bilderkennung beispielsweise sollten die Datasets aus unterschiedlichen Quellen kommen, um mögliche VErzerrungen besser zu erkennen.

Seltene Ereignisse – Verzerrung durch den Faktor Zeit

Eine weitere Form der Verzerrung ist das Problem der seltenen Ereignisse, das besonders für autonome Fahrzeuge kritisch ist. Ihre ML-Modelle werden mit Aufzeichnungen von Fahrsituationen trainiert, etwa Videodaten aus Fahrerperspektive oder 360°-Darstellungen von Lidar-Scannern, die Bilder mit Laser-Abtastung erzeugen. Waymo und andere Entwickler autonomer Fahrzeuge zeichnen jede gefahrene Meile auf und bauen so nach und nach einen Datensatz aus alltäglichen Fahrsituationen auf.

Inzwischen sind diese Datasets gigantisch und erfassen viele, aber leider nicht alle denkbaren Fahrsituationen. Denn jeder menschliche Autofahrer kennt seltene Ereignisse – etwa der bunte Spielzeugball, der über die Straße rollt und Sekundenbruchteile später von einem rennenden Kleinkind verfolgt wird. Wie oft erlebt jemand diese Situation in seinem Leben tatsächlich? Keinmal, einmal, zweimal? Die meisten wohl selten. Trotzdem reagiert jeder Mensch sofort richtig. Damit eine Auto-KI diese Situation zweifelsfrei erkennt, müssen die Trainingsdaten eigentlich viele Varianten enthalten, etwa rollende Bälle unterschiedlicher Größe, Spielzeuge mit Rädern oder Haustiere.

Nur: Seltene Ereignisse in der Realität sind in einem durch Beobachtung erzeugten Dataset ebenfalls selten. Dies zeigte sich an einem tragischen Unfall mit einem autonomen Auto. Die KI erkannte die Gefahr nicht, als eine Frau nachts bei schlechter Beleuchtung ihr Fahrrad quer über eine mehrspurige Straße schob. Es gibt kaum einen Ausweg, als einfach immer weiter echte Fahrdaten zu sammeln. Deshalb ist hier ausnahmsweise die Größe des Datensatzes recht wichtig. Den größten hat Tesla, aus diesem Grunde sprechen einige KI-Experten dem Unternehmen von Elon Musk Vorteile bei der Entwicklung eines autonomen Autos zu.

Das ideale Dataset gibt es nicht

Die oben geschilderten Verzerrungen in Datasets sind nur einige Probleme. Es gibt noch weitere Verzerrungen, die in vielen Situationen zu Schwierigkeiten führen: Zu wenige geeignete Daten trotz eines großen Datasets, fehlerhafte Daten, den Mittelwert verzerrende Extremwerte, zu strenge oder zu schwache Auswahlkriterien für Daten, falsch ausgewählte Merkmale für das Training und einiges mehr.

Ohne Sorgfalt und Überlegung bei der Auswahl der Daten wird es nicht gelingen, durch das Training ein valides ML-Modell zu erhalten. Es gibt jedoch ein paar Daumenregeln. Sie helfen unter anderem dem Management eines Unternehmens, Voraussetzungen und Konsequenzen der jeweiligen Maschine-Learning-Anwendungen zu verstehen.

  • Ein sehr großes (Millionen Entitäten) Dataset ist keine Garantie für gültige Ergebnisse. Allerdings muss ein sehr klein wirkendes (wenige 100 Entitäten) Dataset besonders kritisch geprüft werden.
  • Annahmen und Voraussetzungen müssen geklärt werden. Es ist sinnvoll, in der Vorbereitungsphase eines ML-Projekts zu beschreiben, welche Annahmen für den Aufgabenbereich gelten und welche in den Trainingsdaten versteckt sein könnten.
  • Trainingsdaten sollten einerseits zufällig ausgewählt werden und andererseits möglichst breit streuen. Historische Daten aus dem eigenen Unternehmen sind oft weniger geeignet, da sie spezifische Verzerrungen enthalten können. Die finden sich dann in den Ergebnissen wieder.
  • Videobeobachtungen enthalten nur das, was tatsächlich beobachtet wurde und nicht das, was insgesamt beobachtet werden kann. Sie sind mit Vorsicht zu genießen, profitieren allerdings von der Größe des Datasets.

Quellen

  1. 7 Common Biases That Skew Big Data Results (Information Week)
  2. AI can Help Create a Better World. If we Build it Right (SingularityHub)
  3. AI has a bias problem that needs to be fixed (World Economic Forum)
  4. Amazon scraps secret AI recruiting tool that showed bias against women (Reuters)
  5. Four Mistakes You Make When Labeling Data (Towards Data Science)
  6. Four Types of Machine Learning Bias (Alegion)
  7. Problems in Machine Learning Models? Check your Data First (Towards Data Science)
  8. This is How AI Bias Really Happens and why it’s so Hard to Fix (Technology Review)
  9. To fix algorithmic bias, we first need to fix ourselves (Quartz)
  10. Towards Fairness in ML with Adversarial Networks (Go Data Driven)
  11. We need to build machine learning tools to augment machine learning engineers (O’Reilly Radar)

Bildquelle: Secondside / Adobe Stock

Traumjob Data Scientist

Beschaffung, Bearbeitung, Auswertung und Interpretation von Daten aller Art — so lässt sich das Berufsbild des Data Scientist oder Datenwissenschaftlers beschreiben. Data Science gilt als Teil der angewandten Mathematik und ist ein Querschnittfach, dass sich irgendwo zwischen Informatik, Mathematik und Statistik bewegt. Und es hat ein enorm gutes Image, denn die Harvard Business Review hat den Data Scientist zum Sexiest Job des 21. Jahrhunderts ausgerufen. Das zeigt sich auch im Jobranking von Glassdoor: Der Datenwissenschaftler landete in diesem Jahr zum vierten Mal in Folge auf dem ersten Platz.

Das Berufsbild ist recht heterogen. „Es entwickelte sich im Zuge der sich ändernden Bedürfnisse aus der Wirtschaft heraus. Daher begründet sich auch der hohe Praxisbezug“, betont Michaela Tiedemann, CMO bei der Data-Science-Beratung Alexander TAM GmbH, in einem Blogbeitrag, der einen Überblick über Berufsbild und Ausbildungsmöglichkeiten in Deutschland gibt.

Der deutsche Arbeitsmarkt für Data Scientists

Stellen für Datenwissenschaftler sind trotz der Neuigkeit des Berufsfeldes gar nicht so selten. Die Ergebnisse der Jobsuchmaschine Joblift sollten repräsentativ sein, da der Service große Stellenmärkte wie Stepstone und Monster auswertet – auch wenn Dubletten möglich sind. So gibt es im Moment etwa 1.200 offene Jobs für den Suchbegriff „Data Scientist“. Verwandte Berufe wie Data Analyst (1.600 Treffer), Data Engineer (1.800 Treffer) und Data Architect (1.100 Treffer) haben ähnlich viele Treffer. Zum Vergleich: Für Softwareentwickler gibt es zehnmal so viele Anzeigen.

Um in den Data-Science-Jobs arbeiten zu können, müssen Bewerber recht hohe Anforderungen erfüllen. Denn Datenwissenschaftler haben oft eine gehobene Position in technischen Fachbereichen. Dementsprechend gehört neben Kenntnissen in Informatik und Mathematik vor allem analytisches Denken, Kommunikationsstärke und Führungsfähigkeit zu den wichtigen Muss-Kompetenzen eines Datenwissenschaftlers – meint die Recruiting-Agentur AlphaJump in ihrem Karriereguide zum Data Scientist.

Das stark nachgefragte Berufsbild hat auch die Universitäten aufmerksam gemacht. So gibt es seit etwa 2016 eine Vielzahl an Masterstudiengängen zum Datenwissenschaftler, wohl an mehr als 20 Universitäten. Die ersten Absolventen dürften gerade auf den Markt kommen. Allerdings ist im Moment noch nicht ganz klar, wie der Arbeitsmarkt für sie aussieht. Ein genauer Blick zeigt, dass sie vermutlich bei vielen Anzeigen keinen Erfolg haben werden.

[toggle title=“Einige Beispiele für Stellenanzeigen:“]

  • Das bekannte Systemhaus Bechtle sucht einen Data Scientist mit mehrjähriger Berufserfahrung, der sich laut Anzeige mit Software für Data Analytics, klassischen RDBMS und No-SQL-DBMS auskennen sollte. Zu allem Überfluss sollte er oder sie auch noch Kenntnisse in Bereichen wie Virtualisierung oder Predictive Maintenance mitbringen.
  • Auch Discounter Aldi stellt Data Scientists ein, unter anderem im Supply Chain Management. Hier ist ebenfalls Berufserfahrung im Bereich Data Science oder Business Analytics gefragt sowie idealerweise Kenntnisse der Besonderheiten der Handelsbranche. Hinzu kommt noch Erfahrung mit SAP-Software, die in Mainstream-Unternehmen immer noch der Standard ist.
  • Die Telekom hat mehrere Positionen im Bereich Data Science ausgeschrieben, mit einer Gemeinsamkeit: Neben einem MINT-Studium ist mehrjährige Berufserfahrung notwendig, für Senior-Positionen sogar mindestens fünf Jahre. Das stimmt mit den Anforderungen überein. Der Telekom sind neben Kenntnissen in Sachen Datenanalyse noch solche über Software-Engineering, agile Methoden und Cloud-Technologien wichtig — alles IT-Spezialitäten, die niemand in einem Wochenendkurs lernen kann, denn sie erfordern in erster Linie praktische Erfahrung.

[/toggle]

Die Erkenntnis aus der Durchsicht einiger Dutzend Stellenanzeigen: Ohne Berufserfahrung und ein recht breites Skillset geht wenig. Natürlich gibt es auch Angebote für Hochschulabsolventen und auch Ausschreibungen von Praktika, häufig mit der englischsprachigen Stellenbeschreibung „Intern“. Das sind allerdings trotz des Verweises auf Data Science meist eher Stellen mit Assistenzcharakter. Sie sollten aber ausreichen, um erste Erfahrungen zu sammeln.

In Singapur ist es nicht anders als in Deutschland

Trotzdem ist ein Einstieg in die Data Science nicht einfach, auch nicht in der englischsprachigen Welt. Hanif Samad ist Datenwissenschaftler, aber erst nach Überwindung einiger Hindernisse. In einem ausführlichen und hochinteressanten Artikel für das Online-Magazin „Towards Data Science“ kommt er angesichts seiner anfänglich nicht erfolgreichen Bewerbungen zu einem bestechenden Schluss: Er will sich weniger auf das verlassen, was Data Scientists wissen sollen, sondern mehr darauf, was sie in der Praxis tatsächlich machen.

Denn Samad ist bei seiner Informationssuche im Vorfeld der Bewerbungen auf ein Problem gestoßen: Schon eine oberflächliche Google-Suche fördert zahlreiche Ratgeber zutage, die unglaublich viele Must-Have-Skills aufzählen. Dadurch entsteht das Bild eines allumfassend kompetenten Super-Datenwissenschaftlers, das nur leider realitätsfremd ist. Um ein besseres Bild zu erhalten, hat Samad 869 LinkedIn-Profile ausgewertet, in denen als Berufsbezeichnung Data Scientist und als Ort Singapur vorkommt — dort hat er sich gezielt beworben.

[toggle title=“Hier einige seiner Erkenntnisse im Detail:“]

  • Fast drei Viertel der Data Scientists haben entweder einen Masterabschluss oder einen Ph. D. Lediglich 6 Prozent waren Quereinsteiger mit nicht-traditioneller Zertifizierung.
  • Mit 14 Prozent hat die Informatik den größten einzelnen Anteil an den Studienabschlüssen. Die unterschiedlichen Ingenieurdisziplinen kommen auf 22 Prozent, die unterschiedlichen Studiengänge für Mathematik, mathematische Physik, Statistik sowie angewandte Mathematik haben ein Anteil von 12 Prozent. Heimlicher Gewinner dieser Statistik ist jedoch das Feld Business Analytics, das sich auf unterschiedliche Studiengänge verteilt und zusammen 15 Prozent ausmacht – viele davon Master und keine Ph. Ds.
  • Die Berufserfahrung der untersuchten Datenwissenschaftler liegt je nach höchster Qualifikation zwischen vier und sechs Jahren. So gibt auch der Blick in die Realität wider, was bereits aus den Stellenanzeigen abzulesen war: Neu eingestellte Datenwissenschaftler sind normalerweise keine frischen Hochschulabsolventen.
  • Die meisten Positionen von Datenwissenschaftlern in den Unternehmen sind vergleichsweise neue Stellen: Etwa drei Viertel haben ihre Position seit weniger als zwei Jahren. Gut 42 Prozent der Stellen sind sogar jünger als ein Jahr.
  • Aus dem letzten lässt sich ableiten, dass ein großer Teil der Datenwissenschaftler vor ihrem Einstieg in die Data Science eine andere Position in ihrem Wissensgebiet hatten. Auch das lässt sich über LinkedIn gut herausfinden: Zu gleichen Teilen waren sie Wissenschaftler, Software Engineers, Analysten und interessanterweise auch Praktikanten und Trainees.
  • Die Hälfte der untersuchten Datenwissenschaftler waren nicht bei Technologie-Unternehmen angestellt. Sie hatten häufig Positionen in der Finanz- und Versicherungswirtschaft, bei Beratungsunternehmen, in der Industrie und der Wissenschaft.

[/toggle]

Die Ergebnisse von Samad lassen sich nicht ohne weiteres auf Deutschland übertragen, doch sie besitzen einiges an Plausibilität auch für hiesige Verhältnisse und passen gut zur Analyse der Stellenanzeigen. Zusammengefasst sagen sie: Data Science steht Leuten offen, die einen Background aus Mathematik plus Informatik besitzen und mindestens drei Jahre Berufserfahrung haben sollten. Idealerweise haben sie vorher in der IT gearbeitet und praktische Erfahrungen gesammelt, bevor sie sich auf Data Science spezialisiert haben.

Der lange Weg zum Data Scientist

Für Studierende und Absolventen der einschlägigen MINT-Fächer bedeutet das: Sie sollten nach dem Studium zunächst einmal in die Praxis gehen und dabei auf einen ordentlichen IT-Anteil ihrer Tätigkeit achten. Doch praktische Erfahrungen sind nicht alles. Data Scientists müssen auch bestimmte Spezialisierungen haben, um problemlos einen Job zu finden. Studenten und Absolventen müssen darauf achten, die richtigen Dinge zu lernen, meint Jeremie Harris. Der Data Scientist ist Mitgründer eines Mentoring-Programms für Absolventen, die als Einsteiger in der Data Science arbeiten möchten — was zumindest in den USA nicht grundsätzlich ausgeschlossen ist.

Sein Artikel in „Towards Data Science“ richtet sich an Absolventen von MINT-Fächern und empfiehlt ihnen den Einstieg in einige grundlegende Wissensgebiete und Fähigkeiten. Dazu gehören Python-Kenntnisse, Wahrscheinlichkeitstheorie und Statistik. Hilfreich ist außerdem ein Einblick in die Grundzüge des Software Engineering — Stichwort Dokumentation und Versionierung. Zudem müssen Data Scientists auch einen Instinkt dafür entwickeln, welche Lösung in pragmatischer Hinsicht gefragt ist. Tipp: Technisch optimale Lösungen sind nur selten pragmatisch optimal. Zudem müssen die Datenwissenschaftler in der Lage sein, einem nicht-technischen Publikum ihre Konzepte, Projekte und Ergebnisse verständlich zu erklären.

Diese Anforderungen sind vielen Absolventen nicht bekannt und zudem machen sie nach Ansicht von Harris bei der Jobsuche häufig einen Fehler: Sie vermuten, dass es bei einem Bewerbungsgespräch darum geht, sich als der technisch kompetenteste Bewerber für die ausgeschriebene Position zu beweisen. Er hat andere Erfahrungen gemacht: „In Wirklichkeit wollen Unternehmen Menschen einstellen, die ihnen helfen, schneller mehr Geld zu verdienen.“ Das klingt flapsig, aber es ist in der Tat Grund Nummer Eins für die Existenz eines Unternehmens. Bewerber sollten das bedenken.

Im tiefen Tal der Bewerberhölle

Nun klingt das so als ob die Unternehmen eigentlich immer wissen, was sie wollen. Nichts könnte falscher sein. „Vorstellungsgespräche für eine Rolle in der Datenwissenschaft sind schwierig“, fasst der Mathematiker und Data Scientist David Neuzerling seine Erfahrungen in einem Blogbeitrag zusammen. „Vielen Unternehmen ist klar, dass sie etwas mit Daten machen müssen. Aber sie haben keine Ahnung, was genau.“ So könne es seiner Erfahrung nach vorkommen, dass Unternehmen von Machine Learning reden, aber in Wirklichkeit nur ein paar Dashboards wollen.

Deshalb rät Neuzerling Bewerbern, unbedingt konkrete Fragen zu stellen. So ist es sinnvoll, die Schlüsselworte aus der Stellenbeschreibung aufzunehmen und nach konkreten Einsatzbereichen, den verwendeten Frameworks, der Anzahl der Projekte und der Größe der Teams zu fragen. Er warnt besonders vor Stellenausschreibungen mit mehrfachen Berufsbezeichnungen wie „Data Scientist/Data Engineer“ oder „Data Scientist/Software Developer“. Neuzerling: „Das sind Anzeichen dafür, dass ein Unternehmen nicht weiß, was es von einem Kandidaten will.“

Darüber hinaus rät er aus eigener Erfahrung, Bewerbungsgespräche mit seltsamen Praktiken sofort abzubrechen. Er erwähnt beispielsweise Videointerviews, in denen er vorgefertigte Fragen beantworten solle oder Prüfungen, in denen er eine Stunde lang handschriftlich Code schreiben musste. Seine Kritik an den Unternehmen: „Sie vergessen, dass Rekrutierung ein zweiseitiger Prozess ist.“ Er rät allerdings auch, sich nicht entmutigen zu lassen — es gebe genügend gute Jobs da draußen.

Und das liebe Geld? Tja …

Die anfangs erwähnte Glassdoor-Statistik deutet es an: Mit einem Median-Einkommen von 108.000 US-Dollar ist man zumindest im nordamerikanischen Raum ein gut verdienender Experte. Einen detaillierten Einblick in die Gehaltsstruktur zeigt die Statistik der IEEE. Erwartungsgemäß verdient man in San Francisco am meisten (>166.000 USD). Interessanterweise gilt das auch, wenn die Lebenshaltungskosten in die Statistik einfließen. Dann entspricht das kalifornische Gehalt zwar nur 121.000 Dollar anderswo, aber anderswo verdient ein Datenwissenschaftler auch bereinigt weniger.

Umgerechnet bedeutet das: In den USA verdient ein erfahrener und erfolgreicher Data Scientist leicht 100.000 Euro pro Jahr. Von solchen Zahlen können die deutschen Datenwissenschaftler nur träumen. Laut der Gehaltsstatistik von Stepstone liegen typische Gehälter zwischen 47.600 und 60.700 Euro pro Jahr. Das ist weit von den US-Gehältern entfernt, zumal hier in Good ol‘ Germany auch die Steuer härter zuschlägt als in den USA. Kurz und gut: Beim Geld ist noch ordentlich Luft nach oben.

Wer kann und mag, sollte über einen Job in den USA nachdenken. Stellen gibt es und es muss ja nicht gleich die Auswanderung sein. Ein paar Jahre in den USA sind in Digitalwirtschaft und Informationstechnologie auf jeden Fall gute Karriere-Booster, jedenfalls in europaweiter Perspektive. Neben Geld ist natürlich auch die Art und Weise der Jobs wichtig. Dinge wie Mindset des Teams und der Vorgesetzten, Unternehmenskultur, Innovationsfreudigkeit, Chancen für eine Unternehmensgründung oder schlicht die Offenheit gegenüber den Ideen und Vorschlägen eines Berufsanfängers — das findet sich mit hoher Wahrscheinlichkeit eher in Kalifornien, aber auch in anderen Gegenden der wirklich sehr großen US of A.

Bildquelle: Pixabay

Elektrisierend: Der neue VW ID.3

  • © Volkswagen AG
    Der neue VW ID.3 ist da.

Daran habe ich nicht geglaubt: Dass es ausgerechnet einem der größten und (Halten zu Gnaden) von außen komplett einbetoniert wirkenden Konzerne — der Volkswagen AG — gelingt. Nämlich ein Auto der Kompaktklasse zu bauen, das auf Augenhöhe mit Tesla ist; wenigstens auf Zehenspitzen. Natürlich käme es für eine endgültige Bewertung auf einen mehrwöchigen Praxistest an. Mein Erkenntnisse sind zu 100 Prozent theoretisch und gewonnen aus der Auswertung diverser YouTube-Videos und Presseberichte.

Innen ein Passat, außen ein Golf

Von außen wirkt der Wagen modern und elegant, obwohl er eine kurze und auf den ersten Blick etwas knubbelig wirkende Fronthaube hat. Er erinnert damit ein wenig an einen Kompaktvan. Der Wagen ist in etwa so lang wie ein Golf (4,26 m), hat aber dank der verkürzten Front einen deutlich größeren Radstand von 2,77 Metern — was nach Auskunft von Kennern einem Passat entspricht.

Dadurch wirkt der Wagen wie ein quantenphysikalisches Wunder: Er ist innen größer als außen. Das liegt an den üblichen Relationen von Autos der Jetztzeit. Sie sind nämlich insgesamt sehr pausbackig, da die ganze Bordelektrik mit Zillionen Stellmotoren, Knautschzonen und Aufpolsterungen für Airbags und Soundsysteme schließlich untergebracht werden müssen. Das vergrößert die Wagen enorm und der Innenraum wächst nicht mit. Die geringe Größe von Elektromotoren sowie das niedrige Volumen der Zusatzaggregate erlauben deshalb einen deutlich größeren Innenraum bei gleichen Außenmaßen.

Eine weitere Van-Anmutung bewirken die Akku-Packs im Boden. Sie bedingen eine etwas erhöhte Sitzposition, die beim ID.3 allerdings zu einer recht geringen Kopffreiheit führt. Hier hätte VW noch ein paar Zentimeter hinzulegen können. In YouTube-Videos von der IAA war zu sehen, dass Leute meiner Größe (1,91 m) so gerade eben hineinpassen. Meinen Schwager (2,04 m) möchte ich eigentlich nicht im ID.3 sitzen sehen …

Die techno-spartanische Revolution geht weiter

Der Instrumentenbereich ist scheinbar karg eingerichtet. Doch das hat seinen Grund, denn erstens steigt die Anzahl der Funktionen in einem Auto. Dadurch wird die herkömmliche Bedienung über eine Batterie an Knöpfen, Schaltern und Hebeln immer undurchschaubarer. Zweitens ist die Vielzahl der Bauteile schlicht ein Kostenfaktor. Sie müssen eingekauft, Löcher und Verkabelung montiert werden und nicht zuletzt vervielfältigt sich der Montageaufwand durch Konfigurationsoptionen.

Die Vielfalt der Funktionen und Ausstattungsvarianten lässt sich über einen Touchscreen viel leichter abbilden. Per Software kann ohne Kostenaufwand ein Knöpfchen hier oder ein Slider da eingeblendet werden. Darüber hinaus ist es auch möglich, Funktionen jederzeit nachzurüsten. Tesla hat’s vorgemacht, die Benutzeroberfläche des großen Touchscreens in der Mitte hat sich von Versionssprung zu Versionssprung deutlich verändert. Das gibt den Herstellern die Möglichkeit, aus Feedback zu lernen und dabei Verbesserungen sofort allen Kunden verfügbar zu machen.

Software-basierte Instrumentierung wird sicher bald zum Standard in allen Fahrzeugklassen gehören. Zwar kostet auch deren Entwicklung Geld, doch sie ist deutlich flexibler. So ist es möglich, ein Autobetriebssystem zu schaffen, dass für alle Autoklassen vorbereitet ist. Dann unterscheidet sich der Kleinstwagen vom Oberklasse-Flaggschiff auf Seiten der Software nur durch die im „Build“ verwirklichten Funktionen. Und tatsächlich: VW konzipiert zur Zeit ein einheitliches Car-OS, das in allen Modellen aller Marken eingesetzt werden soll.

Die richtige Reichweite für den typischen Fahrer

Praktisch für die Kalkulation des Autokaufs: Den ID.3 gibt es mit gestaffelten Akkugrößen und deshalb auch Staffelpreisen. VW gibt Kapazitäten von 45, 58 und 77 kWh für Reichweiten von 330, 420 und 550 Kilometern an. Sie werden mit dem halbwegs realitätsnahen WLTP-Zyklus bestimmt. Erfahrene Elektroautofahrer sagen, dass diese Angaben allerdings nur dann realistisch sind, wenn der Fahrer ganz entspannt unterwegs ist, etwa auf der Autobahn mit wenig mehr als 100 km/h.

Außerdem hängt die Reichweite auch von der Effizienz der Elektromotoren und der Leistungsentnahme aus den Batterien ab. Das Tesla Model 3 gilt hier als vorbildlich und kann dies auch in der Praxis beweisen: Elektroauto-Pionier Holger Laudeley schafft es, mit seinem Tesla ohne Ladestopp von Bremen nach Berlin zu fahren, indem er mit gemütlichen 90-100 km/h ganz rechts einem Lkw „hinterherökologisiert“. Es bliebe sogar noch genügend Restkapazität übrig, um eine Sightseeingtour durch Berlin zu fahren.

Der kleinste Akku eignet sich für budget-bewusste Wenigfahrer, die das Auto nur selten und über nicht so lange Strecken bewegen. Mal ehrlich: Dieses Nutzungsszenario trifft auf mindestens 90 Prozent aller Autobesitzer zu. Doch auch Pendler sind mit dem Einstiegsmodell gut bedient, eine Tagesleistung von 200+ Kilometern ist drin. Wer jetzt noch zu Hause und am Arbeitsplatz laden kann, hat im laut VW unter 30.000 Euro liegenden Einstiegsmodell eigentlich das ideale Elektroauto. Durch die serienmäßig verfügbare Schnellladung mit 100 Kilowatt sind auch längere Strecken möglich, erfordern aber ein paar Ladestopps mehr als mit dem größten Akku.

Die deutsche Krankheit: Morbus Pretiosa Configuratio

Die deutschen OEMs sind die Weltmeister der verdeckten Preisexplosion. Gerne bewerben sie die Preise der Einstiegsmodelle ohne zusätzliche Pakete und Optionen. Das sieht dann ganz ordentlich und mittelklasse-artig aus. Doch das böse Erwachen kommt, wenn man ein bisschen Komfort, den ein oder anderen Assistenten und ein paar Sicherheitsmerkmale möchte. So ist es auch beim ID.3, viele Komponenten gibt es nur gegen Aufpreis, einige davon sind sogar unerlässlich für das richtige Elektroauto-Feeling.

So besitzt die Serienversion des ID.3 zwar einen Wärmetauscher, aber keine Wärmepumpe — die ist nur zusätzlich zu buchen. Der Unterschied: Der Tauscher führt Wärme ab, die Pumpe beherrscht auch die Gegenrichtung und kann den Akku vorwärmen. Ein Akkumanagement mithilfe von Wärmepumpen ist ideal. Der Grund: Stromaufnahme und -entnahme am Akku sind nur in einem engen Temperaturbereich optimal. Die Wärmepumpe führt die bei schneller Fahrt und schnellem Laden entstehende Wärme ab und temperiert den kalten Akku im Winter vor. Zudem ermöglicht sie auch eine effiziente Innenraumheizung, die nicht rein elektrisch ist und das Bordnetz belastet.

Eine Wärmepumpe hat zudem den Vorteil, dass die hohen Geschwindigkeiten des DC-Ladens in jeder Situation ausgenutzt werden können. Denn Leistungseinbrüche gibt es ohne dieses Gerät nach schnellen oder langen Fahrten sowie nach Kurzstrecken bei winterlichen Temperaturen. Gut, das sich VW bei dieser Technologie an Tesla orientiert hat; schlecht, das es die Wärmepumpe nur gegen Aufpreis gibt. In der Praxis wird sich zeigen, wie gut der Wärmetauscher arbeitet oder ob es wie beim Nissan Leaf 2 zu Problemen auf längeren Fahrten mit mehreren Ladestopps kommt — dort bricht die Ladeleistung mit jedem Stopp immer weiter ein.

Motorleistung: Ausreichend in jeder Situation

Ungewöhnlich für VW ist die einheitliche Motorisierung der drei Varianten. So gibt es ausreichende 150 PS (110 kW) mit beeindruckenden 310 Newtonmetern Drehmoment. Zum Vergleich: Der in der Leistung vergleichbare 1,5 l TSI-Motor bringt in einem Golf mit Doppelkupplungsgetriebe etwa 250 Newtonmeter bei optimaler Drehzahl. Auch die Beschleunigung des Elektroautos ist besser, die Version mit 77 kW Akku ruft enorme Leistung ab und bringt es in 7,5 Sekunden auf 100 km/h. Der TSI braucht fast eine Sekunde mehr.

Doch bei Elektromotoren ist die Frage nach der Leistung im Grunde überflüssig, sie ist normalerweise in jeder Situation ausreichend. Cool ist allerdings das bei Elektromotoren sehr hohe und praktisch direkt nach dem Anrollen wirksame Drehmoment. Normalerweise schlägt ein Elektroauto beim Ampelstart jedes Verbrennerfahrzeug mit gleicher Leistung und zwar völlig problemlos. Und seien wir (wieder einmal) ehrlich: Schon geil, dass man mit dem Tesla Model 3 Perfomance eine Endgeschwindigkeit von 261 km/h erreicht – aber wo sollte man so schnell fahren und warum?

Ebenso ungewöhnlich für VW ist der Heckantrieb. Doch dieses Antriebskonzept hat in einem Elektroauto erhebliche Vorteile. Es erlaubt erstens die kurze Front bei großen Innenraum und zweitens ein vergleichsweise sportliches Fahrverhalten — ein Praxistest müsste aber die theoretische Aussage prüfen. Auch im Winter sollte der Heckantrieb wegen der Motorposition an der Hinterachse unproblematisch sein, zumal die Zusatzaggregate vorne liegen und die Straßenlage verbessern. Zum Vergleich: Fahrer von Teslas mit Heckantrieb berichten von einem völlig problemlosen Fahrverhalten bei Schnee.

Wenn der Riesentanker eine Heckwende macht

Der ID.3 ist ein Fahrzeug der Golfklasse und richtet sich damit an durchschnittliche Autofahrer(innen) mit einem durchschnittlichen „Use Case“. Er ist aufgrund seines großen Innenraums und des normal dimensionierten Kofferraums ein guter und bequemer Familienwagen für bis zu vier Personen. Außer für Vielfahrer und Langstreckenpendler sollte die Basisversion mit der geringsten Reichweite ausreichen, aber im Alltag kaufen die meisten Leute lieber einen Sicherheitspuffer dazu. Sie fahren also eigentlich zu groß dimensionierte Autos. Das wird beim ID.3 nicht anders sein.

Dem Volkswagen-Konzern ist es gelungen, ein wirklich gutes Elektroauto auf den Markt zu bringen. Es befriedigt die Erwartungen und Wünsche der heutigen Autofahrer, berücksichtigt die Besonderheiten von Elektroautos und weist in die Zukunft — etwa durch den Einsatz von Touchscreens, Head-up-Displays und berührungsaktiven Knöpfen (wo es sie überhaupt noch gibt). Weder bei der Ausstattung noch bei der Reichweite müssen die Käufer große Kompromisse eingehen.

Doch wird der Wagen auch ein Verkaufsrenner? Das ist schwer vorherzusagen, denn die Preise sind schon ganz ordentlich. So wird für eine Vollausstattung mit großem Akku vermutlich ein Preis jenseits der 50.000 Euro fällig. Hier befindet sich VW in Tesla-Dimensionen, das Model 3 Performance kostet ohne weitere Optionen ähnlich viel. Der vergleichsweise hohe Preis ist den im Moment noch hohen Akkupreisen geschuldet, denn VW muss Zellen zukaufen, während Tesla sie selbst herstellt. Das zeigt, dass die deutschen OEMs spät dran sind. Trotz seiner hohen Qualität muss der ID.3 erst noch zeigen, ob er VW zum elektromobilen Erfolg führt.

Vom Urknall zum Leerraum

(c) Rogelio Bernal Andreo / Nasa Image Gallery

Vor 50 Jahren bauten Menschen mit vier Computern das Internet. Dies war die Sekunde Null des digitalen Universums, der Urknall. Es folgten eine Expansionsphase, das Erscheinen von seltsamen Attraktoren und schließlich das Ende als weitgehend ungenutzte Leere.

1969: Der Urknall des Internets mit vier Computern

Die Geschichte des Internet beginnt in den späten 60er Jahren in den USA. Die dem amerikanischen Verteidigungsministerium unterstellte ARPA („Advanced Research Projects Agency“) subventionierte Entwicklungen im Bereich der Computervernetzung. Die ARPA begann 1969, die Rechner der verschiedenen militärischen und akademischen Einrichtungen in den USA untereinander zu vernetzen. Das Netz trug den Namen ARPAnet und bestand anfangs aus lediglich vier Rechnern.

Das ARPAnet wuchs langsam, aber stetig. Schnell zeigte sich, dass nicht nur das Verteidigungsministerium einen Bedarf an Vernetzung hatte: Weitere Organisationen, Regierungsdienststellen und eine Reihe von Firmen aus dem Sektor Netzwerktechnologie wollten teilhaben. Um dem gestiegenen Bedarf gerecht zu werden, wurde die bestehende Netzstruktur aus etwas mehr als 50 Rechnern ab 1973 auf ein neues und speziell für das ARPAnet entwickelte Protokoll umgestellt: IP, das Internet Protocol. Es ist heute noch die technische Basis des Internets.

Anfang 1981 bestand das ARPAnet aus 213 Rechnern. Die militärischen Teile gliederten sich in einem eigenen Unternetz namens Milnet aus. Das ARPAnet als Ganzes wurde seit etwa 1983 immer öfter als „Internet“ bezeichnet. Auch international schritt die Vernetzung fort und seit Mitte der achtziger Jahre wurden überall auf der Welt verstärkt IP-Netze aufgebaut und mit dem amerikanischen Internet verbunden. 1989 waren etwa 80.000 Rechner am Internet angeschlossen – in der Überzahl Universitäten, staatliche Einrichtungen und Forschungsinstitute.

[toggle title=“Grafik: Anzahl der Computer im Internet“]

Das Internet Systems Consortium hat bis vor einiger Zeit den sogenannten Internet Domain Survey durchgeführt, eine Zählung der öffentlich zugänglichen IPv4-Adressen. Das sind nicht ausschließlich Server mit einem spezifischen Angebot. Viele Rechner nutzen das Internet über eine feste IP-Adresse. Das sind oft Gateways für die Computer von Heimanwendern. Für die letzten Jahre ist dieser Survey nicht mehr zuverlässig, da die Anzahl der über IPv6-Adressen zugänglichen Rechner stark gestiegen ist. Deshalb ist Survey ausgesetzt.

[/toggle]

1992: Beginn der Expansion dank World Wide Web

Mit dem Beginn der neunziger Jahre explodierte das Internet. Anfang 1991 waren etwa 376.000 Rechner angeschlossen, 1996 bereits mehr als 21 Millionen. Dazwischen lag die Einführung des World Wide Web (WWW). Ursprünglich war das nur einer von vielen Diensten im Internet, doch inzwischen gibt es neben E-Mail eigentlich nur noch das Web. Erfunden wurde es von dem britischen Physiker und Informatiker Tim Berners-Lee. Er arbeitete Ende der achtziger Jahre am CERN in Genf und schlug der Direktion ein modernes Informationsmanagementsystem vor, das den Datenaustausch unter Forschern vereinbaren sollte.

Grundprinzip des Web ist sogenannter Hypertext: Informationen sind in  Textform auf Seiten dargestellt und untereinander mit Links verknüpft. Ein Mausklick darauf und schon taucht eine andere Seite auf, die weitere Informationen liefert. Das Web wurde binnen weniger Jahre zu einem gigantischen Erfolg, aufgrund seiner leichten Verständlichkeit, den vielfältigen Anwendungsmöglichkeiten und der Tatsache, dass Berners-Lee keine geschäftlichen Interessen mit seiner Erfindung verfolgte. Er hat damit eine kostenlos nutzbare Infrastruktur für den freien Austausch von Informationen geschaffen.

1992 ging das Web offiziell online, so dass jeder einen Webserver aufsetzen und dort irgendetwas anbieten konnte. Zunächst gab es nur zehn Webserver weltweit, ein Jahr später bereits 130 und bereits 1997 wurde die Millionengrenze überschritten. Die Entwicklung beschleunigte sich nach der Jahrtausendwende noch einmal deutlich stärker, denn es gab immer mehr Möglichkeiten im Web: Musik hören, Videos gucken, spielen, plaudern, kaufen, sich selbst darstellen und digitalen Sex haben — oder wenigstens anschauen.

2006: Das Erscheinen des seltsamen Attraktors Facebook

Soziale Netzwerke wie Friendster oder Myspace waren einer der vielen Subtrends im Web der Nuller Jahre. Vor allem Myspace hat wegen der quietschbunten und beliebig knetbaren Oberfläche rasch Millionen Fans gefunden. Doch die sozialen Netze der Anfangszeit existieren nicht mehr oder sind bedeutungslos. Nachzügler Facebook hat durch geschickte Adaption diverser Trends und eine ebenso geschickte Einkaufspolitik eine umfassende Infrastruktur aufgebaut.

Inzwischen ist ein großer Teil der Weltbevölkerung bei Facebook, Instagram oder WhatsApp vertreten. Das soziale Netzwerk von Mark Zuckerberg hat sich zu einem enormen Attraktor entwickelt, dessen Schwerkraft Nutzer in Milliardenzahl anzieht. Viele Leute kennen fast nur noch Facebook und identifizieren es mit dem Internet. Kein Wunder, kann man dort doch ohne Wechsel der Website mit Familie und Freunden plaudern, Nachrichten lesen, spielen, über Themen diskutieren und noch so manches mehr.

Durch die ebenfalls bedeutenden Plattformen Instagram und WhatsApp hat das Unternehmen Facebook einen enormen Einfluss auf die Jugendkultur und speziell auf die Internetkultur. Zwar ist das Selfie auf Myspace entstanden, aber erst die Nutzer von Instagram haben es perfektioniert und sogar zum Geschäftsmodell gemacht – der Influencer entstand. Das Unternehmen hat sogar technologische Trends umgekehrt: Der Aufstieg von WhatsApp hat den Abstieg der SMS bewirkt, die inzwischen mehr und mehr in der Nische verschwindet.

[toggle title=“Grafik: Anzahl der Websites im Internet“]

Die Menge der Websites wird über eine Domainzählung sowie zusätzlichen statistischen Erhebungen von Internet Live Stats geschätzt. Dabei ist die Anzahl der Sites nicht deckungsgleich mit der Anzahl der an das Internet angeschlossenen Computer, die diese Websites beherbergen. NetCraft hat im August 2019 etwa 8,94 Millionen solcher Computer ermittelt. Tatsächlich aktive Websites werden über eine Eigenheit des „Domain-Parking“ erkannt: Da die jeweiligen Websites über Vorlagen erzeugt werden, ist ihre Struktur immer gleich.

[/toggle]

2019: Das Internet besteht aus leerem Raum

Das Internet des Jahres 2019 ist ein seltsamer Ort. Es gibt ungefähr 1,7 Milliarden einzelne Websites, aber nur ein paar Dutzend sind tatsächlich von großer Bedeutung. Hinzu kommt, dass viele Services nicht primär über eine Website genutzt werden — etwa Instragram und WhatsApp oder WeChat und TikTok aus China.

Das Bemühen dieser wenigen Websites ist es, die Nutzer anzuziehen und festzuhalten. Google muss man bei der Informationssuche oft nicht mal mehr verlassen, die wichtigsten Stichworte werden dort angezeigt. YouTube bietet alles, was sich in Form eines Videos pressen lässt — von der Mathehausaufgabe über Kochrezepte bis in zu Verschwörungstheorien. Die Nutzer verbringen Stunden dort und informieren sich häufig überhaupt nicht mehr aus anderen Quellen.

Der Rest des World Wide Web besteht in erster Linie aus leerem Raum. Mashable weist darauf hin, dass der größte Teil aller Websites aus inhaltslosen Seiten besteht, für ungenutzte und lediglich geparkte Domain-Namen. Die Anzahl der aktiven Websites liegt nur bei etwa 200 Millionen, der Wert wächst kaum noch. Der Rest ist ein einziges großes Nichts, 90 Prozent Leere und Stille.

„Ich schick mir die Daten mal nach Hause“

… sagt jeder zweite Angestellte gelegentlich, auch wenn das in Unternehmen meist verboten ist. Trotzdem: Der digitale Arbeitsplatz ist in vielen Firmen bereits angekommen, durch die Hintertür. Aber er sieht nicht so aus, wie sich das Anbieter von Lösungen für den Digital Workplace vorstellen.

Improvisation, das Umgehen von Sicherheitsbestimmungen, der Einsatz von nicht offiziell zugelassenen Apps und die Allzweckwaffe Excel bestimmen immer noch die tägliche Arbeit der meisten Angestellten in deutschen Unternehmen. Auch die verbotene Nutzung von privaten Mailkonten ist üblich. Denn oft müssen Mitarbeiter von außerhalb auf Dokumente zuzugreifen — auch wenn es dafür offiziell keine Tools gibt, oder zumindest nicht die richtigen.

Private Apps und Mailkonten als Notwehr

Etwa jeder zweite Mitarbeiter in den befragten Unternehmen einer Studie von Citrix gibt an, berufliche Dokumente an die private E-Mail-Adresse zu senden, wenn das nötig sein sollte. Und wenn die E-Mail nicht ausreicht, suchen sich Mitarbeiter eigene Wege zum Ziel, so wie die acht Prozent der Befragten, die eine persönliche Cloud nutzen. Das bedeutet den einfachen Dokumentenaustausch via Dropbox oder der Einsatz von unkomplizierten, aber privaten Apps für Termin- und Aufgabenverwaltung — inklusive aller Risiken für Datenverlust und Sicherheitsbrüche.

Die Ergebnisse der Citrix-Studie sind nicht erstaunlich. Bereits Anfang des Jahres hat der D21-Digital-Index 2018/2019 festgestellt, dass lediglich 16 Prozent der Unternehmensmitarbeiter in Deutschland über einen echten digitalen Arbeitsplatz verfügen. Was zu der Frage führt: Wie sieht ein komfortabler und effizienter Digital Workplace eigentlich aus? Die Antwort: Er befindet sich auf einer Informations- und Arbeitsplattform im internen Netz des Arbeitsgebers und führt alle Daten und Anwendungen aus dem gesamten Portfolio der Business-Software zusammen.

In der Praxis bedeutet dies, dass die Mitarbeiter ihre Arbeitsumgebung auf jedem beliebigen Gerät inklusive Smartphones vorfinden und dort eine für ihren Job notwendigen Aufgaben erfüllen können — etwa das Schreiben von E-Mails, Berichten und Präsentationen oder der Zugriff auf Geschäftsanwendungen. Kurz: Ein digitaler Arbeitsplatz integriert sämtliche sonst getrennten Anwendungen unter einer einheitlichen Oberfläche. Ein solcher virtualisierter Desktop ist die entscheidende Komponente eines modernen Arbeitsplatzes.

Digitale Arbeitsplätze machen es Mitarbeitern leichter

Der Digital Workplace unterscheidet sich erheblich von dem herkömmlichen Desktop unter Windows. Trotzdem finden sich Mitarbeiter problemlos damit zurecht, denn die wirklichen Unterschiede sind erst unter der Haube sichtbar. Alle Anwendungen inklusive des Desktops selbst werkeln im Rechenzentrum oder der Cloud. Der lokale PC dient lediglich der Anzeige des Desktops und erfüllt nur nachrangige Aufgaben. Er ist zum smarten Terminal degradiert, das vielleicht noch Daten zwischenspeichern darf, damit nicht immer die gesamte Arbeitsumgebung neu übertragen werden muss.

Solche neuartigen, IT-basierten Arbeitsformen zahlen sich für Arbeitgeber aus. In der letztjährigen IDC-Studie Future of Work zeigte sich, dass jeweils ein gutes Drittel der Unternehmen Kosteneinsparungen und Produktivitätsgewinne verzeichnet. Das klingt im ersten Moment nicht nach viel, doch in den meisten Unternehmen findet echtes — mobiles — digitales Arbeiten leider nicht statt.

Den schwarzen Peter hat hier die Geschäftsführung. Denn grundsätzlich ist laut der Citrix-Studie ein großer Teil der Mitarbeiter daran interessiert, moderne digitale Produktivitätswerkzeuge einzusetzen. So glaubt fast jeder zweite, dass diese Hilfsmittel das effiziente Arbeiten befördern und ein knappes Viertel vermutet, dass sie die Produktivität steigern. Auch die viel zitierte Technikfeindlichkeit in Deutschland gilt offensichtlich nur für eine Minderheit: 60 Prozent der befragten Arbeitnehmer sind neugierig, wenn ihr Unternehmen die vorhandene IT-Ausstattung durch neue Tools ersetzt.

Die Mitarbeiter sind weiter als die Unternehmen

„Mangelndes Interesse für neue Technologien kann man deutschen Arbeitnehmern nicht vorwerfen“, kommentiert Oliver Ebel, Area Vice President CE von Citrix die Ergebnisse der Studie. „Technologie und die Möglichkeiten, die moderne IT bietet, sehen die meisten Menschen in ihrem Privatleben. Im Job ist es dagegen immer noch oft nicht möglich, schnell ein paar Dokumente in die Cloud zu ziehen.“ Das senke die Effizienz in den Unternehmen und frustriere die Mitarbeiter.

Denn die die wollen längst etwas anderes als den klassischen Arbeitsalltag der Industrieproduktion: Laut D21-Digital-Index findet fast die Hälfte der Berufstätigen, dass zeitlich und räumlich flexibles Arbeiten die Lebensqualität steigert. Zwar sind längst nicht alle Jobs dafür geeignet, aber Büroarbeit ist ohne Verrenkungen auch zu Hause zu bewältigen. Doch sehr viele Unternehmen sind der flexiblen Heimarbeit gegenüber generell kritisch eingestellt.

Typische Gegenargumente finden sich in einer Bitkom-Umfrage: Die Mitarbeiter sind nicht jederzeit ansprechbar (33%), die Arbeitszeit ist nicht zu kontrollieren (29%), die Datensicherheit ist bedroht (22%), die technische Ausstattung ist zu teuer (16%) und Identifikation der Mitarbeiter mit dem Unternehmen könne sinken (9%). Eigentlich sind es keine Argumente, sondern Ausreden. Für jedes dieser Scheinprobleme gibt es eine praktische Lösung und sei es der Verzicht auf Arbeitszeitkontrolle und Anwesenheitswahn.

Digitale Leichtigkeit vs. Industriegesellschaft

Manches Hindernis wird auch durch den Regulierungswahn in Deutschland aufgebaut: Zwischen zwei Arbeitsphasen muss eine elfstündige Mindestruhezeit liegen. Das ist für den klassischen Malocher eine sinnvolle Regel. Heute führt sie aber dazu, dass jeder, der spätabends noch mal die dienstlichen Mails checkt und morgens an seinen Schreibtisch pendelt, ungesetzlich handelt – eigentlich, denn die meisten machen es halt trotzdem.

Solche Eigentümlichkeiten führen dazu, dass die meisten Arbeitgeber auf Nummer sicher gehen. Sie wollen den Angestellten bei der Arbeit sehenselbst wenn er hin und wieder lediglich „arbeitet“. Demgegenüber steht die digitale Leichtigkeit der mobilen und virtuellen Desktops. Kein Problem, auch sonntags vormittags mal eine Stunde an der schon längst überfälligen Präsentation zu feilen — wenn es denn die Familie toleriert.

Was ist besser? Das Festhalten am Taylorismus der Industriegesellschaft oder das Akzeptieren einer digitalen Arbeitswelt, die eher auf Ergebnisse als auf Anwesenheit achtet? Meiner Einschätzung nach ist der störrische Widerstand gegen Homeoffice, Mobilität und Flexibilität lediglich ein Rückzugsgefecht. Die traditionell-hierarchisch organisierten Unternehmen haben bereits jetzt verloren.

Humaner Output: 39 Bit/s

Italiener sind Schnellsprecher, Deutsche dagegen bevorzugen das langsame Reden mit langen Substantiven — so ungefähr lauten die Klischees. Ganz falsch ist das nicht, denn italienischsprecher bringen bis zu neun Silben pro Sekunde an den Gesprächspartner, Deutschsprecher dagegen nur fünmf bis sechs Silben. Trotzdem übermitteln beide, ebenso wie der Rest der Menschheit, die gleiche Informationsmenge mit ihrer jeweiligen Sprache: nämlich 39 Bit pro Sekunde.

Diesen Wert hat ein Forschungsprojekt an der Universität von Lyon festgestellt.  Damit bestätigt sich eine These, nach der die Sprechgeschwindigkeit zusammen mit der Informationsdichte einer Sprache immer ungefähr die gleiche Informationsmenge ergibt. Informationsdichte Sprachen verpacken die Syntax in kleinere Einheiten, sodass die Sprecher nur langsam vorankommen. Weniger informationsdichte Sprachen wie etwa Italienisch können deshalb schneller gesprochen werden.

In einer ausführlichen Studie schildern die Wissenschaftler ihr Vorgehen. Sie haben zunächst die Informationsdichte pro Silbe für 17 Sprachen berechnet. Anschließend ging es für drei Jahre in die Feldforschung: Die Forscher haben für die Sprachen jeweils fünf männliche und weibliche Sprecher rekrutiert, die 15 identische Passagen in ihrer Muttersprache vorgelesen haben. Für einige Sprachen wurden vorhandene Tonaufnahmen eingesetzt, sodass für alle 17 Sprachen eine durchschnittliche Sprechgeschwindigkeit von Silben pro Sekunde ermittelt werden konnte.

Durch Multiplikation der Sprechgeschwindigkeit mit der Informationsdichte kam heraus, dass die Bitrate menschlicher Sprecher im Durchschnitt etwa 39,15 Bit/s beträgt. Ein wichtiger Schluss daraus: Jede Sprache ist hinsichtlich ihrer Effizienz bei der Informationsübertragung vollkommen gleichwertig.

Die Lage der KI-Forschung

State of AI 2019 Report herunterladen

Eine Suche in Google Trends zeigt es deutlich: Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI) ist weltweit ein Hype. Der Suchbegriff wird etwa doppelt so häufig abgefragt wie am Anfang des Jahrzehnts. Dabei handelt es sich nicht um einen kurzlebigen Trend. Obwohl es ganz offensichtlich gewisse Konjunkturen gibt, ist das Interesse am Suchbegriff seit einigen Jahren kontinuierlich hoch. Und wer in das Suchfeld von Google den Begriff „Artificial Intelligence“ eingibt, erhält die ersten zehn von ungefähr 436 Millionen Webseiten zu diesem Stichwort präsentiert.

Es ist nur sehr schwer möglich, hier noch einen einigermaßen fundierten Überblick zu behalten. Einen ebenso wichtigen wie interessanten Ausschnitt aus der KI zeigt der Bericht State of AI 2019. Die beiden Autoren Nathan Benaich und Ian Hogarth sind langjährige Beobachter der KI-Szene als Investoren und Wissenschaftler. Sie präsentieren nach eigener Auskunft auf 136 Seiten „einen Schnappschuss der exponentiellen Entwicklung der KI mit einem Schwerpunkt auf Entwicklungen in den letzten zwölf Monaten“. Der Bericht widmet sich fünf wichtigen Schlüsselbereichen innerhalb der künstlichen Intelligenz und präsentiert sie in den folgenden Abschnitten:

  • Research: Forschungsergebnisse und technologische Durchbrüche.
  • Talent: Berufsbilder und Personalgewinnung in der KI.
  • Industry: KI-Unternehmen und ihre Finanzierung.
  • China: Neue KI-Trends in China.
  • Politics: Die Behandlung der KI im Rahmen von Politik und Gesellschaft.

Da der Bericht nur schwer zusammenzufassen ist, habe ich einige besonders interessante Themen ausgewählt und sie jeweils in einem Kurzartikel dargestellt. Wer einen lesen möchte: Einfach auf den grauen Balken mit dem Thema klicken.

[toggle title=“Reinforcement Learning“]

Reinforcement Learning

Diese Form von Deep Learning ist in den letzten Jahren intensiv erforscht worden. Das Prinzip: Software-Agenten lernen zielorientiertes Verhalten durch Versuch und Irrtum. Sie agieren dabei in einer Umgebung, die ihnen positive oder negative Belohnungen als Reaktion auf ihre Handlungen gibt. Für das Training von neuronalen Netzwerken sind die KI-Entwickler dazu übergegangen, Computerspiele wie beispielsweise Montezuma’s Revenge (Jump’n’Run), Quake III Arena (Egoshooter) oder Star Craft II (Echtzeit-Strategiespiel) einzusetzen.

Solche Umgebungen, aber auch speziell angefertigte Computersimulationen eignen sich hervorragend dazu, Verhalten zu variieren und anschließend erfolgreiches Verhalten zu wiederholen. Darüber hinaus sind die Belohnungen bereits in die Games integriert. In der realen Welt sind variantenreiche Lernumgebungen nicht so einfach umzusetzen, etwa für die Robotik.

So hat OpenAI eine Roboterhand in einer Simulation darin trainiert, physikalische Objekte zu manipulieren. Auch das zweibeinige Gehen wird gerne in Simulationen geprobt, denn es ist weniger einfach, als wir Menschen intuitiv glauben. Um nicht regelmäßig teuren Elektroschrott zu erzeugen, werden gehende Roboter deshalb ebenfalls in Simulationen trainiert. Dabei wird unter anderem Reinforced Learning genutzt.

Simulationen und Computerspiele eignen sich gut zum Trainieren von lernfähigen Systemen, da sie kostengünstig und weithin verfügbar sind. Im Grunde kann jeder Entwickler damit arbeiten, auch ohne Risikokapital im Hintergrund. Darüber hinaus können die Spielumgebungen unterschiedlich komplex gestaltet werden. Das ist einer der Gründe, warum Open World Games wie Grand Theft Auto gerne beim grundlegenden Training von Deep-Learning-Modellen für das autonome Fahren genutzt werden.

Sind Games und Simulationen also die optimale Umgebung für das KI-Training? Sicher nicht, wie auch die Autoren des Berichts nahelegen. Denn jede simulierte Welt ist deutlich weniger komplex als die wirkliche Welt. Im Normalfall wird das Ergebnis niemals ein austrainiertes KI-Modell sein, das direkt und ohne Probleme in der Wirklichkeit eingesetzt werden kann. Die Erfahrungen mit den bisherigen KI-Anwendungen für fahrerlose Autos zeigen, dass hier auch ein altbekanntes Prinzip für die Optimierung von Prozessen gilt: Die letzten Prozent der zu trainierende Fähigkeiten machen mindestens so viel Aufwand wie der Rest.

[/toggle]

[toggle title=“Natural Language Processing“]

Natural Language Processing

Alexa, Siri & Co. haben in den letzten Jahren gezeigt, dass Natural Language Processing (NLP) recht weit fortgeschritten ist und es zahlreiche alltagstauglich Anwendungen gibt — in bestimmten Bereichen. Schwierig sind echte Dialoge mit Rückbezügen auf vorher Gesagtes. Außerdem kommt das menschliche Gehirn immer noch besser mit dem uneigentlichen Sprechen wie Ironie oder Hyperbeln zurecht. Wer mit Alexa redet, muss eindeutig und in Anweisungsform sprechen, typisch menschliche Unschärfen in der Aussage führen meist nicht zum Ergebnis.

Die Erkenntnis zahlreicher Projekte: Vortrainierte Sprachmodelle verbessern die Ergebnisse von NLP deutlich. Im Bereich Computer Vision sind damit große Erfolge erzielt worden. So werden beispielsweise viele neuronale Netze für die Bilderkennung mit ImageNet vortrainiert und erst dann mit weiterem Training an den speziellen Anwendungsfall angepasst. Dieses Dataset besteht aus momentan knapp 14,2 Millionen Bildern, die nach fast 22.000 semantischen Kategorien indiziert sind. Diese wiederum sind nach den Prinzipien der lexikalisch-semantischen Datenbank WordNet organisiert.

Eine vergleichbare Vorgehensweise ist auch bei NLP sinnvoll, denn es ist aufwendig, valide Trainingsdaten für Teilaufgaben zu entwickeln — beispielsweise das Bestellen einer Pizza, wie es Google Duplex beherrschen soll. Google hat vor einiger Zeit eine Technik für das Vortrainieren von NLP-Modellen als Open Source freigegeben. Das Ergebnis heißt BERT (Bidirectional Encoder Representations from Transformers) und basiert auf demselben Neuronetz wie Google Translator. BERT kann vergleichsweise einfach durch ein Zusatztraining an die jeweilige Aufgabe angepasst werden.

Zudem kann BERT auch durch weitere Lernverfahren ergänzt werden, beispielsweise durch Multi-Task Learning (MTL). Eine Demo dieser Möglichkeiten bietet Microsoft Research mit seinem Multi-Task Deep Neural Network (MT-DNN). Dabei werden verschiedene, aber verknüpfte Aufgaben gleichzeitig gelernt, wodurch der Lernfortschritt größer wird. Pate war hier eine Eigenheit des menschlichen Lernens: Wer bereits gut auf Inlinern skaten kann, lernt das Schlittschuhfahren deutlich schneller als jemand ohne Inliner-Erfahrung.

Der Einsatz vortrainierter Modelle hat in der Computer Vision manchen Durchbruch gebracht, Benaich und Hogarth hoffen, dass dies ebenso für das Verständnis menschlicher Sprache durch neuronale Netze gilt.

[/toggle]

[toggle title=“Rückkehr der symbolischen KI“]

Rückkehr der symbolischen KI

Das Verstehen natürlicher Sprache ist ein wesentliches Element von Sprachassistenten. Doch zahlreiche Praktiker sind mit reinen KI-Modellen über ein Problem gestolpert: Domänenwissen lässt sich einem Neuronetz nicht ohne weiteres antrainieren, denn das Training ist aufwendig und die Gewinnung von validen Datasets teuer.

Hier kommt dann ein Ansatz ins Spiel, der Mitte der achtziger Jahre als der Königsweg zur künstlichen Intelligenz galt: Symbolische KI, die unter anderem mit Verzeichnissen von Regeln und Alltagswissen arbeitet, um das Schlussfolgern aus Common-Sense-Sachverhalten zu ermöglichen. Die bekannteste Datenbank dieser Art ist Cyc und wird seit 1984 schrittweise aufgebaut.

Dieser Ansatz galt über lange Jahre hinweg als gescheitert, da selbst eine noch so große Datenbank nicht das gesamte Weltwissen enthalten kann. Doch als Partnerverfahren ist Domänenwissen inzwischen wieder wertvoll für KI. Denn eine Datenbank wie Cyc kann ein Deep-Learning-System durch Wissensprimitive ergänzen, sodass das Training sich ausschließlich High-Level-Sachverhalten widmen kann.

[/toggle]

[toggle title=“Autonome Fahrzeuge“]

Autonome Fahrzeuge

Roboterautos und andere autonome Fahrzeuge gehören zu den wichtigsten Zukunftsvisionen bei KI. Einer der Vorreiter ist Waymo, dessen autonome Fahrzeugflotte auf den US-Straßen mehr als 16 Millionen Kilometer bewältigt und dabei wichtige Fahrdaten gesammelt hat. Die Daten von weiteren 11 Milliarden Kilometern in Computersimulationen kommen hinzu. Allein im letzten Jahr haben die 110 Waymo-Wagen in Kalifornien mehr als 1,5 Millionen Kilometer bewältigt.

Hinzu kommt der Datensatz von Tesla, der durch Auswertung aller von jedem einzelnen Tesla-Modell gefahrenen Kilometer entsteht. Die genaue Fahrleistung ist unbekannt, wird aber auf mehr als zwanzig Milliarden Kilometer geschätzt. Was die Menge der Daten angeht, dürfte Tesla einen uneinholbaren Vorsprung vor der Konkurrenz haben. Hinzu kommt: Das Unternehmen entwickelt seinen eigenen KI-Chip. Die Analysten des institutionellen Investors ArkInvest schätzen, dass Teslas Konkurrenten beim autonomen Fahren drei Jahre hinterher fahren.

Es ist allerdings sehr schwer, den tatsächlichen Erfolg der einzelnen Anbieter von Robotertaxis einzuschätzen. Einen kleinen Hinweis geben die von der kalifornischen Straßenbehörde veröffentlichten Disengagement-Reports. Danach schaffen Fahrzeuge von Waymo eine Jahresfahrleistung von fast 50.000 Kilometern mit lediglich einem oder zwei Aussetzern („Disengagements“), bei denen der menschliche Testfahrer übernehmen musste. Zum Vergleich: Auch Mercedes testet in Kalifornien. Doch 2018 waren es nur vier Fahrzeuge mit wenigen hundert Kilometern Fahrleistung, aber etlichen hundert Aussetzern.

Von Tesla gibt es übrigens keine Angaben dazu. Das Unternehmen sammelt zurzeit in erster Linie Fahrdaten, vermutlich um seine Modelle in Simulationen zu trainieren. Trotz des Vorsprung: Selbst der Datensatz von Tesla ist im Vergleich zu den menschlichen Fahrleistungen winzig. So wird die Gesamtfahrleistung nur der kalifornischen Autofahrer für das Jahr 2017 auf knapp 570 Milliarden Kilometer geschätzt. Dem stehen etwa 485.000 Autounfälle gegenüber, was einem Disengagement auf jeweils 1,2 Millionen Kilometer entspricht. Kurz: Das Robotertaxi scheint noch einige Zeit entfernt zu sein.

[/toggle]

[toggle title=“Robotic Process Automation“]

Robotic Process Automation

Robotic Process Automation (RPA) hat nichts mit Robotik zu tun, sondern ist ein Verfahren der Prozessautomatisierung und nachfolgend der Kostensenkung in Unternehmen. Das klingt im ersten Moment langweilig, ist aber ein spannendes Anwendungsgebiet in der KI. Denn es wird in der Praxis bereits eingesetzt und ist zu einem Markt mit hohen Erwartungen geworden: Anbieter wie UiPath sind mit 800 Millionen Dollar und Automation Anywhere mit 550 Millionen Dollar Risikokapital ausgestattet.

Für Unternehmen, die mit der Digitalisierung ihrer Prozesse kämpfen, ist RPA eine interessante Sache. Vereinfacht ausgedrückt ersetzen RPA-Anwendungen die menschlichen Endanwender in der vorhandenen Software-Infrastruktur. Dadurch ist es möglich, Prozesse zu automatisieren, die mehrere Anwendungen übergreifen, vor allem, wenn es keine definierten Software-Schnittstellen dafür gibt. RPA-Anwendungen sind in aller Regel lernfähig, sodass sie vergleichsweise leicht auch an exotische Altysteme anzupassen sind.

[/toggle]

[toggle title=“Demand Forecasting“]

Demand Forecasting

Ein brandneues Thema ist Demand Forecasting nicht, unter dem Stichwort Bedarfsermittlung wird es bereits seit längerer Zeit mit statistischen Methoden oder Fuzzy Logic umgesetzt. Es geht dabei um die Prognose der Anforderung bestimmter Ressourcen anhand von historischen Daten. Dabei wird zunehmend Machine Learning eingesetzt, um auch externe Daten (Wetter, Verkehr, Kundenströme usw.) zu berücksichtigen.

Es gibt einige Branchen und Anwendungsgebiete, in denen Demand Forecasting erfolgreich eingesetzt wird: So ermitteln Energieversorger beispielsweise den Strombedarf anhand von Wetterinformationen, Betriebsdaten und gemessenen Leistungsanforderungen. Zur Vorbereitung auf Starkregenfälle mit anschließenden Überflutung-Szenarien erschließt Machine Learning auf der Basis von historischen hydrologischen Daten neue Wege der Vorhersage von Fluten.

In Handel, Logistik, Gastronomie, Hotellerie und Touristik ordnet Machine Learning Ressourcen deutlich flexibler zu als herkömmliche Methoden. Ein Beispiel: Die Nachfrage nach bestimmten Produkten oder Services ist unter anderem vom Wetter, der aktuellen Verkehrslage in der Region, jahreszeitlichen Trends, aktuellen Moden bei Farbe oder Form und vielen anderem abhängig. Mit Machine Learning werden solche Faktoren berücksichtigt.

Große Supermarktketten müssen täglich Entscheidungen über Aufnahme, Streichung oder Nachbestellung von Millionen Einzelposten treffen. Ohne KI-Verfahren wird dies in der Zukunft schwer möglich sein, da einfache „Daumenregeln“ zu Schnelldrehern und Produktplatzierungen die immer dynamischer werdende Nachfrage kaum noch abbilden.

[/toggle]

Der Phonophor & das iPhone

Steve Jobs gilt als Erfinder des iPhones, doch das ist nicht ganz richtig. Denn eine genuine Erfindung ist es nicht, eher ein Konglomerat aus vorhandener Technik. So gab es 2007, im Jahr der Einführung des iPhones, bereits Smartphones. Sie besaßen oft eine Minitastatur und manchmal einen Touchscreen, der mit einem kleinen Stift bedient wurde. Das war immer ziemlich fummelig, sodass Jobs auf die Tastatur verzichtete und stattdessen einen Touchscreen nutzte, der sich mit den Fingern bedienen ließ.

Der Rest ist Geschichte. Das iPhone fand mit den kostengünstigen Android-Smartphones Nachahmer für den Massenmarkt und so haben heute viele zu jeder Zeit und an jedem Ort ein Smartphone dabei — das kleine und leichte Universalgerät rund um Kommunikation, Information und Wissen.

Ein Vorläufer des Smartphones

Wenn es so etwas wie einen Erfinder dieser Geräteklasse gibt, dann ist das erstaunlicherweise ein deutscher Schriftsteller, der 1895 geboren wurde: Ernst Jünger. Er hat nach 1945 den Pfad des Kriegers verlassen und mit unterschiedlichen literarischen Genres experimentiert, unter anderem mit utopischen Romanen.

Sein erster Versuch in diesem Genre war Heliopolis. Rückblick auf eine Stadt von 1949. Das Buch bietet keine Science-Fiction in der Nachfolge von Hans Dominik, sondern eine Utopie im Stile Thomas Morus‘ — den Entwurf einer fiktiven Gesellschaft, die andere historische und gesellschaftliche Traditionen besitzt. In dem Buch ist sie autokratisch organisiert, so gibt es unter anderem eine ständige Überwachung aller Bürger.

Vehikel dafür ist der Phonophor (Allsprecher), der als eine Art Mobiltelefon allerlei Zusatzfunktionen besitzt, inklusive Personenidentifikation, Navigation, Geldbörse und einer Möglichkeit zur Anpeilung. Der Phonophor gehört zusammen mit Dingen wie Weltraumfahrt, Strahlenwaffen und Schwebepanzern zum futuristischen Hintergrundgemälde des Buches. Jünger hat dieses Szenario allerdings nur wenig ausgearbeitet. Es ist in erster Linie eine Markierung, die den Roman zeitlich in der Zukunft verankert. Doch zu seiner Idee des Phonophor schreibt Jünger etwas ausführlicher.

Die Vorzüge von Telefon und Radio

Ein Phonophor wird als flache Hülse in der linken Brusttasche getragen, aus der er fingerbreit hervorragt.

[Ein Phonophor überträgt] Orts- und astronomische Zeit, Länge und Breite, Wetterstand und Wettervoraussage. Ersetzt Kennkarte, Pässe, Uhr, Sonnenuhr und Kompaß, nautisches und meteorologisches Gerät. Vermittelt automatisch die genaue Position des Trägers an alle Rettungswarten bei Gefahren zu Lande, auf dem Wasser und in der Luft. Verweist im Peilverfahren an jeden Ort. Weist auf den Kontostand des Trägers beim Energeion und ersetzt auf diese Weise das Scheckbuch bei jeder Bank und jeder Postanstalt, und in unmittelbarer Verrechnung die Fahrkarten auf allen Verkehrsmitteln. Gilt auch als Ausweis, wenn die Hilfe der örtlichen Behörden in Anspruch genommen wird. Verleiht bei Unruhen Befehlsgewalt.

Vermittelt die Programme aller Sender und Nachrichten-Agenturen, Akademien, Universitäten, sowie die Permanentsendungen des Punktamtes und des Zentralarchivs. Hat Anschluß an alle Radiostationen mit ihren Strömen des Wissens, der Bildung und Unterhaltung, soweit sie durch Ton und Wort zu übermitteln sind. Gibt Einblick in alle Bücher und Manuskripte, soweit sie durch das Zentralarchiv akustisch aufgenommen sind, ist an Theater, Konzerte, Börsen, Lotterien, Versammlungen, Wahlakte und Konferenzen anzuschließen, und kann als Zeitung, als ideales Auskunftsmittel, als Bibliothek und Lexikon verwandt werden. Gewährt Verbindung mit jedem anderen Phonophor der Welt, mit Ausnahme der Geheimnummern der Regierungen, der Generalstäbe und der Polizei. Ist gegen Anrufe abschirmbar. Auch kann eine beliebige Menge von Anschlüssen gleichzeitig belegt werden – das heißt, daß Konferenzen, Vorträge, Wahlakte, Beratungen möglich sind. Auf diese Weise vereinen sich die Vorzüge der Telephone mit denen der Radios.

Ernst Jünger: Heliopolis. Rückblick auf eine Stadt, Berlin 1948

Zusammenführen und weiterdenken

Diese Erklärungen und vor allem der letzte Satz zeigen deutlich, dass der Phonophor ausschließlich eine Sprachschnittstelle nutzt. Ein kleiner Minibildschirm mit Bedienung per Berührung war für Jünger damals unvorstellbar. Zwar kannte er mit hoher Wahrscheinlichkeit die ersten TV-Versuche in den 193oer Jahren und die darin benutzte monströse Technik. Doch er hat sie wohl als nicht für die Miniaturisierung geeignet betrachtet.

Denn der beinahe wichtigste Aspekt des Phonophors ist seine Kleinheit. Jünger hat scharfsinnig erkannt, dass technische Geräte im Laufe der Zeit schrumpfen. Er hat auch in anderer Hinsicht bereits vorhandene Phänomene weitergedacht. So sagten die Mitarbeiterinnen der Handvermittlung im Fernsprechamt seit Anfang des 20. Jahrhunderts auf Wunsch auch die Uhrzeit an. Ab 1937 wurde die Zeitansage automatisiert und von hier bis zum akustischen Lexikon ist es nur ein kurzer Denkschritt.

Ernst Jünger hat etwas ähnliches gemacht wie sechs Jahrzehnte später Steve Jobs. Er hat die vorhandene Technik weitergedacht und zusammengeführt. Aber anders als Jobs musste er sich um die Verwirklichung keine Gedanken machen, sodass manche Funktion eher umständlich ist. Denn gegenüber Audio und Video hat die Textkommunikation einen großen Vorteil: Sie ist schnell. Viele Leute lesen ein Buch rascher als sie es in einem Audiobook anhören könnten.

Innovation bedeutet nicht: Völlig neu

An der verblüffenden Ähnlichkeit des Phonophor mit dem iPhone lässt sich zeigen, was Innovation wirklich bedeutet und was nicht. Beide Geräte sind innovativ, weil sie vorhandene Ideen bündeln und zu einer Novität zuspitzen. Sie sind jedoch nicht fundamental neu. Ein Innovator hat immer einen Ausgangspunkt — er muss die Innovation ja denken können, auf der Basis seines aktuellen Wissensstands.

Doch er darf nicht dabei stehenbleiben. Ein erfolgreicher Innovator stellt gängige Denkmuster infrage und gibt sich nicht mit scheinbaren Naturgesetzlichkeiten zufrieden. Nur weil eine Sache immer schon auf eine bestimmte Weise gemacht wurde, bedeutet das nicht, dass es nicht auch anders geht. Und nur weil eine Sache noch nie gemacht wurde, ist sie nicht grundsätzlich unmöglich.

Entscheidend ist ein frischer Blick auf Selbstverständlichkeiten und der kommt meist von außen. So haben häufig fachliche Außenseiter gute, innovative Ideen, denn sie sind mit den Konventionen und Traditionen eines Sachgebiets nicht vertraut. Beides kann durchaus hinderlich sein. Wie sagte der Dadaist Francis Picabia 1922? „Unser Kopf ist rund, damit das Denken die Richtung wechseln kann.“

Digitalboom in China

China Internet Report 2019 herunterladen

China hat es geschafft: Es besitzt in einigen Bereichen der Digitalwirtschaft einen deutlichen technologischen Vorsprung gegenüber Deutschland und Europa.. Ob es nun um Elektromobilität, 5G-Mobilfunk oder künstliche Intelligenz geht – in China ist Realität, worüber Deutschland noch umständlich diskutiert.

Ein Beispiel: Hierzulande sind laut Statista lediglich 228 Elektrobusse unterwegs. In China dagegen fahren nach Untersuchungen von Bloomberg etwa 421.000 dieser Gefährte. Städte wie Guangzhou und Shenzhen haben inzwischen ihre gesamte Busflotte auf Elektromobilität umgerüstet. Im Moment betreiben chinesische Nahverkehrsanbieter etwa 20 Prozent der Busse elektrisch, bis 2040 sollen es 70 Prozent werden.

Chinas Digitalwirtschaft boomt enorm

Auch in der Digitalwirtschaft prescht China vorneweg, wie der China Internet Report 2019 der englischsprachigen South China Morning Post zeigt. Er bietet eine Vielzahl an interessanten Zahlen zu verschiedenen Branchen der Digitalwirtschaft und zur Internetnutzung in China. Der Bericht zeigt deutlich: Dank des riesigen Binnenmarkts skalieren beispielsweise Apps oft schneller als im englischsprachigen Raum. Darüber hinaus sind die chinesischen Entwickler durchaus innovativ und werden inzwischen häufig selbst kopiert. So zogen die superkurzen Videos von TikTok eine Welle an Nachahmern hinter sich her.

Solche Entwicklungen zeigen, dass mit China zu rechnen ist. Dabei hat das Land neben dem Binnenmarkt ein weiteren Vorteil: Als Nachzügler und ehedem unterentwickeltes Land konnte es einige technologische Zwischenstufen einfach überspringen. So bedeutet Internetnutzung in China in erster Linie mobiles Internet und eine große Mehrheit nutzt auch Mobile Payment. Die unterschiedlichen Zahlungsdienste haben etwa 583 Millionen Nutzer, was einer Verbreitung von 42 Prozent entspricht – es gab vorher kein gut ausgebautes Bankensystem. In Deutschland nutzen dagegen lediglich gut 4,1 Millionen Personen oder etwa zwei Prozent das mobile Bezahlen.

Daran zeigt sich eine Besonderheit von China: Die Bevölkerung steht technologischen Neuerungen sehr offen gegenüber. Sie interessiert sich in höherem Maße für die Sharing-Ökonomie wie beispielsweise Ridesharing. Hier gibt es zwar eine ganze Reihe von Anbietern, doch absoluter Marktführer (91 %) ist Didi Xuching. Auch Smart Speaker mit Sprachschnittstelle haben sich in einem Jahr rasant verbreitet. So wird inzwischen jedes zweite Neugerät in China ausgeliefert.

Bald haben 176 Millionen Chinesen 5G-Mobilfunk

Die deutsche Politik konnte sich trotz der desaströsen Erfahrungen mit der Versteigerung der UMTS-Lizenzen nicht zurückhalten: Auch die 5G-Lizenzen sind wieder versteigert worden, für sechs Milliarden Euro. Das bindet natürlich enorme Mengen von Investitionskapital, führt zu einer eher negativen Konkurrenzsituation und für die zukünftigen 5G-Nutzer sicher wieder mal zu überteuerten, aber schlechten Mobilfunkverbindungen.

China dagegen hat das 5G-Problem mehr oder weniger per Anweisung geregelt. Die Regierung hat die drei großen Telkos zur Zusammenarbeit bei 5G verdonnert und zahlreiche Auflagen gemacht. Dafür geht es dann recht schnell voran. Bis Ende des Jahres sollen 200.000 Basisstationen online sein, sodass in einigen Metropolregionen 167 Millionen Person potenziell Zugriff darauf haben.

Die Konsequenz: In Deutschland hat der Staat ein paar Euro, mit denen er Haushaltslöcher stopfen kann. China kann dagegen den technischen Vorsprung in Sachen 5G ausbauen. Der ist ohnehin nicht klein, denn der Telko-Riese Huawei aus Shenzhen bietet die zur Zeit technisch fortgeschrittensten und ausgereiftesten 5G-Netzwerkkomponenten an.

Der Vorsprung bei Computer Vision wächst

Künstliche Intelligenz (KI) wird in China besonders stark gefördert. Die Regierung hat dieses Thema als eines der wirtschaftlichen und technologischen Schlüsselthemen für die nächsten 50 Jahre identifiziert und entsprechende strategische Förderprogramme aufgelegt. Besonders stark ist China im Bereich Computer Vision, vor allem bei der Gesichtserkennung.

  • So wird Gesichtserkennung auf einem Bahnhof in Shenzhen zum Bezahlen genutzt. Pendler scannen ihr Gesicht auf einem Tablet am Eingang und lassen den Fahrpreis von ihrem Bankkonto einziehen. E-Commerce-Riese Alibaba hat ein Hotel, in dem sich die Zimmertüren durch Gesichtserkennung öffnen.
  • Doch auch andere Formen von Machine Learning sind im Einsatz. So bietet Alibaba die Positions- und Fahrdaten seiner Lieferfahrzeuge den lokalen Verwaltungen an, die damit die Anfahrtszeiten von Krankenwagen durch bessere Planung verkürzen.
  • Eine wichtige KI-Anwendung ist die Personenerkennung durch Kameras an allen möglichen Standorten. Sie dient einerseits der Verbrechensaufklärung und andererseits der Vorbereitung des von der chinesischen Regierung propagierten Social-Score-Systems. Dort gibt es für „vertrauenswürdiges Verhalten“ Punkte, für das Gegenteil Punktabzüge.

Wirtschaft und Regierung investieren in Zukunftsbranchen

Der Vorsprung in Sachen Gesichtserkennung liegt an der leichten Verfügbarkeit von Daten. Mangels Datenschutz und durch die hohe Verbreitung von Social-Media-Profilen mit Fotos und Videos haben chinesische KI-Entwickler Zugriff auf eine gigantische Menge an „gelabelten“ Trainingsdaten für die Entwicklung von Anwendungen.

Entsprechend investiert die Wirtschaft in China stark in KI. Der chinesische Anteil der globalen KI-Investments ist innerhalb von fünf Jahren von drei auf 14 Prozent angestiegen. Auch das Thema autonome Fahrzeuge wird stark unterstützt. So haben zahlreiche chinesische Städte ihre Straßen ganz oder teilweise für fahrerlose Autos geöffnet und verteilen Lizenzen an interessierte Unternehmen aus aller Welt.

Zwar nutzt die chinesische Suchmaschine Baidu mit ihrer KI-Tochter die Hälfte dieser Lizenzen, doch in der anderen Hälfte des Lizenzpools tauchen auch deutsche Autohersteller wie BMW, Mercedes und Audi auf. Der Grund ist ganz einfach: Während in Deutschland noch über mögliche rechtliche Probleme diskutiert wird, können die Unternehmen in China bereits Testfahrzeuge einsetzen.

Tesla stolpert in die #servicehell

© Tesla, Inc.
© Tesla, Inc.

Teslas größter Feind ist keiner der traditionellen Autohersteller. Sie bieten (im Moment) keine konkurrenzfähigen Modelle. Der technische Vorsprung des US-Unternehmens bleibt trotz aller Anstrengungen groß: Hervorragende (bald Kobalt-freie) Akkus mit einem ausgereiften Temperaturmanagement, hocheffiziente Elektromotoren und eine beispiellose Software. Kurz: Die OEMs bauen E-Autos, Tesla dagegen liefert ein Gesamtkonzept inklusive Supercharger-Infrastruktur.

Doch während der letzten Monate ist ein neuer Gegner für Tesla aufgetaucht, der den Erfolg des Unternehmens bedroht: Tesla selbst. Denn mögen auch die Autos einen technologischen Spitzenplatz einnehmen, die Qualitätssicherung und der Service vor, während und nach der Auslieferung ist unterirdisch – finden viele Tesla-Besitzer wie Marcus Mayenschein.

Verarbeitung schlechter geworden, meint Tesla-Fahrer

Der Rastatter ist langjähriger Modell-S-Besitzer und fährt seit kurzem ein neues Model S Performance. Grundsätzlich ist er begeistert von den Neuerungen in der aktuellen Serie mit der internen Bezeichnung „Raven“, die seit dem Mai ausgeliefert wird. „Aber die Verarbeitung und der Lack sind definitiv schlechter als vor 3 Jahren! Dies weiß ich auch von zahlreichen privaten Zuschriften“, schreibt er zu einem 15-minütigen Video, in dem er alle Probleme vorstellt und auch die ersten Reparaturen zeigt.

Mayenschein führt die Probleme in erster Linie auf Personalmangel bei gleichzeitiger Priorität einer möglichst raschen und zahlreichen Auslieferung zurück. Dadurch wird offensichtlich die Übergabe eines problemfreien Autos zum Glücksspiel. Dieser Käufer eines Model 3 hat nichts zu klagen. Das Auto ist perfekt verarbeitet, wie Tesla-Doc Ove Kröger beim Check feststellte. Demgegenüber stehen zahlreiche Käufer, die zum Teil erhebliche Mängel hatten, wie dieser Thread im Forum „Tesla Fahrer und Freunde“ zeigt.

Die Liste der Schwierigkeiten ist lang: Schlechte oder fehlende Lackierung, falsch montierte Bauteile, elend lange Wartezeiten auf einen Reparaturtermin beim Servicecenter, keine Rückrufe, nicht erreichbarer Service, und so weiter und so fort. Wer eine Stunde Zeit hat, sollte sich dieses Video anschauen. Mayenschein und der mit ihm befreundete Tesla-Fahrer Gabor Reiter diskutieren hier intensiv über die aufgezählten Probleme. Sie fordern von Tesla, dringend Qualitätssicherung und Service zu verbessern. Andernfalls vergraule das Unternehmen potentielle Kunden abseits der innovationsfreudigen Early Adopter der Elektromobilität.

Hallo Tesla: Die Zeit der Early Adopter ist vorbei

Bei ihnen gibt es eine gewisse Leidensfähigkeit: Wer in einer frühen Phase innovative Technik nutzt, ist durchaus bereit, niedrigere Standards bei Qualität und Service zu ignorieren. Doch langsam findet die Elektromobilität auch Aufmerksamkeit bei durchschnittlichen Autokäufern, die für ihr Geld ein hochwertiges Auto und herausragenden Service wünschen.

Der typische Autokäufer möchte losfahren und längere Zeit keine Werkstätten und Servicecenter von innen sehen. Und falls doch mal etwas ist, möchte er Termine oder Ersatzteile nicht innerhalb von zwei Monaten, sondern zwei Tagen. Neukunden erwarten von Tesla also einen Auftritt wie ein typischer OEM. Dies betrifft auch den B2B-Markt, der bei den traditionellen Autoherstellern überlebensnotwendig ist Wenn Tesla langfristig überleben will, muss es auch diesen Markt angreifen. In Teilen passiert das bereits, denn einige Autovermietungen haben sich auf Elektromobilität spezialisiert.

Die größte ist NextMove aus Leipzig, die 380 Elektrofahrzeuge zur Kurz- und Langzeitmiete anbieten, neben den Modellen von Tesla auch von allen relevanten Herstellern. Stefan Moeller, einer der beiden nextmove-Gründer, hat von Anfang an Tesla-Modelle in das Portfolio aufgenommen. Sie gehören natürlich zu den gefragtesten Mietfahrzeugen und so hat das Unternehmen im Dezember 2018 einhundert (!) Model 3 bestellt. Insgesamt ging es also um eine Bestellung im Wert von mehr als fünf Millionen Euro, wenn man den Grundpreis einer Long-Range-Version zugrunde legt.

Nur jedes vierte Model 3 für nextmove war fehlerfrei

Doch bei der Auslieferung waren die nextmove-Mitarbeiter überrascht: „Nach der Auslieferung der ersten 15 Modell 3 musste nextmove wegen schwerer Qualitäts- und Sicherheitsmängel die Auslieferung weiterer Fahrzeuge stoppen. Nur jedes vierte Fahrzeug war fehlerfrei, in einigen Fällen waren die Fahrzeuge nicht einmal fahrtüchtig.“ Die übliche Vorgehensweise bei Tesla ist nun, alle Mängel bei einem späteren Termin im Servicecenter oder einer zertifizierten Werkstatt zu beheben.

Doch solche Termine können im Moment durchaus in weiter Zukunft liegen. Darüber hinaus gibt es teils sehr lange Lieferfristen für Ersatzteile, sodass ein Fahrzeug wochen- oder sogar monatelang nicht genutzt werden kann. Für eine Autovermietung ist das nicht hinzunehmen, denn in aller Regel laufen Leasingverträge oder Finanzierungen und Kunden müssen vertröstet oder sogar entschädigt werden.

Wie machen das andere OM? Ganz einfach: Sie haben für ihre Geschäftskunden entsprechende B2B-Prozesse, die anders ablaufen als bei Privatkunden. Darüber hinaus ist die für Tesla typische Vorkasse unüblich. Die Autovermietung hat also Tesla vorgeschlagen, einen Sonderprozess zu vereinbaren. Das gelang scheinbar auch bei dem direkten Ansprechpartner, doch bereits am Folgetag wurde die Vereinbarung wieder gekippt und Tesla stornierte den Auftrag. Wer sich für alle Details der Geschichte interessiert, findet sie in diesem und jenem Video in großer Ausführlichkeit oder im nextmove-Blog etwas knapper erzählt.

Tesla muss sich weiterentwickeln

Diese Geschichte und die erste Reaktion von Tesla darauf (Der Kunde ist schuld) zeigen deutlich: Das Unternehmen muss sich dringend weiterentwickeln. Vor allem der CEO hat das nötig, findet das Manager Magazin. Ziert das Titelbild noch Elon Musk in Siegerpose, so geht es im Inneren des Heftes zur Sache: „Elektrovisionär Elon Musk scheitert an den Niederungen des Autogeschäfts.“ Und weiter: „Der Zuwachs der Fahrzeugflotte bringt die Serviceinfrastruktur an den Rand des Zusammenbruchs.“

In seinem typischen, stark personalisierenden Stil bringt das Manager Magazin verschiedene Analysten und Investoren als Kritiker in Stellung. Sie hätten Tesla bislang positiv gesehen und bekämen jetzt langsam Zweifel . Dazu gehört nach Ansicht des Magazins beispielsweise James Anderson vom größten Tesla-Investor Baillie Gifford. Er vermisst Wachstum, kritisiert die schlecht gemachte Kapitalerhöhung im Frühjahr und findet, Musk müsse sich nicht persönlich in jede kleine Entscheidung einmischen.

Wird Elon Musk also zum Problem? Er ist sicher nicht der typische graue Manager, der auf Zahlen achtet und seinen Laden auf Effizienz trimmt. Er ist einerseits ein Visionär, dessen Beharrlichkeit uns nicht nur Elektroautos, sondern auch wiederverwendbare Raketen mit schicken Landeanflügen gebracht hat. Zugleich hat er die Tendenz, seinen Hang zu unkonventionellen Lösungen auf kleinste Bereiche auszudehnen. Immerhin ist es ihm so gelungen, das Auto in Teilen neu zu erfinden.

Tesla darf seine Vergangenheit nicht aufgeben

Doch ständige Innovation ist teuer, kosteneffizienter Automobilbau lebt von langfristig geltenden Standards. Vermutlich muss sich Tesla in genau diese Richtung weiterentwickeln. Ein Spagat: Einerseits sollte das Unternehmen innovativ und visionär bleiben, es darf seine Vergangenheit nicht aufgeben. Doch andererseits muss es im Massenmarkt mit seinen geringen Margen Erfolg haben, um profitabel werden.

Dieser Spagat muss allerdings nicht zwingend von einer Person geleistet werden. Die Entwicklung von Tesla könnte auch bedeuten, dass sich Elon Musk auf die Position eines Chairman zurückzieht, der für Visionen und Innovation verantwortlich ist. Nun kann ein – womöglich aus der Autoindustrie stammender – angestellter CEO unauffällig und geräuschlos, aber profitabel das klein-klein eines OEM abwickeln. Die Frage ist aber, ob Tesla dann immer noch Tesla ist.

Die zwei Seiten von Blendle

© Orlando Bellini / fotolia.com

Seit ein paar Monaten bin ich Blendle-Nutzer. Von der Idee war (und bin) ich total begeistert. Aber inzwischen bin ich zu einem zwiespältigen Urteil gelangt: Das Blendle-Konzept ist super, nur in der Praxis gibt es da einige Probleme. Aber der Reihe nach:

Blendle ein unglaublich toller Service, ein Pressekiosk mit Einzelverkauf der Artikel für vergleichsweise kleines Geld. Die App ist eine Lösung für ein altes Problem, denn wer liest schon eine ganze Zeitung. Auf der anderen Seite hatten viele schon immer den Wunsch, mehrere Tageszeitungen zu lesen, um sich breiter zu informieren.

Das war allerdings in der guten alten Zeit eine teure Angelegenheit. Bei Blendle dagegen werden die Kosten durch den Einzelverkauf überschaubar. Und natürlich hätte man als Abonnent von 3-4 Tageszeitungen auch nicht jeden Tag in jedem Blatt unbedingt etwas Lesenswertes gefunden. Für eilige Überschriften-Überflieger mit Termindruck im Nacken ist so ein Tageszeitungsabo schon ein enormer Luxus.

Blendle ist eine tolle App

Das ist also der große Vorteil von Blendle: Die gesamte Breite der deutschen Tages- und Wochenpresse sowie von immer mehr internationalen Blättern ist verfügbar. Anhand von Überschriften und dem ersten Dutzend Zeilen der Artikel ist im Normalfall recht gut zu entscheiden, ob sich das Lesen und die Ausgabe eines Betrages ab 15 Cent lohnt.

Und wer sich verklickt und den Artikel direkt wieder schließt, muss überhaupt nichts bezahlen. Außerdem gibt es eine sehr angelsächsisch anmutende Geld-zurück-Garantie: Wer den Beitrag wider Erwarten doch nicht gut findet, kann innerhalb von 24 Stunden sein Geld wieder zurückfordern. Das geht ganz einfach mit einem Menübefehl und ohne weitere Begründung.

Diese Möglichkeiten sind sehr praktisch und außerdem ist die Blendle-App auf der Höhe der Zeit: Elegante Gestaltung, gut lesbar dargestellte Artikel und ein responsives Design. Verzögerungen beim Laden der Artikel gibt es eigentlich nicht und auch die sonstigen Funktionen reagieren recht schnell. Das ist allerdings eher ein Randthema, denn es handelt sich in erster Linie um eine Leseapp.

Einen kleines Manko ist das Fehlen der Möglichkeit, die Schriftgröße anzupassen. Außerdem gibt es hin und wieder kleinere Mängel in der Typografie. Das wird allerdings meist an der Datenquelle eines Artikels liegen. Sie kommen wohl im Regelfall direkt aus dem Redaktionssystem und werden offensichtlich hin und wieder beim Konvertieren zerschossen.

Neben dem Lesen ist die Suche nach Artikeln eine fundamentale Funktion. Hier gibt es eigentlich wenig zu meckern. Ergänzend zur handelsüblichen Suche in der gesamten Artikel-Datenbank gibt es auch eine ausgesprochen nützliche Alert-Funktion. Hier können verschiedene Suchbegriffe definiert werden, die ständig aktuell gehalten werden. In einer übersichtlichen Registerleiste stehen alle Alerts bereit und zeigen nach dem Anklicken die gefundenen Artikel.

Ein unerwarteter Mehrwert liegt übrigens in den „ähnlichen Artikeln“, die am Ende jedes Artikels angezeigt werden: Die Funktion deckt Themen-Konjunkturen auf, also eine Situation, in der plötzlich ein Medium über ein bestimmtes Thema berichtet und nun plötzlich alle anderen auf den Zug aufspringen. Wer das Geld investiert und alle Artikel anschaut, kann sich recht gut darüber informieren, welches Medium den Vorreiter macht und welche erst später auf den Zug aufspringen.

So viel zu den zahlreichen, eindeutig positiven Seiten von Blendle. Und jetzt ein paar kritische Anmerkungen. Dabei möchte ich mich nicht mit Krittelei an einzelnen Funktionen aufhalten. Das sind Dinge, die sich sehr leicht ändern lassen und hoffentlich auch schon im Backlog der Entwickler zu finden sind – etwa die fehlenden Inhaltsverzeichnisse. Unverständlich, dass es nicht möglich ist, sich ohne lästiges Durchscrollen ganzer Ausgaben über den Inhalt zu informieren.

Deutsche Verlage verstehen Blendle nicht

Ein Problem, für das Blendle vermutlich ebenfalls nicht besonders viel kann, sind die Preise. In anderen Ländern, etwa in niederländischen oder englischen Medien, liegen die Durchschnittspreise für einen einzelnen Artikel zwischen 15 und 29 Cent. Die deutschen Preise dagegen liegen im Regelfall deutlich höher, oft bis 79 Cent. Einige Magazine verlangen pro Artikel sogar noch deutlich mehr.Sobald man beim Stöbern mehr als zwei interessante Artikel findet, macht es Sinn, die Gesamtausgabe zu kaufen. Glücklicherweise werden die in einer Ausgabe gekauften Artikel darauf angerechnet. Anders dagegen Zeitungen in den stärker digitalisierten (weil gesellschaftlich moderneren und liberaleren) Niederlanden, zum Beispiel das traditionsreiche NRC Handelsblad. Hier kosten sogar doppelseitige Artikel nur 29 Cent.

Die deutschen Preise sind für die Kalkulation eines persönlichen Etats bei Blendle eher schlecht. Ein (vereinfachtes) Rechenbeispiel: Eine Publikation kostet 1,80 Euro pro Ausgabe. Zu niederländischen Preisen lassen sich also 5 bis 12 Artikel lesen – je nach Einzelpreis. Bei zahlreichen deutschen Publikationen sind die Preise 45 oder 79 Cent, also sind nur zwei bis maximal vier Artikel drin, bevor die gesamte Ausgabe günstiger kommt.

Wer also beispielsweise zwanzig Euro im Monat bei Blendle ausgeben möchte, bekommt als Niederländer also mindestens doppelt so viele und häufig sogar dreimal so viele Artikel wie in Deutschland – klingt nach dem besseren Deal. Und das war sicher einer der Gründe für den Erfolg von Blendle in unserem digital aufgeschlossenem Nachbarland.

Ein zweites Problem: Viele Artikel, die anfangs noch hinter einer Bezahlschranke verborgen sind, tauchen nach einiger Zeit im frei zugänglichen Web auf. Bei Blendle müssen sie dann trotzdem noch bezahlt werden. Immerhin gibt es eine Möglichkeit, sein Abo in Blendle anzumelden und dadurch die Kosten für die entsprechenden Artikel zu sparen. Leider nutzen aber noch lange nicht alle deutschen Verlage diese Möglichkeit, hier wäre ein wenig mehr Engagement vonnöten.

Außerdem hat Blendle die Inhalte der deutschen Medien in der Regel nur für 30 Tage zur Verfügung, anschließend werden die Artikel zwar noch gefunden, können aber nicht mehr gekauft werden. Auch hier agieren die Niederländer digitaler: Auch Monate alte Artikel werden im Normalfall angezeigt und kosten bei einigen Medien nur noch einen Cent.

Einzelverkauf wird nicht ernst genommen

Dass in Deutschland ein einzelner Artikel teils halb so viel wie das ganze Nachrichtenmagazin kostet, zeigt deutlich die Mentalität der deutschen Pressehäuser: Sie denken immer noch in gebündelten Einheiten. Der Einzelverkauf wird nicht recht ernst genommen und ein möglicher Long-Tail-Boom durch hohe Preise und kurze Speicherfristen erstickt.

Die Frage ist, ob dies zu einer dauerhaften Bindung an Blendle führt. Gut möglich, dass sich viele Leute verschaukelt fühlen und der App dann langfristig den Rücken kehren. Das wäre schade, denn das Grundkonzept ist 100% richtig und hätte bereits vor Jahren eingeführt werden müssen: Einzelverkauf von Artikeln aller wichtigen Medien auf einer komfortablen Plattform.

Doch die vielen Umstände, die das Lesen der deutschen Medien mit Blendle bereitet, scheint darauf hinzudeuten, dass die Digitalisierung immer noch äußerst halbherzig vorangetrieben wird. Ob das reicht, um die nächsten 10-15 Jahre zu überstehen?

 

Bildquelle: © Orlando Bellini / fotolia.com

Graphen: Das Milliarden-Euro-Zaubermittel

Kohlenstoff: Aus ihm sind die Zukunftsträume © Kumbabali - Fotolia.com
Kohlenstoff: Aus ihm sind die Zukunftsträume © Kumbabali – Fotolia.com

„Wunderwerkstoff Graphen“, „Härter als Diamant und stärker als Stahl“, „Dieses Material bedeutet die Zukunft“, „Graphen: Apples neuer Hightech-Werkstoff?“ Ein paar Überschriften der letzten Zeit aus Technikmedien. Sie haben damit offensichtlich den Stein der Weisen gefunden, der alle Probleme löst.

Der Grund für die hohe Aufmerksamkeit ist die ungewöhnliche zweidimensionale Wabenstruktur. Dabei ist Graphen chemisch gar nicht so besonders. Es basiert auf Graphit, einem kristallinen Kohlenstoff, der sich auch in Bleistiftminen findet. Der besitzt wie jedes andere Kristall eine dreidimensionale Struktur.

Graphen dagegen ist nur eine Atomlage dick – also extrem dünn. Der Trick: Die ultradünne Schicht wird wie eine Folie von Graphit abgenommen. In der Anfangszeit der Erforschung wurde der Stoff tatsächlich mittels Klebeband von einem Graphitblock abgezogen, heute wird er meist durch eine chemische Reaktion auf einem Trägerstoff abgeschieden.

Beide Verfahren erzeugen ein flaches Etwas, das eine mit herkömmlichen Techniken nicht mehr messbare Dicke besitzt. Es ist in einem praktischen Sinne zweidimensional, was nicht nur Laien überrascht. Denn das Verblüffende an einer 2D-Struktur wie Graphen ist seine Existenz.

Zweidimensionale Strukturen

Bis vor gut zehn Jahren galt: Solche Dinge sind stabil und zerfallen wieder, da sich bei einem Atom Dicke keine Kristalle bilden können und die Bindekraft der Einzelatome nachlässt. 2004 stellten die Nobelpreisträger (2010) André Geim und Konstantin Novoselov an der Universität Manchester fest: Graphen hält sich nicht an die Theorie und bleibt stabil.

Die zweidimensionale Wabenstruktur von Graphen © ogwen – Fotolia.com

Wegen seiner Leitfähigkeit und Flexibilität sorgt Graphen in Forschung und Industrie für großes Aufsehen. Laut zahlreichen Medienberichten soll es sich für ziemlich viel eignen: Mikrochips, flexible Touchscreens, durchsichtige Solarzellen auf Fenstern, federleichter Nässeschutz für Fasern und vieles mehr. Ein Zaubermaterial halt.

„Also, für Logikschaltungen in Mikrochips eignet sich Graphen schon mal nicht“, erdet Prof. Dr.-Ing. Max Lemme die Diskussion. Er leitet den Lehrstuhl für Graphen-basierte Nanotechnologie an der Universität Siegen und erklärt: „Es ist kein Halbleiter, weshalb die aktuelle Forschung wieder von dieser Anwendung abgerückt ist.“

Er ergänzt: „Da eignen sich andere Stoffe viel besser, zum Beispiel Molybdändisulfid.“ Das ist eigentlich ein trockenes Schmiermittel mit einer Graphit-ähnlichen Konsistenz. Es ist in der Autoindustrie schon lange bekannt, als Hauptbestandteil eines viel genutzten Motoröl-Additivs.

Die Forschung kennt inzwischen etwa 500 verschiedene Stoffe, die ähnliche Eigenschaften wie Graphen oder Molybdändisulfid haben. In den Medien ist aber vorwiegend von dem zweidimensionalen Kohlenstoff die Rede die Rede. Es besitzt eine Reihe von interessanten Eigenschaften – ein großes Potential.

Für eine fast nicht vorhandene Atomlage ist das Material ziemlich fest. Es ist biegsam, undurchlässig für Flüssigkeiten und Gase, härter als Diamant und sogar 125mal zugfester als Stahl. „Natürlich immer bezogen auf die Dicke der Graphenschicht“, zerstört Max Lemme direkt die sich aufdrängende Vorstellung von Alien-Technologie aus der Festung der Einsamkeit. „Graphen ist wie jede Struktur dieser Art eigentlich sogar sehr zerbrechlich.“

Flexible Smartphones

Einfach Graphen anfassen und schauen, ob es wirklich so durchsichtig wie Glas ist – das geht nicht. Entsprechend arbeitet Lemme in seinem Siegener Labor nicht mit der Hand und Graphen-Blättern oder wie auch immer sich der Alltagsverstand den Umgang mit diesem Material vorstellt.

Er nutzt runde Scheiben („Wafer“) aus Silizium, wie in der Halbleiterindustrie üblich. Auf ihnen befindet sich eine Schicht reines Graphen. Lemme geht wie jeder Forscher vor: Er experimentiert, misst, probiert allerlei Varianten aus und ermittelt, wie Graphen auf Elektrizität reagiert oder mit anderen Werkstoffen zusammenarbeitet.

So könnte ein flexibles Smartphone mit Graphen-beschichtetem Display aussehen © bonninturina - Fotolia.com
So könnte ein flexibles Smartphone mit Graphen-beschichtetem Display aussehen © bonninturina – Fotolia.com

Ein möglicher Anwendungsbereich sind Touchscreens von Mobilgeräten. Science-Fiction-Fans kennen das aus dutzenden Filmen: Ein eher schmales Mobiltelefon, aus dem am Rand ein flexibles und recht großes Touchscreen-Display herausgezogen wird. Vorher war es aufgerollt im Inneren des Gerätes.

Mit Graphen rückt ein solches Gerät in greifbare Nähe. Die Schicht des Materials arbeitet als ultraleichte „Touch-Folie“ und könnte zusammen mit einem biegsamen Display zu einer Art aufrollbarem Smartphone werden. Auch für Displays kann Graphen nützlich sein, denn damit sind sehr große, aber trotzdem leichte Touchscreens im Leinwandformat möglich.

Eine andere Idee, der Lemme und seine Kollegen aus der Graphen-Forschung nachgehen: Graphen könnte in Kombination mit herkömmlichen Silizium-Schaltkreisen zu einer erweiterten Funktionalität führen. So ist es denkbar, Computerchips mit Graphen-Sensoren auszustatten oder kostengünstig um „Wireless“-Fähigkeiten zu erweitern.

Ebenso könnte Graphen mit Hilfe eines Druckers auf einem Trägerstoff ausgegeben werden, so dass zum Beispiel die leitfähigen Schichten für Schaltkreise damit ausgedruckt werden können. Welche dieser und einer ganzen Reihe anderer Anwendungen sich letztendlich in der Praxis durchsetzen wird, ist noch offen. Aber es wird viel geforscht, auf der ganzen Welt, an Universitäten und in Unternehmen.

So ist beispielsweise auch Samsung sehr aktiv in der Graphen-Forschung. Und die Europäische Kommission hat kürzlich ein riesiges Verbundprojekt aufgelegt, bei dem in den nächsten Jahren eine gute Milliarde Euro für die Forschung an und mit Graphen ausgegeben wird.

Profitabler Anlagenmarkt

„Die anwendungsorientierte Forschung zu Graphen erfordert noch viel Arbeit“, meint Lemme mit Blick auf seine Kooperation mit Infineon und anderen Unternehmen. Es sei denkbar, dass von den vielen Möglichkeiten letztlich nur wenige übrig bleiben. Lemme ist die Medienpräsenz des Stoffes etwas unheimlich, denn sie weckt Erwartungen, die der Realität vielleicht nicht standhalten – diese Möglichkeit gibt es in der Wissenschaft immer.

Zugespitzt ausgedrückt: Graphen kann ähnlich wie die Kohlenstoffnanoröhre vom umjubelten heiligen Gral der Materialforschung zur Randexistenz abstürzen. Der Hype um Graphen ist zwar gigantisch, doch dahinter verbirgt sich bereits jetzt ein Markt, allerdings ein winziger.

Eine Anlage für die Graphen-Herstellung © AIXTRON
Eine Anlage für die Graphen-Herstellung © AIXTRON

„Unsere Anlagenverkäufe sind zuletzt deutlich gestiegen und haben sich zu einem profitablen Geschäft entwickelt“, sagt Prof. Dr. Michael Heuken, Leiter der Forschungsabteilung von AIXTRON, einem weltweit führenden Anbieter von Beschichtungsanlagen für die Halbleiterindustrie. Das Unternehmen aus Herzogenrath bei Aachen ist einer der wenigen Lieferanten von Industrie- und Forschungsanlagen, die Graphen-Wafer in größeren Mengen produzieren können.

„Als Anlagenhersteller profitieren wir von so einer Entwicklung natürlich in einem sehr frühen Stadium“, sagt Heuken und schränkt ein: „Allerdings entspricht das derzeit noch einem sehr kleinen Teil unseres Gesamtumsatzes.“ Eines ist jedoch sicher: Wenn sich der Markt so entwickelt, wie das die Teilnehmer am EU-Projekt und alle anderen Graphen-Fans sich vorstellen, spielen die Maschinenbauer aus dem Rheinland in vorderster Linie mit.

Zur Zeit handelt es sich für das mittelständische Unternehmen um eine Wette auf die Zukunft: Es baut einerseits Knowhow in einer möglichen Erfolgsbranche auf. Andererseits bildet es einen kleinen Kundenstamm in Universitäten und Forschungsabteilungen. Der kann sich aber jederzeit erweitern. Wenn Graphen ein Hit wird, landen viele Mitarbeiter aus der Forschung als Manager in der produzierenden Industrie und bestellen vielleicht lieber in Herzogenrath als anderswo.

Graphen mag ein Wundermaterial sein, doch das ist erst der Anfang. Wird es ein Erfolg? Und wenn ja, in welchem Einsatzgebiet? Das EU-Projekt begeht nicht den Fehler, sich auf einen einzelnen Bereich zu stürzen. So relativiert sich dann auch die gigantisch wirkende Milliarde, die über 10 Jahre hinweg an 75 Forschergruppen in 17 EU-Ländern verteilt wird.

Konzerne wie Samsung dagegen forschen deutlich enger gefasst an ganz bestimmten Anwendungen. Der koreanische Elektronikriese setzt auf Graphen, da es eine Lösung für biegsame Smartphones ist. Ein Erfolg würde seine Position im Smartphone-Markt auf Jahre hinaus zementieren.

Auch hier wieder die bei innovativen Unternehmen typische Wette auf die Zukunft. Entscheidend für die europäische Wirtschaft ist, rasch Top-Anwendungen von den Flops zu trennen und dann zu verhindern, dass die entsprechenden Produkte für Endanwender woanders hergestellt werden.

Bilder: © Kumbabali – Fotolia.com, © ogwen – Fotolia.com, © bonninturina – Fotolia.com, © AIXTRON

Ausbilden: Der Trick gegen Fachkräftemangel

Fotolia_61132937_XS„In der IT-Branche gibt es im Moment einen ausgesprochen lebendigen Bewerbermarkt“, sagt Catharine Hack, Personalreferentin bei der Pironet NDH AG. Das Unternehmen ist spezialisiert auf Cloud Computing für mittelständische Kunden. Es bildet regelmäßig Fachinformatiker und andere IT-Spezialisten aus.

Eine Bewerbung für eine Ausbildung bei dem Unternehmen kann also für talentierte Leute mit technischem Verständnis und IT-Affinität leicht zum Erfolg führen. Umgekehrt sollte es für Pironet NDH kein Problem sein, auch die richtigen Bewerber zu finden. Catharine Hack bestätigt das: „Wir finden immer wieder ganz hervorragende Bewerber. Bei vielen wissen wir im Grunde schon von Anfang an, dass sie die Ausbildung mit Erfolg abschließen.“

Superjugendliche gesucht?

Dann folgt das große Aber: „Ein großer Teil der Bewerbungen sehen eher nach dem Gegenteil aus.“ Die Personalreferentin berichtet von E-Mails ohne jeden Text, die lediglich im Anhang einen Lebenslauf enthalten, Anschreiben mit zahlreichen Rechtschreibfehlern und Serienbriefe an ein paar Dutzend Unternehmen im CC-Feld. Und dann gibt es Bewerbungen, die deutlich machen, dass die Bewerber überhaupt nicht wissen, für welchen Beruf sie sich bewerben.

Die Liste dieser Fehler ließe sich noch lange fortsetzen. Dies ist eigentlich erstaunlich, denn allein eine Google-Suche nach den beiden Stichworten „Bewerber Ratgeber“ gibt mehr als genug Hinweise für den richtigen Aufbau einer Bewerbung, das Verhalten im Vorstellungsgespräch und vieles mehr. Es ist schwer, hier noch etwas falsch zu machen. Warum landen trotzdem so viele Kuriosa bei den Personalern?

© Syda Productions - Fotolia.com„Unserer Erfahrung nach hat das etwas mit persönlicher Reife zu tun“, meint Hack. Eine eher unreife Haltung zeige sich dann auch in den Bewerbungsgesprächen und reiche bis in die Ausbildung. Pironet NDH ist ein mittelgroßes Unternehmen, das nach eigener Auskunft sehr gerne ausbildet und sich intensiv um die Azubis kümmert, aber dafür auch etwas erwartet. Etwa den bereits makel- und tadellosen Superjugendlichen?

„Wir erwarten junge Leute, die Interesse am Beruf und an Weiterbildung mitbringen“, sagt Hack. „Wir beißen uns hier die Zähne aus, wenn wir Erziehungsmängel beseitigen müssen.“ Talent, Reife, Interesse, Weiterbildung – gefragt sind junge Erwachsene, die Fragen stellen, Eigeninitiative zeigen und mitdenken.

Doch die Zeiten in denen Auszubildende hier mal schauen und da mal anpacken dürfen, sind schon lange vorbei. „Von Auszubildenden wird heute wesentlich mehr verlangt als das früher der Fall war“, bestätigt Marko Kämmerer, Personalleiter beim Enterprise-Mobility-Spezialisten Seven Principles (7P) mit Sitz in Köln. Diese Entwicklung sei auch in der IT-Branche zu bemerken.

Offene, wenig hierarchische Unternehmenskultur

Vor allem in den letzten zehn Jahren seien in vielen Unternehmen schnellere, dynamischere Strukturen entstanden. „Das scheint die Schulen zu überfordern, Schüler werden nicht entsprechend auf diese Dynamik vorbereitet“, kritisiert Kämmerer. „Aber trotzdem sind die Bewerber deutlich besser als ihr Ruf.“

Zusammen mit den Anforderungen haben sich nach Kämmerers Erfahrung aber auch die Wünsche junger Leute an eine Ausbildung geändert. „Vor allem mittelständische Unternehmen müssen sich attraktiv präsentieren und eine offene, wenig hierarchische Unternehmenskultur bieten.“

© Marco2811 - Fotolia.comHeute sind allen Mitarbeitern – Akademikern, aber auch den Mitarbeitern in Ausbildungsberufen – Gestaltungsspielräume und Freiheitsgrade wichtig. „Das erfordert auch eine gewisse Flexibilität beim Unternehmen selbst. Wer sich öffnet, bekommt auch hervorragende Mitarbeiter.“

Die Erfahrungen von Marko Kämmerer sind mit denen von Catharine Hack zu vergleichen: Es gebe einige Bewerbungen, die dem Qualitätsanspruch von 7P nicht entsprechen, trotzdem leidet das Unternehmen nicht an Azubi-Mangel. Es bildet ebenfalls regelmäßig aus und greift dabei nicht nur auf Abiturienten zurück.

„Gymnasiasten haben einen kleinen Vorteil in Sachen persönlicher Reife, aber wir bilden auch regelmäßig Realschüler zum Fachinformatiker aus“, sagt Kämmerer. „Das Abitur ist nicht immer nötig und ein Uniabschluss auch nicht. Wir stellen zwar viele Akademiker ein, haben aber auch zahlreiche Arbeitsplätze für Facharbeiter und Nicht-Akademiker.“

Die wichtigste Quelle für Bewerber ist die Präsenz in Schulen oder Ausbildungsmessen. Die beiden IT-Dienstleister sind weder bei Lehrern noch bei Jugendlichen besonders bekannt. Das ist bei vielen mittelständischen Unternehmen so, die meisten Leute kennen bestenfalls ein Dutzend deutsche Unternehmen.

Mittel gegen den Fachkräftemangel

Doch das Ziel der Zusammenarbeit mit Schulen ist nicht, möglichst viele Bewerber zu bekommen. Beide Unternehmen setzen auf zielgerichtete Rekrutierung, auf persönliche Kontakte und auf Empfehlungen. Pironet NDH ruft die Lehrer dazu auf, talentierte Jugendliche für ein Praktikum zu nennen. 7P trifft viele Azubis über Kontakte auf Ausbildungsmessen, nutzt aber auch Stellenanzeigen in lokalen und überregionalen Portalen.

Die Ausbildung selbst ist in beiden Firmen ähnlich organisiert: Die Azubis werden möglichst rasch in Kundenprojekte einbezogen und lernen viele Arbeitsgebiete des Unternehmens kennen. Außerdem orientiert sich die Ausbildung möglichst stark an den Interessen der einzelnen Mitarbeiter.

© DOC RABE Media - Fotolia.comIn den Unternehmen werden Auszubildende intensiv betreut und möglichst optimal gefördert. Die Geschäftsführung hat sie als enorm wichtig für die Unternehmenszukunft erkannt. Beide Unternehmen betonen: Im Normalfall werden viele Azubis übernommen und anschließend mit Angeboten für die Weiterbildung und verschiedenen Karriereoptionen unterstützt.

Vorausschauende Unternehmen haben (hoffentlich) längst erkannt, dass nur eine gute Strategie zur Personalentwicklung hilft, den so genannten „Fachkräftemangel“ zu vermeiden. Er besteht nämlich weniger in einem Mangel an guten Leuten, sondern oft in einer zu geringen Sichtbarkeit der Unternehmen.

Das Rheinland ist Heimat zahlreicher großer IT-Unternehmen wie Deutsche Telekom, Vodafone, T-Systems, Computacenter, Bayer BBS und viele mehr. Sie besitzen eine enorme Zugkraft und können sich die Rosinen herauspicken, da Ausbildungen bei den IT-Riesen ein sehr gutes Image haben.

Kleinere und mittlere Unternehmen wie Pironet NDH oder Seven Principles müssen sich dagegen bei den Schülern als guter, moderner und erfolgreicher Arbeitgeber präsentieren. „Employer Branding“ heißt das heutzutage. Die Erfahrungen der Unternehmen zeigen, dass auch das Angebot einer guten Ausbildung dazugehört.

Bilder: © Butch – Fotolia.com, © Syda Productions – Fotolia.com, © Marco2811 – Fotolia.com, © DOC RABE Media – Fotolia.com

Glücklich werden. Eine Bildungsgeschichte

CelineCéline Keller, Illustratorin und Motiondesignerin, vor langer Zeit DJ in einem Club in Köln. Sie spielte Indie und Singer/Songwriter-Platten. Eines Tages sprach ich sie wegen ihrer Musik einfach an. Wir trafen uns ein paar Mal, rauchten, tranken, redeten, schrieben Musiktipps auf Bierdeckel. Dann verschwand sie plötzlich aus der Stadt und ein paar Jahre später entdeckte ich sie im Internet.

Du lernst. Und zwar gerne und aus Interesse. Und noch dazu mit einem breiten Spektrum an Themen. Das ist mir aufgefallen, seit ich Dir auf Google+ und Twitter folge. 

Ich interessiere mich für viele Dinge. Lernen ist nicht nur eine unglaublich spannende Beschäftigung, sondern es liegt mir auch grundsätzlich sehr am Herzen. Ich möchte gerne etwas Neues erfahren und folge meinem Wunsch, immer wieder etwas zu lernen. Außerdem bin ich der Überzeugung, dass wir Probleme nur durch gemeinsames Lernen lösen können.

War das schon immer so bei Dir?

Nein, ich habe früher viele schlechte Erfahrungen gemacht. Ich habe die Schule gehasst und empfand sie als Gefängnis. Nur weil ich alle paar Jahre von einer zur anderen gewechselt bin, habe ich es trotz aller Frustration und Langeweile irgendwie bis zum Abitur ausgehalten. Wenn Jugendliche Freiheit haben, sind sie voller Leidenschaft und Begeisterungsfähigkeit. Stattdessen war ich unglücklich – am allermeisten, wenn ich in der Schule sitzen musste.

Wie lange hat der Frust gedauert?

Der Frust war nach der Schule vorbei, aber die Freude am Lernen habe ich erst mit Mitte Zwanzig entdeckt. Davor stolperte ich ziemlich verloren durch die Gegend und wusste vor allem eines: Was ich nicht machen will. Ich finde es tragisch, das so viele Menschen aus der Schule kommen und anscheinend nur gelernt haben, was sie angeblich nicht können. Ihnen bleibt statt Kreativität und Neugier nur Angst, etwas falsch zu machen. Deshalb fangen sie auch oft nichts Neues und Eigenes an.

Aber Du hast etwas gemacht, nämlich Comics gezeichnet.

AlmutUndJuryJa, doch nach der negativen Erfahrung in der Schule hatte ich das Bedürfnis, mich gegen Kritik zu schützen und habe alles schön für mich behalten. Kaum jemand hat meine Sachen gesehen. Aber ein paar Freunde (Ursula und Georg vom www.raumfuerprojektion.de) fanden die Sachen gut und haben mich herausgefordert. Ich sollte innerhalb von sechs Wochen einen Animationsfilm zu machen. Das war eine verrückte Idee, aber für mich war das der Wendepunkt. Ich habe mich zuhause eingeschlossen und losgelegt. Ich habe mir die Bedienung der Animationssoftware mit einem Buch selbst beigebracht. In der Zeit habe selten so viel geflucht und gleichzeitig so viel Spaß gehabt.

Was war anders als in der Schule?

Die beiden haben an mich geglaubt. Ich denke, jeder braucht das Gefühl, dass jemand an ihn glaubt. Ich selbst war immer von meinen Comics überzeugt, aber das reichte nicht aus um alleine loszulegen. Danach ging es dann langsam, aber sicher bergauf – vor allem, als ich das Internet für mich entdeckte.

Wie hat Dir das Internet beim Lernen geholfen?

Ich war ein paar Jahre in Argentinien und habe dort gesehen, dass man das Internet auch zu etwas anderem als Mail und Shopping benutzen kann. Eines Nachts saß ich vor dem Computer und landete durch Zufall auf einer Gospel Piano-Webseite mit einem kostenlosen Online-Kurs. Dort wurde das Nashville Number System erklärt. Doch vor allem habe ich dort gelernt, dass Musik nicht dieses mythische Ding ist, das man nur als Kind lernen kann. Und nur dann, wenn man irre viel Talent hat. Am nächsten Tag habe ich mir ein Keyboard geliehen und Musik gemacht. cubos

Selber machen ist auf jeden Fall dein Ding. Du beschäftigst Dich autodidaktisch mit ganz unterschiedlichen Themen. Das wirkt wie ein sehr eigener und eigenständiger Lernstil, eher von Neugier getrieben als von irgendeiner Art von Ehrgeiz.

Das stimmt, ich habe meinen eigenen Weg zum Lernen gefunden. Ich habe oft gehört: Konzentriere Dich auf eine Sache, sonst bist Du nicht erfolgreich. Aber so funktioniere ich nicht, ich bin anders. Außerdem bin ich mir ziemlich sicher, dass ich da nicht alleine bin. Es ist vielleicht eine Binsenweisheit, aber beim Lernen kann ich sie unterschreiben: Der Weg ist das Ziel. Natürlich brauche ich ein Ziel, aber der Weg dahin ist ebenfalls wichtig. Vor allem die Schritte auf diesem Weg sind entscheidend. Für mich ist Lernen aktiv. Deshalb kann ich auch nichts mit der klassischen Art des Unterrichtens anfangen.

Du meinst das eher passive Konsumieren von „Stoff“ in der Schule. Wie organisierst Du Dich selbst?

Mein größter Feind beim Lernen ist die Langeweile. In Grenzen ist das natürlich ganz normal. Der Trick ist einfach, an mehreren Sachen gleichzeitig zu arbeiten. Wenn mich eine Übung zu sehr frustriert, arbeite ich eine Weile an einem anderen Problem Und Lernen ist natürlich manchmal auch anstrengend. Und man macht Fehler. Es ist wichtig, sich nicht von Fehlern frustrieren zu lassen. Ich würde sagen: Mach einfach eine Pause, mach etwas anderes, aber komm immer wieder zurück und spiel mit den Fehlern, ohne Druck von außen. RatonPerezDas wichtigste für mich ist, nicht aufzugeben und einfach weiter zu machen, selbst wenn ich etwas nicht verstehe. Mit der Zeit erschließt sich dann das Problem von ganz allein. Das sind magische, wunderbare Momente. Und sie kommen immer. Wirklich.

Und das alles ohne Lehrer, der vor Dir sitzt und Dir etwas beibringt.

Ich habe unzählige Lehrern und Lehrerinnen. Ich finde sie überall im Netz. Im Internet gib es eine Unmenge an wunderbaren Menschen, die ihr Wissen gerne und umsonst mit anderen teilen. Youtube ist toll und ich höre eine Menge Podcasts. Twitter ist auch eine Goldgrube. Das Internet ist außerdem voll von interessanten Vorträgen zu allen möglichen Themen. Ein gutes Beispiel sind die TED/TEDx- und re:publica-Vorträge auf Youtube. Viele Leute verstehen einen ganz wichtigen Punkt nicht: Was man aus dem Internet herausholen kann, hat damit zu tun, wem man „folgt“. Folgt man interessanten Leuten, werden einem ganz von selbst neue und interessante Themen serviert. Oft ergeben sich darüber viele neue Möglichkeiten – auch beruflich. Dieses Jahr habe ich mit Partnerin Paula Spagnoletti für TED-ed einen Animationsfilm über Mikroben gemacht und im Moment arbeiten wir für die nächste re:publica.

Das klingt sehr weit entfernt von Deinem Teenager-Ich, das Lernen hasst. 

Ja, unbedingt. Heute ist mir klar, Lernen macht Spaß. Es eröffnet einem irrsinnig viele Möglichkeiten und gibt mir persönlich sehr viel Energie. Lernen macht glücklich – zumindest empfinde ich das so. Es gibt dazu ein sehr schönes Zitat aus T.H Whites „The Once and Future King“. Es bringt Sache für mich auf den Punkt:The best thing for being sad is to learn something.” microbes

Und bei all dem hilft Dir das Internet. Selber Lernen im  Netz –  das ist ein sehr modernes Modell.

Das Internet ist eine wirklich gute Möglichkeit, sich Zugang zu Wissen zu verschaffen. Ich habe dort die Freiheit, in genau die Richtung zu gehen, die meinem Interesse entspricht. Ich kann damit Probleme lösen, Zusammenhänge erkennen und Beziehungen entdecken. Das geht alles nur, weil das Internet offen ist. Offenheit des Wissens und Freiheit des Lernens, das hängt für mich zusammen.

Das ist ein Plädoyer gegen kommerzielle Wissensanbieter. 

Mir sind offene Lernwege sehr wichtig. Ich bin auch von MOOCs begeistert, wie sie zum Beispiel kostenlos auf Coursera angeboten werden. Mein erster Kurs war im Sommer 2012 „Science Fiction, Fantasy, and the Human Mind“. Die Lectures waren klassische Talking-Head-Videos. Dagegen habe ich nichts. Auch die Bücher, die wir gelesen haben, waren toll. Aber es gab einige Dinge, die mich gestört haben. Das Nervigste daran war das Peer Grading.

Dabei bewerten die Lernenden ihre Arbeiten untereinander.

Das war ziemlich furchtbar und sehr viele Menschen haben den Kurs deshalb schnell verlassen. Es gab viele Trolle, die extrem bewertet haben. Dieser Ansatz ist meiner Meinung nach grundsätzlich ungeeignet. Es dürfte keine Noten geben, die Peer Reviewer hätten besser einen Kommentar schreiben sollen, um darin ihre Meinung begründen. Es ist unglaublich frustrierend, begründungslos bewertet zu werden.

Das ist dann eher wie Schule, mit Noten als Urteil. republica

Noten gehören abgeschafft. Stattdessen sollten Anstrengung, Ideen und neue Perspektiven zum Maßstab werden. Es wäre wichtig, Kinder zu ermuntern, eigenständig zu denken. Sie sollten eigene Meinungen und Ideen verfolgen dürfen, auch wenn sie sich am Ende manchmal als falsch rausstellen. Und die Schule sollte Kindern beibringen, dass Fehler etwas Gutes sind. Wer etwas falsch macht hat und daraus lernt, hat ein ganz besonderes Wissen. Oft kann er dann seine Erkenntnisse anderen Leuten viel besser erklären.

Gibt es auch MOOCs, die in die von Dir gewünschte Richtung gehen?

Das Gegenbeispiel war „E-Learning und Digital Cultures“. Das war wirklich klasse und hat sehr viel Spaß gemacht. Und es gab keine Noten. Stattdessen  unglaublich viel Kreativität, Ideen und Austausch – also echtes Lernen. Ganz von selbst entstand eine Art Gruppendynamik, bei der sich die Leute gegenseitig unterstützt und motiviert haben. Außerdem war dies der bisher einzige Coursera-MOOC, bei dem das Forum auch nach dem Ende des Kurses zugänglich blieb. Bei allen anderen Kursen hat Coursera die ganze Arbeit und alle Informationen förmlich in die Tonne getreten. Die Begründung war auf Nachfrage „Dann kann ja jeder abschreiben“.

Abschreiben – das ist mal wieder ein Begriff aus der Schule.

Ja, das ist ein Ansatz, den ich als veraltet und respektlos gegenüber den Lernern empfinde. Es ist die alte Idee, dass Wissen von außen in die Köpfe kommt und sich nicht entwickelt. Es gibt keinen Grund, etwas Vorhandenes nicht zu lesen und zu benutzen. Es ist wichtiger, daraus etwas Neues zu machen. Das ist für mich das Ziel des Lernens: Etwas Neues machen. Und das dann im Internet mit anderen Menschen teilen.

Bilder: nenatv, privat

Claas: 100 Jahre Wandelbarkeit

„Nur innovative, bewegliche Unternehmen bestehen langfristig und bleiben keine kurzlebigen Episoden“, meint Dr. Jens Möller, Geschäftsführer von Claas Agrosystems. Dieses Jahr wird die Class-Gruppe 100 Jahre alt. Doch im Interview mit „Digital Heartland“ geht es nicht um alte Geschichten, sondern um Lektionen aus der Geschichte für die Zukunft.

Herzlichen Glückwunsch, Herr Möller. Claas ist dieses Jahr 100 Jahre alt geworden. Die übliche Frage an Hundertjährige lautet ja immer: Wie wird man so alt? Also, mit welchem Trick überlebt ein Unternehmen ein ganzes Jahrhundert?

Der Trick sind die ständige Innovation und das „immer in Bewegung bleiben“. Nur innovative, bewegliche Unternehmen bestehen langfristig und bleiben keine kurzlebigen Episoden. Bei Claas sind Innovation und Technologieführerschaft Teil der Strategie. Im Grunde gehört das zu unserer Firmenkultur, die wir sehr intensiv pflegen. Ein rein formelles Innovationsmanagement reicht nicht aus. Wer ein Neuerer sein will, muss hervorragende Mitarbeiter haben, die komplexe Aufgaben bewältigen können. class-maehdrescher

Die Mitarbeiter sind die wichtigste Voraussetzung für Innovationen?

Ja, wir hören auf die Mitarbeiter. Jeder kann Anregungen und Projektvorschläge abgeben. Jede Idee wird gehört, an allen Standorten. Die Prozesse für die Produktentwicklung sind überall gleich. Ein etabliertes betriebliches Vorschlagwesen stellt sicher, dass viele wertvolle Ideen zusammenkommen. Das sind nicht immer neue Produkte, auch viele Verbesserungen unserer Fahrzeuge stammen aus der Belegschaft, zum Beispiel aus dem Kundendienst.

Sie orientieren sich also auch an den Kunden?

Nicht nur das: Wir hören auf unsere Kunden und kennen ihre Bedürfnisse. Wir laden Kunden zu Hintergrundgesprächen ein, in denen sie auch Kritik üben dürfen. Unsere Entwickler fahren oft zu einzelnen Kunden und schauen sich die Situation vor Ort an. Sämtliche Produktmanager sind ausgebildete Landwirte mit dem notwendigen Wissen. So haben wir zum Beispiel einen Mähdrescher mit einer Straßenzulassung für 40 km/h eingeführt. Das Produkt ist speziell auf Lohnunternehmer zugeschnitten. Die fahren auf dem Weg von einem Kunden zum anderem häufig relativ lange Strecken über die Straße und sparen somit Zeit und Geld.

Mähdrescher sind ja die klassischen Claas-Landmaschinen. Aber Sie haben auch Informationstechnologie im Angebot.

Ja, inzwischen sogar sehr viel. Claas Agrosystems ist in der Claas Gruppe für Precision Agriculture verantwortlich Wir entwickeln zum Beispiel die Telemetriesysteme. Ein großer Trend sind Assistenzsysteme, ähnlich wie bei einem Auto. Dazu gehören in erster Linie Systeme zum so genannten „Precision Farming“. Dabei wird ein Fahrzeug mit Hilfe von GPS auf einige Zentimeter genau gesteuert. Das hört sich im ersten Moment etwas übertrieben an, aber auf eine große Fläche gesehen gibt es eine enorme Leistungssteigerung und Kostensenkung. Das lässt sich am besten in einem Beispiel verdeutlichen. Moderne Mähdrescher haben Schneidbreiten bis 12 Meter. Das bedeutet: Der Fahrer sitzt sechs Meter von den Seiten seines Fahrzeugs entfernt. Das präzise Lenken und gleichzeitige Bedienen der Maschine ist nicht einfach. Damit nichts stehen bleibt, fährt der Fahrer also immer mit ein wenig Versatz. Das können aber schon mal ein halber bis ein Meter sein, also auf ein Dutzend Runden leicht eine volle Fahrzeugbreite. Mit GPS beträgt der Versatz nur ein paar Zentimeter, der Fahrer spart somit Zeit und Kraftstoff.

Das hört sich aber kaum noch nach Ackerbau an. Ist ein Landwirt heute eher Techniker als Bauer?

Er ist ein ausgebildeter Profi in der modernen, von klassischer Landmaschinentechnik und Informationstechnologie unterstützten Landwirtschaft. Der Bauer mit Gummistiefel und Mistforke, der nur mit Schlepper und Hänger auf die Acker fährt – das ist ein reines Medienphänomen. Vor allem Sendungen, die auf dem Land spielen, transportieren oft ein vollkommen veraltetes Bild von der Landwirtschaft. Extrem viele Betriebe nutzen modernste Technik und lassen sich von IT-Managementsystemen unterstützen.

Aber lohnt sich das überhaupt für viele Landwirte? Sind nicht Riesenbetriebe notwendig, um solche Systeme zu nutzen? claas-traktor2

Moderne Großmähdrescher oder -traktoren benötigen eine gewisse Mindestfläche. Außerdem sind sie natürlich im Vergleich zu einfacheren Fahrzeugen teurer, aber bei einer großen Fläche lohnt sich das. Entsprechende Agrarbetriebe haben wir in Deutschland eher in den neuen Bundesländern Die Maschinen werden aber auch in Maschinenringen oder von Lohnunternehmern eingesetzt. Dadurch entstehen dann wieder ausreichend große Flächen, die mit einem Großgerät sehr effizient bewirtschaftet werden können.

Wie sieht das in anderen Ländern aus? Sind Ihre Innovationen auch weltweit anerkannt?

Wir sind inzwischen ein globales Unternehmen, aber mit deutschen Wurzeln. Die Claas Gruppe macht in Deutschland nur noch etwa ein Viertel ihres Umsatzes. Diese Internationalisierung ist eigentlich nichts Neues, wir haben uns schon immer stark auf den Export ausgerichtet. Allerdings agieren wir heute anders. Wir gehen als Unternehmen in die Großregionen wie etwa Russland und treten dort als Anbieter in diesem Markt auf. Unsere Produkte unterscheiden sich nach den Zielmärkten, denn jeder Markt ist anders. Ein gutes Beispiel ist Indien. Als wir vor 25 Jahren dort eingestiegen sind, haben wir uns die Situation vor Ort genau angeschaut. Wir haben zum Beispiel bemerkt, dass die Betriebsgrößen relativ klein sind und dort – wenn überhaupt Maschinen eingesetzt werden – Lohnunternehmer die Mähdrescher nutzen. Dabei haben wir recht schnell festgestellt, dass wir keinen geeigneten Mähdrescher im Angebot haben. Also haben wir einen entwickelt. Auf diese Weise kommt ein Unternehmen auch in einen neuen Markt. Erst werden die Grundbedürfnisse der Kunden analysiert, dann wird etwas Spezifisches und Neues gebaut. Anders kommen Sie dort nicht an.

Solche Erfolge wünschen sich viele Unternehmen. Was sind Ihrer Meinung nach die Hauptgründe für den dauerhaften Erfolg von Claas?

Es gibt zahlreiche Gründe, aber sehr wichtig sind sicher Ausdauer und Schnelligkeit. Das kann im Grunde nur ein inhabergeführtes Unternehmen leisten, das nicht an die Berichtspflichten eines börsennotierten Unternehmens gebunden ist. claas-traktor1Den Xerion, ein so genanntes Systemfahrzeug mit Allradlenkung und -antrieb, gleich großen Rädern und drehbarer Kabine, hätte ein solches Unternehmen sicher nicht auf den Markt gebracht. Aber im Unternehmen gab es Helmut Claas, der die nötige Ausdauer hatte und das Projekt zum Erfolg geführt hat.

Ist also eine gewisse Ausdauer das Geheimnis der Innovation?

Nicht nur. Ein Unternehmen braucht viele gute Ideen und Offenheit auch für exotische (unkonventionelle) Vorschläge. Aber gute Ideen alleine reichen nicht. Irgendwann kommt ein Punkt, an dem es schwierig wird bei der Entwicklung eines Produktes. Der kommt oft. Da ist es gut, wenn an entscheidender Stelle Mitarbeiter mit Erfahrung sitzen und die Lösung weiter vorantreiben.

Wie die Namensgeber des Unternehmens?

Ja, zum Beispiel. Familienunternehmen sind in der Regel sehr langfristig orientiert. Es herrscht da eher die Vorstellung, dass der Unternehmenswert auf lange Sicht erhalten bleibt und gesteigert wird. Ein guter Weg dorthin ist Innovation und Wandelbarkeit, um sich rasch ändernden Märkten und Kundenanforderungen anzupassen. Der deutsche Mittelstand ist ein wesentlicher Innovationstreiber in der Wirtschaft und das sind sehr häufig Familienunternehmen wie die Claas Gruppe.

At first glance, the Claas group has little to do with the industries of the future. Most people know the company from agriculture: The paradigmatic Claas combine harvesters are known worldwide. And it is somewhat the counterpart to a VC driven startup eager for an multi million exit. Class is 100 years old, not public but family owned, and residing in the rural lowlands north of the Ruhr Area. But from the beginning Claas was an innovative company – new agricultural machinery, new techniques, new markets. The shareholders have built up an export-oriented, global company, where about 75 percent of revenue is made outside of Germany today. And they take the next step: Claas Agrosystems is developing its own telemetry systems. Similar to cars, assistance systems are a big thing in agriculture. They are primarily meant for precision farming. Here, a vehicle using GPS is accurately controlled to a few centimeters. „Only innovative, moving companies are long term“, says Dr. Jens Möller, CEO of Claas Agrosystems. Family owned, often midsized companies like Claas are a key driver of innovation in german economy. „Leadership in innovation and technology is part of our strategy. Basically, this is our company’s culture and we maintain it very intense.“

Jeder kann zum Innovator werden

„Innovationen ausschließlich über Innovationsabteilungen und -spezialisten zu fördern, ist der falsche Ansatz“, meint Stephan Grabmeier, Berater für Social Business und Gründer der Innovation Evangelists im Interview mit „Digital Heartland“. Er war von 2009-2013 Head of Culture Initiatives bei der Deutschen Telekom AG, leitete dort das Center of Excellence Enterprise 2.0 und beschäftigte sich mit dem Thema „Crowd Innovation“. Seine wichtigste Aufgabe: Netzwerkstrukturen aufbauen.
 

csm_20090520_Grabmeier_046_4cca20476dAlle sprechen von Innovation. Ist der Begriff nicht schon abgenutzt?

Stimmt, in den Unternehmen ist dauernd von Innovation die Rede. Es steht als extrem wichtiges Thema auf der Tagesordnung, denn alle Unternehmen müssen immer schneller Neues wagen, um im Markt bestehen zu können. Trotzdem geraten heutzutage auch große Unternehmen sehr schnell ins Hintertreffen. Marktführerschaft ist schon lange keine Garantie mehr – siehe Nokia oder Kodak.

Das geht sehr schnell und wenn nach Fehlern gesucht wird, stellt man fest, daß nicht radikal genug innoviert wurde. Aber in der Praxis ist nicht so ganz klar, wo die Neuerungen herkommen sollen. Die Frage lautet: Wo und wie schnell findet Innovation zukünftig statt? Handelt es sich um Forschung und Entwicklung? Oder brauchen Unternehmen eine eigene Innovationsabteilung? Oder eine ganz andere Lösung?

Was empfehlen Sie Unternehmen?

Die herkömmlichen Wege zur Innovation reichen bei weitem nicht mehr aus. Meiner Meinung nach kann die Basis von Innovation nicht breit genug sein. Das bedeutet: Alle Mitarbeiter im Unternehmen müssen eine Chance haben, gute Ideen vorzuschlagen und Ihr Know-how einzubringen.

Was ist mit dem mittleren Management? Scheitern dort nicht die meisten Ideen von den sprichwörtlichen einfachen Mitarbeitern?

Das ist leider oft so. In großen Organisationen ist das eine typische Folge von Mechanismen der Existenzsicherung. Innovation hat nämlich zwei Seiten: Zum einen kannibalisiert radikale Innovation auch das Kerngeschäft. Der evolutionäre Ansatz reicht nicht aus, die Weiterentwicklung bestehender Geschäftsbereiche ist auf Dauer meist zu wenig. Zum anderen verändert Innovation die bestehende Organisation und wird deshalb von vielen Leuten, auch von Führungskräften verhindert.

Und wie kann diese Verhinderungsstrategie abgewendet werden?

Meiner Erfahrung nach gibt es zwei sehr wichtige Blickrichtungen: Nach außen und nach innen. Unternehmen sollten einerseits passende Innovationen von außen herein holen und andererseits „Intrapreneure“ fördern, also Angestellte mit guten, marktfähigen Konzepten. Das Unternehmen ist also offen für Anregungen und Ideen von außen, aber auch von allen Mitarbeitern.

Unternehmen, die Innovationen nur in ihrem Kernbereich hervorbringen wollen, werden in Zukunft scheitern. Besonders Konzerne reagieren auf Veränderungen im Markt nicht schnell genug. Die umfangreichen Prozess- und Genehmigungsstrukturen sind ein großes Hindernis, in dem viel Energie verschwendet wird. Märkte sind flexibel, Unternehmen sind es leider nicht.

Wie sind ihre Erfahrungen mit der Telekom? Das Unternehmen ist ja einer der größten Konzerne Europas und sie haben dort die Transformation zu Enterprise 2.0 verantwortet.

Vor meiner Telekom Zeit war ich selbstständig als Organisationsentwickler tätig. Ich habe sowohl für kleine wendige Start-Ups oder Investoren als auch für große Konzerne gearbeitet. Die Telekom hat ja einen gewissen Ruf als bürokratisches Monster, so dass viele Bekannte meinten: Das klappt nie. Und ich sage Ihnen was: Das hat sehr gut geklappt, ich konnte absolut selbstständig arbeiten – im Prinzip wie ein Unternehmer oder vielmehr wie ein Intrapreneur. Der CEO René Obermann und der ehemalige Personalvorstand Thomas Sattelberger waren die Sponsoren unseres Programms.

Sie hatten den klangvollen Titel „Head of Culture Initiatives“. Ist das programmatisch zu verstehen?

Unbedingt. In vielen Unternehmen wie der Telekom ist ein kultureller Wandel nötig. Sie müssen mit sämtlichen Mitarbeitern arbeiten und sie einbinden und das geht am besten mit Sozialen Netzwerken. Mit ihnen ist das sogar mit einigermaßen geringem Aufwand und trotzdem strukturiert möglich, denn sie erlauben einen offenen, nicht-hierarchischen Austausch über Ideen und Konzepte.

Es gibt in der Telekom viele Leute mit tollen Einfällen, die über interne crowdbasierte Technologien wie z.B. JAMs, Prognosemärkte oder das Telekom Social Network eine Stimme und Sichtbarkeit bekommen. Meine Erfahrung nach gibt es genug Ideen, nur haben die Leute entweder nicht die Chance, die Risikofreudigkeit oder das Kapital, diese Ideen auch umzusetzen. Gepaart mit den Ressourcen der Telekom sieht das dann schon wieder anders aus.

Wie werden die Ideen umgesetzt?

Das wichtigste – einfach und schnell. „Lean Start-Up“ ist eine Methodik, die sehr schnell in die Umsetzung geht, Kunden so früh wie möglich mit einbezieht und über Prototypen die ersten Versuche im Markt macht. Wenn in einem Konzern noch mühevoll Powerpoint-Schlachten für Gremien gemacht und Businesspläne schön gerechnet werden, können Sie mit den richtigen Leuten und Methoden bereits an ersten Prototypen arbeiten und Geschäftsmodelle umsetzen. Business Modelling hat sich massiv verändert. Es ist wichtig, dass das in großen Unternehmen ankommt – denn heutzutage frisst der Schnelle den Langsamen!

Und wie funktioniert das in einem großen Unternehmen oder einem Konzernriesen wie der Telekom?

Innovationen sind Chefsache und sollten daher möglichst beim CEO verankert werden. Es darf keine Zwischenschicht geben, wenn Ideen und Innovationen nicht in einer starren Prozessstruktur stecken bleiben sollen. Viele Innovationsinitiativen sind reines Experimentieren, das nicht in die Performance-Logik eines tradierten Managements passt. Erfolge in Innovation lassen sich in den frühen Phasen nicht mit den herkömmlichen Methoden der Quartalsmessung ermitteln.

Natürlich ist der hierarchische Aufbau eines Konzerns nicht sinnlos, er bietet stabile Strukturen für Entscheidungen. Was heute oft fehlt sind Netzwerkstrukturen, die Innovationen deutlich besser fördern. Die entsprechenden Strukturen haben mein Team und ich für die Deutsche Telekom aufgebaut.

Die Telekom muss in Zukunft neue Innovationsstrukturen mit neuen Haltungen und Skills füllen. Konzernmenschen sind häufig keine Unternehmer. Die Telekom muss deshalb sowohl Leute von außen in den Konzern holen, die eine Startup-Mentalität mitbringen als auch intern weiter Intrapreneurship fördern und ausbauen. Auch im Inneren muss eine Gründerkultur aufgebaut und gepflegt werden. In einem solchen Unternehmen kann jeder zum Innovator werden.

Bildquelle: Privat

The base for innovation in an enterprise needs to be as broad as possible, says Stephan Grabmeier, social business consultant and founder of Innovation Evangelists to „Digital Heartland“. He was Head of Culture Initiatives and leader of the Center of Excellence Enterprise 2.0 at the biggest german telco Deutsche Telekom AG. Grabmeier is a networker at heart – he likes to connect the dots for intra-corporate social networks.

He suggest social networks as a platform for growing new, innovative ideas. Everyone can provide and discuss thoughts und concepts – even the legendary „normal worker“. But new ideas should not only come from the inside. A real innovative corporation also takes pre-startup enterprises into account. Founders with experience in garage tinkering can enhance the business models of big corporations by avoiding the hassle with approvals and business process conformity.

Big Business seeking for innovation should go off the beaten tracks of Powerpoint combats and canonical management strategies, thinks Grabmeier. His strategie is called „Lean Start-Up“ and shortens time to market for new products or services. It seeks advice from the potential customers and puts some prototypes in position – as early as possible. This is crucial for big corporations because faster enterprises will eat the slow ones.

Über den Ausgang aus der informatischen Unmündigkeit

Prof. Dr. Ludger Humbert, Lehrer, Dozent und Informatikdidaktiker an der Uni Wuppertal, fordert von den Schulen mehr digitale Aufklärung. „Wir dürfen unsere Kinder nicht ohne Allgemeinbildung in Informatik durch die Schulzeit bringen“, meint er im Interview mit „Digital Heartland“.

Die Informatik wird von den meisten Leuten als typisches Oberstufenfach gesehen. Wie ist die Situation in NRW?

Die Informatik ist in der gymnasialen Oberstufe ein altbekanntes und gut eingeführtes Fach. Es ist sogar schon seit 1969 im Fächerangebot enthalten. Sowohl die Lehrer als auch die Schulbehörden können auf eine sehr lange Erfahrung mit dem Fach zurück blicken. Deshalb gibt es auch seit geraumer Zeit eine spezielle Lehrerausbildung für dieses Fach. Es wird nicht nur von weitergebildeten, eigentlich fachfremden Leuten unterrichtet.

Das klingt ja sehr positiv. Ist an den Oberstufen im Land also alles in Ordnung mit dem Informatikunterricht?

Leider haben sich die Rahmenbedingungen nicht verbessert. Informatik ist im mathematisch-naturwissenschaftlichen Aufgabenfeld nicht mit den anderen Fächern gleichgestellt. Es ist lediglich Zweitfach, wie in der Anfangszeit, als von Digitalisierung noch keine Rede war. Das bedeutet also, dass Schülerinnen und Schüler Informatik nicht als erste Naturwissenschaft wählen dürfen.

Es hat deshalb einen schweren Stand in den Schulen. Oft schaffen es nur große Gymnasien das Fach regelmäßig als Leistungskurs anzubieten. Die zentrale Forderung der Gesellschaft für Informatik ist: Das Fach muss den anderen MINT-Fächern gleichgestellt werden. Sonst kann eigentlich von MINT keine Rede sein, das „I“ ist nicht ausreichend repräsentiert.

In der Unter- und Mittelstufe sieht die Lage ja noch schlechter für die Informatik aus. Fehlen da nicht oft die Grundlagen für das Fach?

Richtig, es gibt leider kein Pflichtfach für die Sekundarstufe I. Es gibt lediglich ein paar Initiativen von Realschulen oder Gymnasien, einen schulinternen Unterricht mit eigenen Lehrplänen anzubieten. Das reicht aber nicht. Meiner Meinung nach benötigt heute jeder Mensch eine gewisse informatische Grundbildung, die über das reine Bedienen von Software hinausgeht.

Warum ist das so?

Wir haben in unserer Gesellschaft zur Zeit eine digitale Spaltung. Nur etwa 10 bis 15 Prozent der Menschen verstehen wirklich, was bei der Digitalisierung vor sich geht. Wir müssen uns fragen, wie viel informatische Aufklärung notwendig ist, damit wir als Menschen handlungsfähig bleiben.

Unsere Gesellschaft braucht mündige Bürger, auch mit Blick auf IT. Sonst sind wir von technischen Systemen abhängig. Die Antwort der Schulen auf diese Herausforderung kann nicht „Null“ lauten. Die jungen Leute leben und arbeiten zukünftig in einer Welt, die ganz stark durch Informations- und Kommunikationstechnologie bestimmt ist.

Bringen sich Jugendliche Computerthemen nicht ohnehin von selber bei?

Ja, aber sie entwickeln dabei häufig allerlei Vorurteile, weil sie nur unverbundene Fakten kennen. So haben zum Beispiel heute sehr viele Schüler Angst vor einer Zukunft, in der die Maschinen gewissermaßen die Welt erobern. Das lernen sie über die Medien. Sie stellen Computer, Mobiltelefone und andere Informatiksysteme so dar, als seien es Maschinen, die wirklich alles können.

Der Informatikunterricht in der Sekundarstufe könnte vermitteln, dass die von Menschen entwickelten Maschinen immer Grenzen haben und beispielsweise nicht kreativ sein können. Und das der Mensch immer die Verantwortung trägt und tragen muss.

Das wäre dann ein eher untechnisches Fach. Was ist mit Standards wie Word, Photoshop oder Acrobat?

Aktuelle Software ist eventuell nach dem Ende der Schulzeit schon wieder vom Markt verschwunden oder sieht ganz anders aus. Auch deshalb ist es nicht sinnvoll im Informatikunterricht, die Bedienung von Software zu vermitteln.

Wichtig sind dagegen informatische Grundlagen und Vorstellungen, die es ermöglichen, sich selbstständig in neue Programme einzuarbeiten. Ein Beispiel: Viele Ausbildungsbetriebe fordern für den Informatikunterricht der berufsbildenden Schulen eine Schulung in den bekannten Basisprogrammen der Berufswelt.

Damit greifen sie aber zu kurz, da sie sich primär auf Effizienzkriterien beschränken. Genau aus diesem Grund gibt es die Allgemeinbildung. Sie muss dafür sorgen, dass die Prinzipien verstanden werden, die zur Gestaltung der Werkzeuge nötig sind.

Was ist dann die Hauptaufgabe der Informatik in der Sekundarstufe?

Um es noch einmal zu betonen: Werkzeugwissen reicht nicht aus. Die Konzepte hinter allen Werkzeugen müssen erkannt werden. Es geht darum, den Kindern das Verstehen der Informatik zu ermöglichen.

Sie benötigen eine Art mentales Modell der Vorgänge in einem Informatiksystem, um sich auch bei einer völlig unbekannten Software selbst helfen zu können. Jedes Kind und jeder Jugendliche sollte die Grundlagen kennen. Wir dürfen unsere Kinder nicht ohne Allgemeinbildung in Informatik durch die Schulzeit bringen.

Wie kann das in der Schulpraxis aussehen?

Es ist besonders wichtig, ein grundlegendes Verständnis für die Abläufe in einem Informatiksystem zu entwickeln. Das kann jeder Fünftklässler ohne Probleme. Wie gesagt, es geht nicht um die Bedienung spezifischer Programme oder um Highend-Technologie. Es geht darum, anhand eines einfachen, didaktisch geeigneten Informatiksystems zu lernen, wie Programme funktionieren. Das ist im Grunde programmieren, aber eher in Anführungsstriche gesetzt.

Ist das im Rahmen der aktuellen Stundentafel denn noch zu leisten?

Eine Stunde pro Woche in den Klassen 5 bis 10 würde ausreichen. Zahlreiche Schulen haben einen solchen Unterricht bereits in Eigenregie organisiert. Dabei müssen die Lehrkräfte nicht das Rad neu erfinden. Die Gesellschaft für Informatik (GI) hat die entsprechenden Bildungsstandards bereits definiert. Auf der Website gibt es auch allerlei Werkzeuge und didaktische Hilfen, die speziell an die Arbeit in der Unter- und Mittelstufe angepasst sind. Weitere Hilfen für Lehrer gibt es an der Uni Wuppertal, alles unter einer Creative-Commons-Lizenz. Es kann deshalb für den eigenen Unterricht – ohne Copyright-Probleme – angepasst und genutzt werden.

Bildquelle: Privat

In North Rhine-Westphalia computer science is a school subject since 1969. But it’s mostly for the senior classes of the Gymnasium, the German secondary school which leads to the highest school grade called Abitur. Teachers and scientists claim computer science also for all of the junior classes in all types of schools. Prof. Dr. Ludger Humbert, teacher and expert in didactics of computer science tells “Digital Heartland” why:

“Every child needs a certain general education in computer science beyond mere software handling. Just knowing some tools is not enough. Our children need to be aware of the technical concepts of computing. Main duty of education in computer science at school is to enable understanding of technology. Our society needs responsible and educated citizens in information technology as well. The alternative is dependancy on machines.”

Ausflug ins Zwischenreich – Bücher in Digitalien

Buchbranche und Digitalkultur, das ist keine Liebesbeziehung. Es gibt da ein großes Unverständnis für die Entwicklung der letzten Jahre. Die viel zitierte digitale Kluft wird hier manchmal überdeutlich, wie das folgende Zitat zeigt. Es ist echt, wirkt aber wie vom Postillon geklaut: „Man schaut sich die Dinge an, probiert sie aus, entscheidet sich und geht dann nach Hause und bestellt am Computer. […] Es ist kaum übertrieben, wenn man dieses Verhalten als eine Art Diebstahl betrachtet.“

Das klingt wie Realsatire, ist aber von einem waschechten Verleger alter Schule. Er beschimpfe lieber seine Kunden, als unternehmerisch zu denken, urteilt Verlagsberater Leander Wattig in seinem Blog. Aber was genau meint der Verleger, wenn er von Diebstahl redet? Es geht ihm um den von vielen Händlern gefürchteten Showrooming-Effekt: Im Geschäft gucken und beraten lassen, aber online und möglichst noch vor Ort mit dem Smartphone kaufen.

Ein Blick in die USA ist hilfreich, denn dort wird Showrooming schon viel länger diskutiert. Keine Panik, meint das US- Fachblog eConsultancy, denn es kann leicht bekämpft werden. Händler sollten die Digitalisierung freudig umarmen, zum Beispiel mit einer eigenen App, gut sichtbaren QR-Codes für den App-Download, iPads für die Produktinformation, kostenlosem WiFi und einer Präsenz auf Facebook. Das funktioniert für viele Branchen recht gut und es würde auch im Buchhandel funktionieren – Aufgeschlossenheit für neue Ideen vorausgesetzt.

***

Die Digitalisierung freudig umarmen, das macht die Solingerin Stefanie Leo jeden Tag. Sie ist die Gründerin und Chefin der Bücherkinder. Sie ist die Erfinderin der Wohnzimmerlesung, die von ihrem privaten Wohnzimmer aus ins Internet gestreamt wird. Sie bloggt, twittert und facebookt über ihre Erfahrungen mit Kindern, Büchern und dem Internet.

Außerdem ist sie außerhalb des Internets aktiv: Sie schreibt für die Fachzeitschrift Eselsohr, bietet Kinderbuch-Ausstellungen in Kitas im Rheinland an, berät Schulbibliotheken bei der Anschaffung neuer Bücher und hält Vorträge. Kurz: Stefanie Leo ist für die Sache der Kinderbücher ein Nachrichtendrehkreuz in Person.

Der Beginn von all dem waren Bilderbücher für ganz junge Kinder, nämlich die von Stefanie Leo. Sie hatte die Erfahrung gemacht, das gute Kinderbücher zum Vorlesen und Anschauen schwer zu finden sind. Zwar funktioniert der Buchmarkt wie eine gut geölte Maschine. die jedes Jahr 100.000 Neuerscheinungen ausspuckt – davon hunderte Kinder- und Jugendbücher. Aber im Unterschied zu „Erwachsenenbüchern“ gibt es keinen Feuilletonbetrieb, der wenigstens ein paar Schneisen in dieses Dickicht schlägt.

Ein Medium, in dem Eltern bewährte Bilderbücher finden, das wäre doch was, dachte die Solingerin. Und was ist im 21. Jahrhundert ein Medium, das jeder einfach so nutzen kann? Das Internet. Also mietete Stefanie Leo anno 2002 Webspace, um anderen Eltern die bei ihren drei Kindern beliebten Bücher vorzustellen.

Der Rest ist Geschichte, aus dem spontan aufgebauten Angebot wurde völlig ungeplant viel mehr. Inzwischen gibt es eine Redaktion aus 50 Kindern und Jugendlichen, die Bücher erst lesen und dann bewerten. So entstanden bis heute etwa 4.500 Buchbesprechungen. Das sind längst nicht mehr nur Bilderbücher, sondern Erzählungen, Sachbücher und Romane für alle Altersstufen.

Darüber hinaus nutzt Stefanie Leo Facebook und Twitter, um Leute und Dienstleister in der Kinderbuchszene miteinander zu vernetzen. So ist nach und nach ein Ökosystem entstanden, das aus Fans der Bücherkinder, Facebook-Freunden, Realwelt-Kontakten in Verlagen, Buchhandlungen und Bibliotheken besteht.

***

Aus den Erfahrungen von Stefanie Leo zeigt sich: Facebook und Twitter eignen sich als „Soziales Graswurzelnetzwerk“, um ohne großen Aufwand Werbung für ein Nischenthema zu machen. Der Bekanntheitsgrad der Bücherkinder und der Lesungen steigt langsam, aber stetig an – wem sie einmal aufgefallen sind, der empfiehlt sie gerne weiter.

Mit tausenden Besuchern ihrer Bücherkinder-Website, über 2.200 Twitter-Followern und gut 3.100 Facebook-Fans hat sie eine gut funktionierende Schnittstelle zwischen Büchern und Internet aufgebaut. Diese Verbindung zwischen analog und digital will bei vielen Verlagen und Buchhandlungen nicht so recht in die Gänge kommen. Stefanie Leo gelingt sie scheinbar mühelos.

Das liegt sicher an ihrer verbindlich-freundlichen Art, ihrer Fähigkeit zum Gespräch und ihrem Interesse an Büchern und an Menschen. Es liegt aber vielleicht auch an der Idee der Empfehlungen. Das ist so etwas der Kern der Bemühungen von Stefanie Leo. Kinder empfehlen anderen Kindern Bücher, Bücherleute empfehlen den besten Umgang mit sozialen Medien, Eltern empfehlen Links zu interessanten Websites rund um Kinderbücher.

Der lokale Buchhandel hat schon immer auf Empfehlung und Beratung gesetzt. Der Schritt ins Internet ist naheliegend. Durch die mehrseitige Kommunikation in Blogs oder sozialen Netzwerken lässt sich die buchhändlerische Empfehlung leicht digital nachbilden. Und sie lässt sich durch den Aufbau einer Fangemeinde abstützen. Dadurch entsteht ein Zwischenreich, das den klassischen Buchhandel und die neuen Möglichkeiten des Internets vereint.

Doch viele Buchhändler, aber auch Verlage verhalten sich eher abwartend. „Die Buchbranche befindet sich in einem enormen Umbruch durch E-Books, E-Commerce und viele andere Dinge,“ sagt Stefanie Leo. „Ich stehe da mittendrin. Es ist eine sehr spannende Zeit.“ Die ausgebildete Schriftsetzerin blickt von außen auf die Branche. Dort entdeckt sie viel Nachholbedarf: „Die Schuld an Problemen wird gerne bei anderen gesucht, auch beim bösen Kunden, der zu Amazon geht. Es wird nicht gefragt: Was können wir tun?“

***

„Eine Redaktion aus 50 Kindern und Jugendlichen macht viel Arbeit“, meint Stefanie Leo. „Ich kann aber vieles über soziale Medien organisieren. Die Redaktion koordiniere ich zum Beispiel über eine geschlossene Facebook-Gruppe.“ Nur für den Versand der ausgewählten Titel ist immer noch die Büchersendung der Post wichtig, der teure Teil der Aufgaben bei den Bücherkindern. Einnahmen erzielt sie unter anderem mit Verlagswerbung und Amazon-Links – zu wenig, wie sie findet.

„Kinderbuchempfehlungen sind leider kein besonders gutes Geschäftsmodell.“ Oft herrsche die Meinung vor, es sei ja für die Kultur und die Kinder, da könne man kein Geld verlangen, erzählt sie von ihren Erfahrungen. Die Umsätze aus ihrer Website sind zu gering, um als alleiniges Familieneinkommen auszureichen. Allerdings: „Ich habe hier das ideale Arbeitsmodell für eine Mutter“, findet Stefanie Leo.

„Im übrigen sind die zahlreichen Kontakte, die ich über meine Website, Facebook und Twitter bekomme, unbezahlbar.“ Sie ermöglichen ihr auch Seminare und Vorträge im Bereich Social Media für Buchhandlungen. Dies führt dann zu weiteren Bekanntschaften. Durch die gestiegene Aufmerksamkeit ist es ihr unter anderem gelungen, für die Bücherkinder den avj-Medienpreis zu gewinnen. „Der hat mir wieder viele neue Kontakte ermöglicht und zahlreiche Türen geöffnet.“

Das Geschäftsmodell von Stefanie Leo setzt auf fleißiges Netzwerken, aus dem sich Honorare oder Anzeigenkunden ergeben. „Sicher könnte ich mehr machen“, sagt sie. „Mehr Vorträge und Seminare halten, mehr herumreisen. Aber das verträgt sich nicht mit meinem Hauptberuf als dreifache Mutter. Da bin ich bewusst altmodisch. Aber trotzdem: Ich mache, was ich liebe.“ Und wer kann das schon von sich sagen.

Bildquelle: Wilhelmine Wulff  / pixelio.de

Der Wind über den Wäldern

nrw-windkraftIn Nordrhein-Westfalen gehören Windparks inzwischen zum allgemeinen Landschaftsbild: Gut 3180 Megawatt Strom werden damit an windreichen Tagen erzeugt. Das klingt nach viel, reicht aber nicht an die Leistung klassischer Kraftwerke im Rheinland heran. So hat zum Beispiel das Braunkohlekraftwerk Neurath bei Grevenbroich gute 4400 Megawatt Kapazität.

Der Vergleich ist ein wenig fies, denn Neurath ist das zweitgrößte Kraftwerk seines Typs in Europa. Besser wäre ein Vergleich mit dem Flächen- und Flachland Niedersachsen. Hier werden im Idealfall – sturmfest und erdverwachsen – sagenhafte 7337 Megawatt erzeugt. Der Abstand zwischen den beiden Ländern spiegelt ein wenig die Geografie wieder, im Rheinland beginnt das nordeuropäische Tiefland zwar, doch Niedersachsen liegt größtenteils mittendrin.

Allerdings: Eine Studie des Fraunhofer-Instituts für Windenergie und Energiesystemtechnik (IWES) ergab, dass die Ausbeutung der Windkraft innerhalb Deutschlands nicht einmal ansatzweise ausgereizt ist. Theoretisch ließen sich 13,8 Prozent der Flächen in Deutschland für Windenergie nutzen – ohne Probleme mit Natur- und Lärmschutz. Auch wenn es ein wenig nach Milchmädchen klingt: Die höchstmögliche Kapazität dieser Anlagen läge bei 1190 Gigawatt und der Ertrag bei 2,9 Millionen Gigawattstunden Strom.

Zum Vergleich: Die erreichbare Strommenge wäre fünfmal so groß wie der Stromverbrauch 2012. Klingt phantastisch und ist es auch, denn vermutlich würde bei Verwirklichung des Szenarios ein Aufstand der Wutbürger folgen – Stichwort „Verspargelung der Landschaft“. Die Studie ist also weniger als Handlungsanweisung, denn als dringende Mahnung zu verstehen. Bislang setzen viele Windenergiebefürworter in der Politik ja auf die scheinbar unproblematischen (weil bürgerfernen) Offshore-Anlagen weit, weit draußen auf See.

Da die Küstenzonen in NRW sich auf die Ränder einiger größerer Talsperren beschränken, setzt das Land seit ein paar Jahren auf den Ausbau der Onshore-Windparks. Speziell für NRW gibt es eine Studie, in der die Möglichkeiten etwas genauer ausgelotet werden. Sie zeigt eine ähnliche Tendenz wie die Fraunhofer-Studie: Machbar sind hier pro Jahr 71 Terawattstunden, etwa das Doppelte des privaten Stromverbrauchs in NRW. Das entspricht Windparks mit gut 30 Gigawatt Leistung auf etwa 3,3 Prozent der Landesfläche.

anteil-ee-stromDie Landesregierung möchte sogar noch weiter gehen. O-Ton aus dem Umweltministerium: „Um die Ausbauziele bei der Windenergie zu erreichen, müssen auch auf Waldflächen neue Vorranggebiete erschlossen werden. Der Grundstein für eine intensivere Nutzung ist bereits gelegt: Die technische Entwicklung hat neue Anlagentypen hervorgebracht, die mit Nabenhöhen von mehr als 100 Metern Höhe auch die turbulenzarmen Zonen über den Baumkronen unserer Wälder nutzen können.“

NRW hat nach Ansicht von Politik und Verwaltung mehr als genug grundsätzlich geeigneter Waldflächen, nämlich die etwa 348.000 Hektar Nadelwald außerhalb von Schutzgebieten – der klassische Nutzwald für die Herstellung von Papier, Bau-, Möbel- oder Brennholz. Das Ministerium geht davon aus, dass sich (nur) etwa drei Prozent dieses Bestandes wirklich eignen, so dass eine Anlagenleistung von wenigstens 6200 Megawatt darauf aufgebaut werden kann – gut zweimal so viel wie aktuelle Gesamtleistung im Land.

Bildquelle: Erich Westendarp / pixelio.de
Karte: Bundesumweltamt, eigene Bearbeitung
Diagramm: Bundesumweltamt

Wind energy is a big thing in Germany and also in North Rhine-Westphalia. 3180 megawatts are installed and the region ranks fourth in whole Germany. The countries secretary for the environment, Johannes Remmel, would like to push it to the front. His staff has compiled a survey of all areas that qualify for wind turbines. The result: 3,3 per cent of the countries land area can be used for a power capacity of 30 gigawatts. If some woodland is also used the result will be 36 gigawatts or more.