Künstliche Vorurteile & ihre Vermeidung

So stolperte Amazon in die Bias-Falle: Seit 2014 hat ein Team aus einem guten Dutzend Maschine-Learning-Spezialisten in Edinburgh an einer KI-Anwendung gewerkelt, die anhand von Bewerbungsunterlagen geeignete Kandidaten ermitteln sollte. Das Problem dabei: Die KI wertete Frauen ab und fischte aus dem digitalen Bewerbungsstapel lediglich die Männer heraus.

Der Grund: Eine Verzerrung („Bias“) der Trainingsdaten. Machine-Learning-Modelle müssen anhand von „korrekten“ Beispieldaten trainiert werden, etwa den Bewerbungsunterlagen von erfolgreichen Mitarbeitern. Da es hier aber um technische Berufe ging, spiegelt der Trainingsdatensatz deren Problematik wieder: Männer stellen die Mehrheit. Das Modell hat also gelernt, dass ein wichtiges Merkmal erfolgreicher Kandidaten das männliche Geschlecht ist.

Das Problem von Amazon zeigt, dass die Auswahl der Trainingsdaten entscheidend ist für den Erfolg einer KI-Anwendung. Mit dem richtigen Dataset kann die KI-Anwendung korrekt arbeiten – egal, ob es um Kandidatenauswahl oder jede andere Art von Aufgabe geht. Doch einfach ist die Bestimmung eines Dataset nicht, es können eine Reihe von Schwierigkeiten auftauchen.

Repräsentativität – Verzerrung durch Auswahl der Daten

Ein Dataset muss für seinen Anwendungsbereich repräsentativ sein, also (annähernd) vollständig über sämtliche möglichen Merkmale und Merkmalskombinationen streuen. Sonst kommt es zu schlechten Ergebnissen: Da gab es diese KI, die Schiedsrichter in einem Schönheitswettbewerb spielen sollte. Natürlich ist sie mit Fotos von Models trainiert worden, doch „Persons of Color“ waren dabei unterrepräsentiert. Und so wurden nur europäisch oder asiatisch aussehende Menschen als schön gekennzeichnet.

Doch wie erhält man einen repräsentativen Datensatz? Lediglich möglichst viele Daten zu sammeln, führt nicht weiter. Auch eine noch so große Datenmenge bewirkt nicht, dass der Datensatz insgesamt repräsentativ für etwas ist, was in der Soziologie „Grundgesamtheit“ heißt. Damit ist der Bereich gemeint, für den diese Daten eine Aussage treffen sollen – beispielsweise die Grundgesamtheit „deutsche Gesellschaft“ oder „Verbraucher zwischen 16 und 46“.

Damit eine valide Aussage entsteht, muss die Auswahl des Datensatzes zufällig sein, ohne Regeln, Voraussetzungen oder Vorurteile. Eine reine und wissenschaftlich korrekte Zufallsauswahl ist in der Praxis allerdings unmöglich. Data Scientists müssen also auf eine Heuristik zurückgreifen, bei der Merkmalsvielfalt und Vollständigkeit wichtige Kriterien sind. Was das genau bedeutet, hängt vom Anwendungsbereich ab. So müsste eine Computer-Vision-Anwendung, die Hunde von Katzen unterscheiden kann, für ihre Trainingsdaten Fotos von allen möglichen Hunde- und Katzenrassen präsentiert bekommen.

Framing – Verzerrung in der Realität

Ein weiteres heuristisches Kriterium ist Framing: Der Realitätsbereich, in dem die KI-Anwendung eingesetzt wird, ist häufig bereits verzerrt. Die Amazon-KI ist ein gutes Beispiel dafür. Technische Berufe sind üblicherweise sehr stark männlich „geframet“. Dies beginnt beim geringen Interesse der Mädchen für MINT-Fächer in den Schulen, setzt sich in den entsprechenden Studiengängen fort und wird schließlich zur Realität des überwiegend männlichen Berufs.

Es ist offensichtlich, dass hier Talente verloren gehen. So ist es für die Kandidatenauswahl eine gute Idee, gleich viele Profile von Männern und Frauen als Trainingsdatensatz zusammenzustellen. Doch das Framing betrifft nicht nur das Geschlecht. Ein anderes Merkmal könnte der (Aus-)Bildungsabschluss sein. In einem „ungeframeten“ Datensatz könnten unter Umständen auch Kandidaten ohne Hochschulabschluss oder Quereinsteiger ganz ohne formelle Abschlüsse vorkommen.

Das zeigt, dass die anfängliche Entscheidung über Ziel und Aufgabe der KI-Anwendung wichtig ist. Wer die Wirklichkeit lediglich abbilden will, muss auf Repräsentativität des Datensatzes achten, wer normative Ziele hat, eher auf eine mögliche Verzerrung das Realitätsbereichs. Wenn beispielsweise eine KI-Anwendung zur Auswahl von Bewerbern dafür sorgen soll, dass normalerweise wenig berücksichtigte Kandidaten eine größere Chance bekommen, muss der Datensatz entsprechend korrigiert werden.

Bestätigungsfehler – Verzerrung durch Vor-Urteile

Hier taucht allerdings sofort das nächste Problem bei der Auswahl von Daten auf: Der Bestätigungsfehler. Er kann in drei unterschiedlichen Varianten vorkommen:

  • Die Daten werden intuitiv ausgewählt, weil sie sich „richtig anfühlen“ und mit den Vorannahmen des Auswählenden übereinstimmen. Das Ergebnis der KI-Anwendung ist dann genau das, was der menschliche Nutzer „immer schon wusste“. In diesem Fall fehlt es an einem genauen Konzept zur Daten- und Merkmalsselektion und der Aufmerksamkeit für Verzerrungen.
  • Die Daten werden systematisch so ausgewählt, dass sie zu dem vermuteten oder gewünschten Ergebnis passen. Leider passiert das häufig in Unternehmen: Eine in der Hierarchie höher stehende Person akzeptiert nur eine bestimmte Datenauswahl und erreicht damit das erwartete und nützliche Ergebnis.
  • Die Daten besitzen einen unerkannten Bias und werden auch für den Test des Neuronetzes genutzt. Diese Vorgehensweise ist häufig, ein Dataset wird geteilt und je die Hälfte zum Training und zum Überprüfen der Ergebnisse eingesetzt. In diesem Fall bestätigt sich der Bias in einem vermeintlich validen Ergebnis – Entwickler kennen das als „Garbsage in, Garbage out“.

Der letzte Punkt ist besonders wichtig. Ein ML-Modell sollte möglichst immer an Daten getestet werden, die entweder direkt aus der Praxis kommen oder auf andere Weise gewonnen werden. In der Bilderkennung beispielsweise sollten die Datasets aus unterschiedlichen Quellen kommen, um mögliche VErzerrungen besser zu erkennen.

Seltene Ereignisse – Verzerrung durch den Faktor Zeit

Eine weitere Form der Verzerrung ist das Problem der seltenen Ereignisse, das besonders für autonome Fahrzeuge kritisch ist. Ihre ML-Modelle werden mit Aufzeichnungen von Fahrsituationen trainiert, etwa Videodaten aus Fahrerperspektive oder 360°-Darstellungen von Lidar-Scannern, die Bilder mit Laser-Abtastung erzeugen. Waymo und andere Entwickler autonomer Fahrzeuge zeichnen jede gefahrene Meile auf und bauen so nach und nach einen Datensatz aus alltäglichen Fahrsituationen auf.

Inzwischen sind diese Datasets gigantisch und erfassen viele, aber leider nicht alle denkbaren Fahrsituationen. Denn jeder menschliche Autofahrer kennt seltene Ereignisse – etwa der bunte Spielzeugball, der über die Straße rollt und Sekundenbruchteile später von einem rennenden Kleinkind verfolgt wird. Wie oft erlebt jemand diese Situation in seinem Leben tatsächlich? Keinmal, einmal, zweimal? Die meisten wohl selten. Trotzdem reagiert jeder Mensch sofort richtig. Damit eine Auto-KI diese Situation zweifelsfrei erkennt, müssen die Trainingsdaten eigentlich viele Varianten enthalten, etwa rollende Bälle unterschiedlicher Größe, Spielzeuge mit Rädern oder Haustiere.

Nur: Seltene Ereignisse in der Realität sind in einem durch Beobachtung erzeugten Dataset ebenfalls selten. Dies zeigte sich an einem tragischen Unfall mit einem autonomen Auto. Die KI erkannte die Gefahr nicht, als eine Frau nachts bei schlechter Beleuchtung ihr Fahrrad quer über eine mehrspurige Straße schob. Es gibt kaum einen Ausweg, als einfach immer weiter echte Fahrdaten zu sammeln. Deshalb ist hier ausnahmsweise die Größe des Datensatzes recht wichtig. Den größten hat Tesla, aus diesem Grunde sprechen einige KI-Experten dem Unternehmen von Elon Musk Vorteile bei der Entwicklung eines autonomen Autos zu.

Das ideale Dataset gibt es nicht

Die oben geschilderten Verzerrungen in Datasets sind nur einige Probleme. Es gibt noch weitere Verzerrungen, die in vielen Situationen zu Schwierigkeiten führen: Zu wenige geeignete Daten trotz eines großen Datasets, fehlerhafte Daten, den Mittelwert verzerrende Extremwerte, zu strenge oder zu schwache Auswahlkriterien für Daten, falsch ausgewählte Merkmale für das Training und einiges mehr.

Ohne Sorgfalt und Überlegung bei der Auswahl der Daten wird es nicht gelingen, durch das Training ein valides ML-Modell zu erhalten. Es gibt jedoch ein paar Daumenregeln. Sie helfen unter anderem dem Management eines Unternehmens, Voraussetzungen und Konsequenzen der jeweiligen Maschine-Learning-Anwendungen zu verstehen.

  • Ein sehr großes (Millionen Entitäten) Dataset ist keine Garantie für gültige Ergebnisse. Allerdings muss ein sehr klein wirkendes (wenige 100 Entitäten) Dataset besonders kritisch geprüft werden.
  • Annahmen und Voraussetzungen müssen geklärt werden. Es ist sinnvoll, in der Vorbereitungsphase eines ML-Projekts zu beschreiben, welche Annahmen für den Aufgabenbereich gelten und welche in den Trainingsdaten versteckt sein könnten.
  • Trainingsdaten sollten einerseits zufällig ausgewählt werden und andererseits möglichst breit streuen. Historische Daten aus dem eigenen Unternehmen sind oft weniger geeignet, da sie spezifische Verzerrungen enthalten können. Die finden sich dann in den Ergebnissen wieder.
  • Videobeobachtungen enthalten nur das, was tatsächlich beobachtet wurde und nicht das, was insgesamt beobachtet werden kann. Sie sind mit Vorsicht zu genießen, profitieren allerdings von der Größe des Datasets.

Quellen

  1. 7 Common Biases That Skew Big Data Results (Information Week)
  2. AI can Help Create a Better World. If we Build it Right (SingularityHub)
  3. AI has a bias problem that needs to be fixed (World Economic Forum)
  4. Amazon scraps secret AI recruiting tool that showed bias against women (Reuters)
  5. Four Mistakes You Make When Labeling Data (Towards Data Science)
  6. Four Types of Machine Learning Bias (Alegion)
  7. Problems in Machine Learning Models? Check your Data First (Towards Data Science)
  8. This is How AI Bias Really Happens and why it’s so Hard to Fix (Technology Review)
  9. To fix algorithmic bias, we first need to fix ourselves (Quartz)
  10. Towards Fairness in ML with Adversarial Networks (Go Data Driven)
  11. We need to build machine learning tools to augment machine learning engineers (O’Reilly Radar)

Bildquelle: Secondside / Adobe Stock

Traumjob Data Scientist

Beschaffung, Bearbeitung, Auswertung und Interpretation von Daten aller Art — so lässt sich das Berufsbild des Data Scientist oder Datenwissenschaftlers beschreiben. Data Science gilt als Teil der angewandten Mathematik und ist ein Querschnittfach, dass sich irgendwo zwischen Informatik, Mathematik und Statistik bewegt. Und es hat ein enorm gutes Image, denn die Harvard Business Review hat den Data Scientist zum Sexiest Job des 21. Jahrhunderts ausgerufen. Das zeigt sich auch im Jobranking von Glassdoor: Der Datenwissenschaftler landete in diesem Jahr zum vierten Mal in Folge auf dem ersten Platz.

Das Berufsbild ist recht heterogen. „Es entwickelte sich im Zuge der sich ändernden Bedürfnisse aus der Wirtschaft heraus. Daher begründet sich auch der hohe Praxisbezug“, betont Michaela Tiedemann, CMO bei der Data-Science-Beratung Alexander TAM GmbH, in einem Blogbeitrag, der einen Überblick über Berufsbild und Ausbildungsmöglichkeiten in Deutschland gibt.

Der deutsche Arbeitsmarkt für Data Scientists

Stellen für Datenwissenschaftler sind trotz der Neuigkeit des Berufsfeldes gar nicht so selten. Die Ergebnisse der Jobsuchmaschine Joblift sollten repräsentativ sein, da der Service große Stellenmärkte wie Stepstone und Monster auswertet – auch wenn Dubletten möglich sind. So gibt es im Moment etwa 1.200 offene Jobs für den Suchbegriff „Data Scientist“. Verwandte Berufe wie Data Analyst (1.600 Treffer), Data Engineer (1.800 Treffer) und Data Architect (1.100 Treffer) haben ähnlich viele Treffer. Zum Vergleich: Für Softwareentwickler gibt es zehnmal so viele Anzeigen.

Um in den Data-Science-Jobs arbeiten zu können, müssen Bewerber recht hohe Anforderungen erfüllen. Denn Datenwissenschaftler haben oft eine gehobene Position in technischen Fachbereichen. Dementsprechend gehört neben Kenntnissen in Informatik und Mathematik vor allem analytisches Denken, Kommunikationsstärke und Führungsfähigkeit zu den wichtigen Muss-Kompetenzen eines Datenwissenschaftlers – meint die Recruiting-Agentur AlphaJump in ihrem Karriereguide zum Data Scientist.

Das stark nachgefragte Berufsbild hat auch die Universitäten aufmerksam gemacht. So gibt es seit etwa 2016 eine Vielzahl an Masterstudiengängen zum Datenwissenschaftler, wohl an mehr als 20 Universitäten. Die ersten Absolventen dürften gerade auf den Markt kommen. Allerdings ist im Moment noch nicht ganz klar, wie der Arbeitsmarkt für sie aussieht. Ein genauer Blick zeigt, dass sie vermutlich bei vielen Anzeigen keinen Erfolg haben werden.

[toggle title=“Einige Beispiele für Stellenanzeigen:“]

  • Das bekannte Systemhaus Bechtle sucht einen Data Scientist mit mehrjähriger Berufserfahrung, der sich laut Anzeige mit Software für Data Analytics, klassischen RDBMS und No-SQL-DBMS auskennen sollte. Zu allem Überfluss sollte er oder sie auch noch Kenntnisse in Bereichen wie Virtualisierung oder Predictive Maintenance mitbringen.
  • Auch Discounter Aldi stellt Data Scientists ein, unter anderem im Supply Chain Management. Hier ist ebenfalls Berufserfahrung im Bereich Data Science oder Business Analytics gefragt sowie idealerweise Kenntnisse der Besonderheiten der Handelsbranche. Hinzu kommt noch Erfahrung mit SAP-Software, die in Mainstream-Unternehmen immer noch der Standard ist.
  • Die Telekom hat mehrere Positionen im Bereich Data Science ausgeschrieben, mit einer Gemeinsamkeit: Neben einem MINT-Studium ist mehrjährige Berufserfahrung notwendig, für Senior-Positionen sogar mindestens fünf Jahre. Das stimmt mit den Anforderungen überein. Der Telekom sind neben Kenntnissen in Sachen Datenanalyse noch solche über Software-Engineering, agile Methoden und Cloud-Technologien wichtig — alles IT-Spezialitäten, die niemand in einem Wochenendkurs lernen kann, denn sie erfordern in erster Linie praktische Erfahrung.

[/toggle]

Die Erkenntnis aus der Durchsicht einiger Dutzend Stellenanzeigen: Ohne Berufserfahrung und ein recht breites Skillset geht wenig. Natürlich gibt es auch Angebote für Hochschulabsolventen und auch Ausschreibungen von Praktika, häufig mit der englischsprachigen Stellenbeschreibung „Intern“. Das sind allerdings trotz des Verweises auf Data Science meist eher Stellen mit Assistenzcharakter. Sie sollten aber ausreichen, um erste Erfahrungen zu sammeln.

In Singapur ist es nicht anders als in Deutschland

Trotzdem ist ein Einstieg in die Data Science nicht einfach, auch nicht in der englischsprachigen Welt. Hanif Samad ist Datenwissenschaftler, aber erst nach Überwindung einiger Hindernisse. In einem ausführlichen und hochinteressanten Artikel für das Online-Magazin „Towards Data Science“ kommt er angesichts seiner anfänglich nicht erfolgreichen Bewerbungen zu einem bestechenden Schluss: Er will sich weniger auf das verlassen, was Data Scientists wissen sollen, sondern mehr darauf, was sie in der Praxis tatsächlich machen.

Denn Samad ist bei seiner Informationssuche im Vorfeld der Bewerbungen auf ein Problem gestoßen: Schon eine oberflächliche Google-Suche fördert zahlreiche Ratgeber zutage, die unglaublich viele Must-Have-Skills aufzählen. Dadurch entsteht das Bild eines allumfassend kompetenten Super-Datenwissenschaftlers, das nur leider realitätsfremd ist. Um ein besseres Bild zu erhalten, hat Samad 869 LinkedIn-Profile ausgewertet, in denen als Berufsbezeichnung Data Scientist und als Ort Singapur vorkommt — dort hat er sich gezielt beworben.

[toggle title=“Hier einige seiner Erkenntnisse im Detail:“]

  • Fast drei Viertel der Data Scientists haben entweder einen Masterabschluss oder einen Ph. D. Lediglich 6 Prozent waren Quereinsteiger mit nicht-traditioneller Zertifizierung.
  • Mit 14 Prozent hat die Informatik den größten einzelnen Anteil an den Studienabschlüssen. Die unterschiedlichen Ingenieurdisziplinen kommen auf 22 Prozent, die unterschiedlichen Studiengänge für Mathematik, mathematische Physik, Statistik sowie angewandte Mathematik haben ein Anteil von 12 Prozent. Heimlicher Gewinner dieser Statistik ist jedoch das Feld Business Analytics, das sich auf unterschiedliche Studiengänge verteilt und zusammen 15 Prozent ausmacht – viele davon Master und keine Ph. Ds.
  • Die Berufserfahrung der untersuchten Datenwissenschaftler liegt je nach höchster Qualifikation zwischen vier und sechs Jahren. So gibt auch der Blick in die Realität wider, was bereits aus den Stellenanzeigen abzulesen war: Neu eingestellte Datenwissenschaftler sind normalerweise keine frischen Hochschulabsolventen.
  • Die meisten Positionen von Datenwissenschaftlern in den Unternehmen sind vergleichsweise neue Stellen: Etwa drei Viertel haben ihre Position seit weniger als zwei Jahren. Gut 42 Prozent der Stellen sind sogar jünger als ein Jahr.
  • Aus dem letzten lässt sich ableiten, dass ein großer Teil der Datenwissenschaftler vor ihrem Einstieg in die Data Science eine andere Position in ihrem Wissensgebiet hatten. Auch das lässt sich über LinkedIn gut herausfinden: Zu gleichen Teilen waren sie Wissenschaftler, Software Engineers, Analysten und interessanterweise auch Praktikanten und Trainees.
  • Die Hälfte der untersuchten Datenwissenschaftler waren nicht bei Technologie-Unternehmen angestellt. Sie hatten häufig Positionen in der Finanz- und Versicherungswirtschaft, bei Beratungsunternehmen, in der Industrie und der Wissenschaft.

[/toggle]

Die Ergebnisse von Samad lassen sich nicht ohne weiteres auf Deutschland übertragen, doch sie besitzen einiges an Plausibilität auch für hiesige Verhältnisse und passen gut zur Analyse der Stellenanzeigen. Zusammengefasst sagen sie: Data Science steht Leuten offen, die einen Background aus Mathematik plus Informatik besitzen und mindestens drei Jahre Berufserfahrung haben sollten. Idealerweise haben sie vorher in der IT gearbeitet und praktische Erfahrungen gesammelt, bevor sie sich auf Data Science spezialisiert haben.

Der lange Weg zum Data Scientist

Für Studierende und Absolventen der einschlägigen MINT-Fächer bedeutet das: Sie sollten nach dem Studium zunächst einmal in die Praxis gehen und dabei auf einen ordentlichen IT-Anteil ihrer Tätigkeit achten. Doch praktische Erfahrungen sind nicht alles. Data Scientists müssen auch bestimmte Spezialisierungen haben, um problemlos einen Job zu finden. Studenten und Absolventen müssen darauf achten, die richtigen Dinge zu lernen, meint Jeremie Harris. Der Data Scientist ist Mitgründer eines Mentoring-Programms für Absolventen, die als Einsteiger in der Data Science arbeiten möchten — was zumindest in den USA nicht grundsätzlich ausgeschlossen ist.

Sein Artikel in „Towards Data Science“ richtet sich an Absolventen von MINT-Fächern und empfiehlt ihnen den Einstieg in einige grundlegende Wissensgebiete und Fähigkeiten. Dazu gehören Python-Kenntnisse, Wahrscheinlichkeitstheorie und Statistik. Hilfreich ist außerdem ein Einblick in die Grundzüge des Software Engineering — Stichwort Dokumentation und Versionierung. Zudem müssen Data Scientists auch einen Instinkt dafür entwickeln, welche Lösung in pragmatischer Hinsicht gefragt ist. Tipp: Technisch optimale Lösungen sind nur selten pragmatisch optimal. Zudem müssen die Datenwissenschaftler in der Lage sein, einem nicht-technischen Publikum ihre Konzepte, Projekte und Ergebnisse verständlich zu erklären.

Diese Anforderungen sind vielen Absolventen nicht bekannt und zudem machen sie nach Ansicht von Harris bei der Jobsuche häufig einen Fehler: Sie vermuten, dass es bei einem Bewerbungsgespräch darum geht, sich als der technisch kompetenteste Bewerber für die ausgeschriebene Position zu beweisen. Er hat andere Erfahrungen gemacht: „In Wirklichkeit wollen Unternehmen Menschen einstellen, die ihnen helfen, schneller mehr Geld zu verdienen.“ Das klingt flapsig, aber es ist in der Tat Grund Nummer Eins für die Existenz eines Unternehmens. Bewerber sollten das bedenken.

Im tiefen Tal der Bewerberhölle

Nun klingt das so als ob die Unternehmen eigentlich immer wissen, was sie wollen. Nichts könnte falscher sein. „Vorstellungsgespräche für eine Rolle in der Datenwissenschaft sind schwierig“, fasst der Mathematiker und Data Scientist David Neuzerling seine Erfahrungen in einem Blogbeitrag zusammen. „Vielen Unternehmen ist klar, dass sie etwas mit Daten machen müssen. Aber sie haben keine Ahnung, was genau.“ So könne es seiner Erfahrung nach vorkommen, dass Unternehmen von Machine Learning reden, aber in Wirklichkeit nur ein paar Dashboards wollen.

Deshalb rät Neuzerling Bewerbern, unbedingt konkrete Fragen zu stellen. So ist es sinnvoll, die Schlüsselworte aus der Stellenbeschreibung aufzunehmen und nach konkreten Einsatzbereichen, den verwendeten Frameworks, der Anzahl der Projekte und der Größe der Teams zu fragen. Er warnt besonders vor Stellenausschreibungen mit mehrfachen Berufsbezeichnungen wie „Data Scientist/Data Engineer“ oder „Data Scientist/Software Developer“. Neuzerling: „Das sind Anzeichen dafür, dass ein Unternehmen nicht weiß, was es von einem Kandidaten will.“

Darüber hinaus rät er aus eigener Erfahrung, Bewerbungsgespräche mit seltsamen Praktiken sofort abzubrechen. Er erwähnt beispielsweise Videointerviews, in denen er vorgefertigte Fragen beantworten solle oder Prüfungen, in denen er eine Stunde lang handschriftlich Code schreiben musste. Seine Kritik an den Unternehmen: „Sie vergessen, dass Rekrutierung ein zweiseitiger Prozess ist.“ Er rät allerdings auch, sich nicht entmutigen zu lassen — es gebe genügend gute Jobs da draußen.

Und das liebe Geld? Tja …

Die anfangs erwähnte Glassdoor-Statistik deutet es an: Mit einem Median-Einkommen von 108.000 US-Dollar ist man zumindest im nordamerikanischen Raum ein gut verdienender Experte. Einen detaillierten Einblick in die Gehaltsstruktur zeigt die Statistik der IEEE. Erwartungsgemäß verdient man in San Francisco am meisten (>166.000 USD). Interessanterweise gilt das auch, wenn die Lebenshaltungskosten in die Statistik einfließen. Dann entspricht das kalifornische Gehalt zwar nur 121.000 Dollar anderswo, aber anderswo verdient ein Datenwissenschaftler auch bereinigt weniger.

Umgerechnet bedeutet das: In den USA verdient ein erfahrener und erfolgreicher Data Scientist leicht 100.000 Euro pro Jahr. Von solchen Zahlen können die deutschen Datenwissenschaftler nur träumen. Laut der Gehaltsstatistik von Stepstone liegen typische Gehälter zwischen 47.600 und 60.700 Euro pro Jahr. Das ist weit von den US-Gehältern entfernt, zumal hier in Good ol‘ Germany auch die Steuer härter zuschlägt als in den USA. Kurz und gut: Beim Geld ist noch ordentlich Luft nach oben.

Wer kann und mag, sollte über einen Job in den USA nachdenken. Stellen gibt es und es muss ja nicht gleich die Auswanderung sein. Ein paar Jahre in den USA sind in Digitalwirtschaft und Informationstechnologie auf jeden Fall gute Karriere-Booster, jedenfalls in europaweiter Perspektive. Neben Geld ist natürlich auch die Art und Weise der Jobs wichtig. Dinge wie Mindset des Teams und der Vorgesetzten, Unternehmenskultur, Innovationsfreudigkeit, Chancen für eine Unternehmensgründung oder schlicht die Offenheit gegenüber den Ideen und Vorschlägen eines Berufsanfängers — das findet sich mit hoher Wahrscheinlichkeit eher in Kalifornien, aber auch in anderen Gegenden der wirklich sehr großen US of A.

Bildquelle: Pixabay

Elektrisierend: Der neue VW ID.3

  • © Volkswagen AG
    Der neue VW ID.3 ist da.

Daran habe ich nicht geglaubt: Dass es ausgerechnet einem der größten und (Halten zu Gnaden) von außen komplett einbetoniert wirkenden Konzerne — der Volkswagen AG — gelingt. Nämlich ein Auto der Kompaktklasse zu bauen, das auf Augenhöhe mit Tesla ist; wenigstens auf Zehenspitzen. Natürlich käme es für eine endgültige Bewertung auf einen mehrwöchigen Praxistest an. Mein Erkenntnisse sind zu 100 Prozent theoretisch und gewonnen aus der Auswertung diverser YouTube-Videos und Presseberichte.

Innen ein Passat, außen ein Golf

Von außen wirkt der Wagen modern und elegant, obwohl er eine kurze und auf den ersten Blick etwas knubbelig wirkende Fronthaube hat. Er erinnert damit ein wenig an einen Kompaktvan. Der Wagen ist in etwa so lang wie ein Golf (4,26 m), hat aber dank der verkürzten Front einen deutlich größeren Radstand von 2,77 Metern — was nach Auskunft von Kennern einem Passat entspricht.

Dadurch wirkt der Wagen wie ein quantenphysikalisches Wunder: Er ist innen größer als außen. Das liegt an den üblichen Relationen von Autos der Jetztzeit. Sie sind nämlich insgesamt sehr pausbackig, da die ganze Bordelektrik mit Zillionen Stellmotoren, Knautschzonen und Aufpolsterungen für Airbags und Soundsysteme schließlich untergebracht werden müssen. Das vergrößert die Wagen enorm und der Innenraum wächst nicht mit. Die geringe Größe von Elektromotoren sowie das niedrige Volumen der Zusatzaggregate erlauben deshalb einen deutlich größeren Innenraum bei gleichen Außenmaßen.

Eine weitere Van-Anmutung bewirken die Akku-Packs im Boden. Sie bedingen eine etwas erhöhte Sitzposition, die beim ID.3 allerdings zu einer recht geringen Kopffreiheit führt. Hier hätte VW noch ein paar Zentimeter hinzulegen können. In YouTube-Videos von der IAA war zu sehen, dass Leute meiner Größe (1,91 m) so gerade eben hineinpassen. Meinen Schwager (2,04 m) möchte ich eigentlich nicht im ID.3 sitzen sehen …

Die techno-spartanische Revolution geht weiter

Der Instrumentenbereich ist scheinbar karg eingerichtet. Doch das hat seinen Grund, denn erstens steigt die Anzahl der Funktionen in einem Auto. Dadurch wird die herkömmliche Bedienung über eine Batterie an Knöpfen, Schaltern und Hebeln immer undurchschaubarer. Zweitens ist die Vielzahl der Bauteile schlicht ein Kostenfaktor. Sie müssen eingekauft, Löcher und Verkabelung montiert werden und nicht zuletzt vervielfältigt sich der Montageaufwand durch Konfigurationsoptionen.

Die Vielfalt der Funktionen und Ausstattungsvarianten lässt sich über einen Touchscreen viel leichter abbilden. Per Software kann ohne Kostenaufwand ein Knöpfchen hier oder ein Slider da eingeblendet werden. Darüber hinaus ist es auch möglich, Funktionen jederzeit nachzurüsten. Tesla hat’s vorgemacht, die Benutzeroberfläche des großen Touchscreens in der Mitte hat sich von Versionssprung zu Versionssprung deutlich verändert. Das gibt den Herstellern die Möglichkeit, aus Feedback zu lernen und dabei Verbesserungen sofort allen Kunden verfügbar zu machen.

Software-basierte Instrumentierung wird sicher bald zum Standard in allen Fahrzeugklassen gehören. Zwar kostet auch deren Entwicklung Geld, doch sie ist deutlich flexibler. So ist es möglich, ein Autobetriebssystem zu schaffen, dass für alle Autoklassen vorbereitet ist. Dann unterscheidet sich der Kleinstwagen vom Oberklasse-Flaggschiff auf Seiten der Software nur durch die im „Build“ verwirklichten Funktionen. Und tatsächlich: VW konzipiert zur Zeit ein einheitliches Car-OS, das in allen Modellen aller Marken eingesetzt werden soll.

Die richtige Reichweite für den typischen Fahrer

Praktisch für die Kalkulation des Autokaufs: Den ID.3 gibt es mit gestaffelten Akkugrößen und deshalb auch Staffelpreisen. VW gibt Kapazitäten von 45, 58 und 77 kWh für Reichweiten von 330, 420 und 550 Kilometern an. Sie werden mit dem halbwegs realitätsnahen WLTP-Zyklus bestimmt. Erfahrene Elektroautofahrer sagen, dass diese Angaben allerdings nur dann realistisch sind, wenn der Fahrer ganz entspannt unterwegs ist, etwa auf der Autobahn mit wenig mehr als 100 km/h.

Außerdem hängt die Reichweite auch von der Effizienz der Elektromotoren und der Leistungsentnahme aus den Batterien ab. Das Tesla Model 3 gilt hier als vorbildlich und kann dies auch in der Praxis beweisen: Elektroauto-Pionier Holger Laudeley schafft es, mit seinem Tesla ohne Ladestopp von Bremen nach Berlin zu fahren, indem er mit gemütlichen 90-100 km/h ganz rechts einem Lkw „hinterherökologisiert“. Es bliebe sogar noch genügend Restkapazität übrig, um eine Sightseeingtour durch Berlin zu fahren.

Der kleinste Akku eignet sich für budget-bewusste Wenigfahrer, die das Auto nur selten und über nicht so lange Strecken bewegen. Mal ehrlich: Dieses Nutzungsszenario trifft auf mindestens 90 Prozent aller Autobesitzer zu. Doch auch Pendler sind mit dem Einstiegsmodell gut bedient, eine Tagesleistung von 200+ Kilometern ist drin. Wer jetzt noch zu Hause und am Arbeitsplatz laden kann, hat im laut VW unter 30.000 Euro liegenden Einstiegsmodell eigentlich das ideale Elektroauto. Durch die serienmäßig verfügbare Schnellladung mit 100 Kilowatt sind auch längere Strecken möglich, erfordern aber ein paar Ladestopps mehr als mit dem größten Akku.

Die deutsche Krankheit: Morbus Pretiosa Configuratio

Die deutschen OEMs sind die Weltmeister der verdeckten Preisexplosion. Gerne bewerben sie die Preise der Einstiegsmodelle ohne zusätzliche Pakete und Optionen. Das sieht dann ganz ordentlich und mittelklasse-artig aus. Doch das böse Erwachen kommt, wenn man ein bisschen Komfort, den ein oder anderen Assistenten und ein paar Sicherheitsmerkmale möchte. So ist es auch beim ID.3, viele Komponenten gibt es nur gegen Aufpreis, einige davon sind sogar unerlässlich für das richtige Elektroauto-Feeling.

So besitzt die Serienversion des ID.3 zwar einen Wärmetauscher, aber keine Wärmepumpe — die ist nur zusätzlich zu buchen. Der Unterschied: Der Tauscher führt Wärme ab, die Pumpe beherrscht auch die Gegenrichtung und kann den Akku vorwärmen. Ein Akkumanagement mithilfe von Wärmepumpen ist ideal. Der Grund: Stromaufnahme und -entnahme am Akku sind nur in einem engen Temperaturbereich optimal. Die Wärmepumpe führt die bei schneller Fahrt und schnellem Laden entstehende Wärme ab und temperiert den kalten Akku im Winter vor. Zudem ermöglicht sie auch eine effiziente Innenraumheizung, die nicht rein elektrisch ist und das Bordnetz belastet.

Eine Wärmepumpe hat zudem den Vorteil, dass die hohen Geschwindigkeiten des DC-Ladens in jeder Situation ausgenutzt werden können. Denn Leistungseinbrüche gibt es ohne dieses Gerät nach schnellen oder langen Fahrten sowie nach Kurzstrecken bei winterlichen Temperaturen. Gut, das sich VW bei dieser Technologie an Tesla orientiert hat; schlecht, das es die Wärmepumpe nur gegen Aufpreis gibt. In der Praxis wird sich zeigen, wie gut der Wärmetauscher arbeitet oder ob es wie beim Nissan Leaf 2 zu Problemen auf längeren Fahrten mit mehreren Ladestopps kommt — dort bricht die Ladeleistung mit jedem Stopp immer weiter ein.

Motorleistung: Ausreichend in jeder Situation

Ungewöhnlich für VW ist die einheitliche Motorisierung der drei Varianten. So gibt es ausreichende 150 PS (110 kW) mit beeindruckenden 310 Newtonmetern Drehmoment. Zum Vergleich: Der in der Leistung vergleichbare 1,5 l TSI-Motor bringt in einem Golf mit Doppelkupplungsgetriebe etwa 250 Newtonmeter bei optimaler Drehzahl. Auch die Beschleunigung des Elektroautos ist besser, die Version mit 77 kW Akku ruft enorme Leistung ab und bringt es in 7,5 Sekunden auf 100 km/h. Der TSI braucht fast eine Sekunde mehr.

Doch bei Elektromotoren ist die Frage nach der Leistung im Grunde überflüssig, sie ist normalerweise in jeder Situation ausreichend. Cool ist allerdings das bei Elektromotoren sehr hohe und praktisch direkt nach dem Anrollen wirksame Drehmoment. Normalerweise schlägt ein Elektroauto beim Ampelstart jedes Verbrennerfahrzeug mit gleicher Leistung und zwar völlig problemlos. Und seien wir (wieder einmal) ehrlich: Schon geil, dass man mit dem Tesla Model 3 Perfomance eine Endgeschwindigkeit von 261 km/h erreicht – aber wo sollte man so schnell fahren und warum?

Ebenso ungewöhnlich für VW ist der Heckantrieb. Doch dieses Antriebskonzept hat in einem Elektroauto erhebliche Vorteile. Es erlaubt erstens die kurze Front bei großen Innenraum und zweitens ein vergleichsweise sportliches Fahrverhalten — ein Praxistest müsste aber die theoretische Aussage prüfen. Auch im Winter sollte der Heckantrieb wegen der Motorposition an der Hinterachse unproblematisch sein, zumal die Zusatzaggregate vorne liegen und die Straßenlage verbessern. Zum Vergleich: Fahrer von Teslas mit Heckantrieb berichten von einem völlig problemlosen Fahrverhalten bei Schnee.

Wenn der Riesentanker eine Heckwende macht

Der ID.3 ist ein Fahrzeug der Golfklasse und richtet sich damit an durchschnittliche Autofahrer(innen) mit einem durchschnittlichen „Use Case“. Er ist aufgrund seines großen Innenraums und des normal dimensionierten Kofferraums ein guter und bequemer Familienwagen für bis zu vier Personen. Außer für Vielfahrer und Langstreckenpendler sollte die Basisversion mit der geringsten Reichweite ausreichen, aber im Alltag kaufen die meisten Leute lieber einen Sicherheitspuffer dazu. Sie fahren also eigentlich zu groß dimensionierte Autos. Das wird beim ID.3 nicht anders sein.

Dem Volkswagen-Konzern ist es gelungen, ein wirklich gutes Elektroauto auf den Markt zu bringen. Es befriedigt die Erwartungen und Wünsche der heutigen Autofahrer, berücksichtigt die Besonderheiten von Elektroautos und weist in die Zukunft — etwa durch den Einsatz von Touchscreens, Head-up-Displays und berührungsaktiven Knöpfen (wo es sie überhaupt noch gibt). Weder bei der Ausstattung noch bei der Reichweite müssen die Käufer große Kompromisse eingehen.

Doch wird der Wagen auch ein Verkaufsrenner? Das ist schwer vorherzusagen, denn die Preise sind schon ganz ordentlich. So wird für eine Vollausstattung mit großem Akku vermutlich ein Preis jenseits der 50.000 Euro fällig. Hier befindet sich VW in Tesla-Dimensionen, das Model 3 Performance kostet ohne weitere Optionen ähnlich viel. Der vergleichsweise hohe Preis ist den im Moment noch hohen Akkupreisen geschuldet, denn VW muss Zellen zukaufen, während Tesla sie selbst herstellt. Das zeigt, dass die deutschen OEMs spät dran sind. Trotz seiner hohen Qualität muss der ID.3 erst noch zeigen, ob er VW zum elektromobilen Erfolg führt.

Vom Urknall zum Leerraum

(c) Rogelio Bernal Andreo / Nasa Image Gallery

Vor 50 Jahren bauten Menschen mit vier Computern das Internet. Dies war die Sekunde Null des digitalen Universums, der Urknall. Es folgten eine Expansionsphase, das Erscheinen von seltsamen Attraktoren und schließlich das Ende als weitgehend ungenutzte Leere.

1969: Der Urknall des Internets mit vier Computern

Die Geschichte des Internet beginnt in den späten 60er Jahren in den USA. Die dem amerikanischen Verteidigungsministerium unterstellte ARPA („Advanced Research Projects Agency“) subventionierte Entwicklungen im Bereich der Computervernetzung. Die ARPA begann 1969, die Rechner der verschiedenen militärischen und akademischen Einrichtungen in den USA untereinander zu vernetzen. Das Netz trug den Namen ARPAnet und bestand anfangs aus lediglich vier Rechnern.

Das ARPAnet wuchs langsam, aber stetig. Schnell zeigte sich, dass nicht nur das Verteidigungsministerium einen Bedarf an Vernetzung hatte: Weitere Organisationen, Regierungsdienststellen und eine Reihe von Firmen aus dem Sektor Netzwerktechnologie wollten teilhaben. Um dem gestiegenen Bedarf gerecht zu werden, wurde die bestehende Netzstruktur aus etwas mehr als 50 Rechnern ab 1973 auf ein neues und speziell für das ARPAnet entwickelte Protokoll umgestellt: IP, das Internet Protocol. Es ist heute noch die technische Basis des Internets.

Anfang 1981 bestand das ARPAnet aus 213 Rechnern. Die militärischen Teile gliederten sich in einem eigenen Unternetz namens Milnet aus. Das ARPAnet als Ganzes wurde seit etwa 1983 immer öfter als „Internet“ bezeichnet. Auch international schritt die Vernetzung fort und seit Mitte der achtziger Jahre wurden überall auf der Welt verstärkt IP-Netze aufgebaut und mit dem amerikanischen Internet verbunden. 1989 waren etwa 80.000 Rechner am Internet angeschlossen – in der Überzahl Universitäten, staatliche Einrichtungen und Forschungsinstitute.

[toggle title=“Grafik: Anzahl der Computer im Internet“]

Das Internet Systems Consortium hat bis vor einiger Zeit den sogenannten Internet Domain Survey durchgeführt, eine Zählung der öffentlich zugänglichen IPv4-Adressen. Das sind nicht ausschließlich Server mit einem spezifischen Angebot. Viele Rechner nutzen das Internet über eine feste IP-Adresse. Das sind oft Gateways für die Computer von Heimanwendern. Für die letzten Jahre ist dieser Survey nicht mehr zuverlässig, da die Anzahl der über IPv6-Adressen zugänglichen Rechner stark gestiegen ist. Deshalb ist Survey ausgesetzt.

[/toggle]

1992: Beginn der Expansion dank World Wide Web

Mit dem Beginn der neunziger Jahre explodierte das Internet. Anfang 1991 waren etwa 376.000 Rechner angeschlossen, 1996 bereits mehr als 21 Millionen. Dazwischen lag die Einführung des World Wide Web (WWW). Ursprünglich war das nur einer von vielen Diensten im Internet, doch inzwischen gibt es neben E-Mail eigentlich nur noch das Web. Erfunden wurde es von dem britischen Physiker und Informatiker Tim Berners-Lee. Er arbeitete Ende der achtziger Jahre am CERN in Genf und schlug der Direktion ein modernes Informationsmanagementsystem vor, das den Datenaustausch unter Forschern vereinbaren sollte.

Grundprinzip des Web ist sogenannter Hypertext: Informationen sind in  Textform auf Seiten dargestellt und untereinander mit Links verknüpft. Ein Mausklick darauf und schon taucht eine andere Seite auf, die weitere Informationen liefert. Das Web wurde binnen weniger Jahre zu einem gigantischen Erfolg, aufgrund seiner leichten Verständlichkeit, den vielfältigen Anwendungsmöglichkeiten und der Tatsache, dass Berners-Lee keine geschäftlichen Interessen mit seiner Erfindung verfolgte. Er hat damit eine kostenlos nutzbare Infrastruktur für den freien Austausch von Informationen geschaffen.

1992 ging das Web offiziell online, so dass jeder einen Webserver aufsetzen und dort irgendetwas anbieten konnte. Zunächst gab es nur zehn Webserver weltweit, ein Jahr später bereits 130 und bereits 1997 wurde die Millionengrenze überschritten. Die Entwicklung beschleunigte sich nach der Jahrtausendwende noch einmal deutlich stärker, denn es gab immer mehr Möglichkeiten im Web: Musik hören, Videos gucken, spielen, plaudern, kaufen, sich selbst darstellen und digitalen Sex haben — oder wenigstens anschauen.

2006: Das Erscheinen des seltsamen Attraktors Facebook

Soziale Netzwerke wie Friendster oder Myspace waren einer der vielen Subtrends im Web der Nuller Jahre. Vor allem Myspace hat wegen der quietschbunten und beliebig knetbaren Oberfläche rasch Millionen Fans gefunden. Doch die sozialen Netze der Anfangszeit existieren nicht mehr oder sind bedeutungslos. Nachzügler Facebook hat durch geschickte Adaption diverser Trends und eine ebenso geschickte Einkaufspolitik eine umfassende Infrastruktur aufgebaut.

Inzwischen ist ein großer Teil der Weltbevölkerung bei Facebook, Instagram oder WhatsApp vertreten. Das soziale Netzwerk von Mark Zuckerberg hat sich zu einem enormen Attraktor entwickelt, dessen Schwerkraft Nutzer in Milliardenzahl anzieht. Viele Leute kennen fast nur noch Facebook und identifizieren es mit dem Internet. Kein Wunder, kann man dort doch ohne Wechsel der Website mit Familie und Freunden plaudern, Nachrichten lesen, spielen, über Themen diskutieren und noch so manches mehr.

Durch die ebenfalls bedeutenden Plattformen Instagram und WhatsApp hat das Unternehmen Facebook einen enormen Einfluss auf die Jugendkultur und speziell auf die Internetkultur. Zwar ist das Selfie auf Myspace entstanden, aber erst die Nutzer von Instagram haben es perfektioniert und sogar zum Geschäftsmodell gemacht – der Influencer entstand. Das Unternehmen hat sogar technologische Trends umgekehrt: Der Aufstieg von WhatsApp hat den Abstieg der SMS bewirkt, die inzwischen mehr und mehr in der Nische verschwindet.

[toggle title=“Grafik: Anzahl der Websites im Internet“]

Die Menge der Websites wird über eine Domainzählung sowie zusätzlichen statistischen Erhebungen von Internet Live Stats geschätzt. Dabei ist die Anzahl der Sites nicht deckungsgleich mit der Anzahl der an das Internet angeschlossenen Computer, die diese Websites beherbergen. NetCraft hat im August 2019 etwa 8,94 Millionen solcher Computer ermittelt. Tatsächlich aktive Websites werden über eine Eigenheit des „Domain-Parking“ erkannt: Da die jeweiligen Websites über Vorlagen erzeugt werden, ist ihre Struktur immer gleich.

[/toggle]

2019: Das Internet besteht aus leerem Raum

Das Internet des Jahres 2019 ist ein seltsamer Ort. Es gibt ungefähr 1,7 Milliarden einzelne Websites, aber nur ein paar Dutzend sind tatsächlich von großer Bedeutung. Hinzu kommt, dass viele Services nicht primär über eine Website genutzt werden — etwa Instragram und WhatsApp oder WeChat und TikTok aus China.

Das Bemühen dieser wenigen Websites ist es, die Nutzer anzuziehen und festzuhalten. Google muss man bei der Informationssuche oft nicht mal mehr verlassen, die wichtigsten Stichworte werden dort angezeigt. YouTube bietet alles, was sich in Form eines Videos pressen lässt — von der Mathehausaufgabe über Kochrezepte bis in zu Verschwörungstheorien. Die Nutzer verbringen Stunden dort und informieren sich häufig überhaupt nicht mehr aus anderen Quellen.

Der Rest des World Wide Web besteht in erster Linie aus leerem Raum. Mashable weist darauf hin, dass der größte Teil aller Websites aus inhaltslosen Seiten besteht, für ungenutzte und lediglich geparkte Domain-Namen. Die Anzahl der aktiven Websites liegt nur bei etwa 200 Millionen, der Wert wächst kaum noch. Der Rest ist ein einziges großes Nichts, 90 Prozent Leere und Stille.

„Ich schick mir die Daten mal nach Hause“

… sagt jeder zweite Angestellte gelegentlich, auch wenn das in Unternehmen meist verboten ist. Trotzdem: Der digitale Arbeitsplatz ist in vielen Firmen bereits angekommen, durch die Hintertür. Aber er sieht nicht so aus, wie sich das Anbieter von Lösungen für den Digital Workplace vorstellen.

Improvisation, das Umgehen von Sicherheitsbestimmungen, der Einsatz von nicht offiziell zugelassenen Apps und die Allzweckwaffe Excel bestimmen immer noch die tägliche Arbeit der meisten Angestellten in deutschen Unternehmen. Auch die verbotene Nutzung von privaten Mailkonten ist üblich. Denn oft müssen Mitarbeiter von außerhalb auf Dokumente zuzugreifen — auch wenn es dafür offiziell keine Tools gibt, oder zumindest nicht die richtigen.

Private Apps und Mailkonten als Notwehr

Etwa jeder zweite Mitarbeiter in den befragten Unternehmen einer Studie von Citrix gibt an, berufliche Dokumente an die private E-Mail-Adresse zu senden, wenn das nötig sein sollte. Und wenn die E-Mail nicht ausreicht, suchen sich Mitarbeiter eigene Wege zum Ziel, so wie die acht Prozent der Befragten, die eine persönliche Cloud nutzen. Das bedeutet den einfachen Dokumentenaustausch via Dropbox oder der Einsatz von unkomplizierten, aber privaten Apps für Termin- und Aufgabenverwaltung — inklusive aller Risiken für Datenverlust und Sicherheitsbrüche.

Die Ergebnisse der Citrix-Studie sind nicht erstaunlich. Bereits Anfang des Jahres hat der D21-Digital-Index 2018/2019 festgestellt, dass lediglich 16 Prozent der Unternehmensmitarbeiter in Deutschland über einen echten digitalen Arbeitsplatz verfügen. Was zu der Frage führt: Wie sieht ein komfortabler und effizienter Digital Workplace eigentlich aus? Die Antwort: Er befindet sich auf einer Informations- und Arbeitsplattform im internen Netz des Arbeitsgebers und führt alle Daten und Anwendungen aus dem gesamten Portfolio der Business-Software zusammen.

In der Praxis bedeutet dies, dass die Mitarbeiter ihre Arbeitsumgebung auf jedem beliebigen Gerät inklusive Smartphones vorfinden und dort eine für ihren Job notwendigen Aufgaben erfüllen können — etwa das Schreiben von E-Mails, Berichten und Präsentationen oder der Zugriff auf Geschäftsanwendungen. Kurz: Ein digitaler Arbeitsplatz integriert sämtliche sonst getrennten Anwendungen unter einer einheitlichen Oberfläche. Ein solcher virtualisierter Desktop ist die entscheidende Komponente eines modernen Arbeitsplatzes.

Digitale Arbeitsplätze machen es Mitarbeitern leichter

Der Digital Workplace unterscheidet sich erheblich von dem herkömmlichen Desktop unter Windows. Trotzdem finden sich Mitarbeiter problemlos damit zurecht, denn die wirklichen Unterschiede sind erst unter der Haube sichtbar. Alle Anwendungen inklusive des Desktops selbst werkeln im Rechenzentrum oder der Cloud. Der lokale PC dient lediglich der Anzeige des Desktops und erfüllt nur nachrangige Aufgaben. Er ist zum smarten Terminal degradiert, das vielleicht noch Daten zwischenspeichern darf, damit nicht immer die gesamte Arbeitsumgebung neu übertragen werden muss.

Solche neuartigen, IT-basierten Arbeitsformen zahlen sich für Arbeitgeber aus. In der letztjährigen IDC-Studie Future of Work zeigte sich, dass jeweils ein gutes Drittel der Unternehmen Kosteneinsparungen und Produktivitätsgewinne verzeichnet. Das klingt im ersten Moment nicht nach viel, doch in den meisten Unternehmen findet echtes — mobiles — digitales Arbeiten leider nicht statt.

Den schwarzen Peter hat hier die Geschäftsführung. Denn grundsätzlich ist laut der Citrix-Studie ein großer Teil der Mitarbeiter daran interessiert, moderne digitale Produktivitätswerkzeuge einzusetzen. So glaubt fast jeder zweite, dass diese Hilfsmittel das effiziente Arbeiten befördern und ein knappes Viertel vermutet, dass sie die Produktivität steigern. Auch die viel zitierte Technikfeindlichkeit in Deutschland gilt offensichtlich nur für eine Minderheit: 60 Prozent der befragten Arbeitnehmer sind neugierig, wenn ihr Unternehmen die vorhandene IT-Ausstattung durch neue Tools ersetzt.

Die Mitarbeiter sind weiter als die Unternehmen

„Mangelndes Interesse für neue Technologien kann man deutschen Arbeitnehmern nicht vorwerfen“, kommentiert Oliver Ebel, Area Vice President CE von Citrix die Ergebnisse der Studie. „Technologie und die Möglichkeiten, die moderne IT bietet, sehen die meisten Menschen in ihrem Privatleben. Im Job ist es dagegen immer noch oft nicht möglich, schnell ein paar Dokumente in die Cloud zu ziehen.“ Das senke die Effizienz in den Unternehmen und frustriere die Mitarbeiter.

Denn die die wollen längst etwas anderes als den klassischen Arbeitsalltag der Industrieproduktion: Laut D21-Digital-Index findet fast die Hälfte der Berufstätigen, dass zeitlich und räumlich flexibles Arbeiten die Lebensqualität steigert. Zwar sind längst nicht alle Jobs dafür geeignet, aber Büroarbeit ist ohne Verrenkungen auch zu Hause zu bewältigen. Doch sehr viele Unternehmen sind der flexiblen Heimarbeit gegenüber generell kritisch eingestellt.

Typische Gegenargumente finden sich in einer Bitkom-Umfrage: Die Mitarbeiter sind nicht jederzeit ansprechbar (33%), die Arbeitszeit ist nicht zu kontrollieren (29%), die Datensicherheit ist bedroht (22%), die technische Ausstattung ist zu teuer (16%) und Identifikation der Mitarbeiter mit dem Unternehmen könne sinken (9%). Eigentlich sind es keine Argumente, sondern Ausreden. Für jedes dieser Scheinprobleme gibt es eine praktische Lösung und sei es der Verzicht auf Arbeitszeitkontrolle und Anwesenheitswahn.

Digitale Leichtigkeit vs. Industriegesellschaft

Manches Hindernis wird auch durch den Regulierungswahn in Deutschland aufgebaut: Zwischen zwei Arbeitsphasen muss eine elfstündige Mindestruhezeit liegen. Das ist für den klassischen Malocher eine sinnvolle Regel. Heute führt sie aber dazu, dass jeder, der spätabends noch mal die dienstlichen Mails checkt und morgens an seinen Schreibtisch pendelt, ungesetzlich handelt – eigentlich, denn die meisten machen es halt trotzdem.

Solche Eigentümlichkeiten führen dazu, dass die meisten Arbeitgeber auf Nummer sicher gehen. Sie wollen den Angestellten bei der Arbeit sehenselbst wenn er hin und wieder lediglich „arbeitet“. Demgegenüber steht die digitale Leichtigkeit der mobilen und virtuellen Desktops. Kein Problem, auch sonntags vormittags mal eine Stunde an der schon längst überfälligen Präsentation zu feilen — wenn es denn die Familie toleriert.

Was ist besser? Das Festhalten am Taylorismus der Industriegesellschaft oder das Akzeptieren einer digitalen Arbeitswelt, die eher auf Ergebnisse als auf Anwesenheit achtet? Meiner Einschätzung nach ist der störrische Widerstand gegen Homeoffice, Mobilität und Flexibilität lediglich ein Rückzugsgefecht. Die traditionell-hierarchisch organisierten Unternehmen haben bereits jetzt verloren.

Humaner Output: 39 Bit/s

Italiener sind Schnellsprecher, Deutsche dagegen bevorzugen das langsame Reden mit langen Substantiven — so ungefähr lauten die Klischees. Ganz falsch ist das nicht, denn italienischsprecher bringen bis zu neun Silben pro Sekunde an den Gesprächspartner, Deutschsprecher dagegen nur fünmf bis sechs Silben. Trotzdem übermitteln beide, ebenso wie der Rest der Menschheit, die gleiche Informationsmenge mit ihrer jeweiligen Sprache: nämlich 39 Bit pro Sekunde.

Diesen Wert hat ein Forschungsprojekt an der Universität von Lyon festgestellt.  Damit bestätigt sich eine These, nach der die Sprechgeschwindigkeit zusammen mit der Informationsdichte einer Sprache immer ungefähr die gleiche Informationsmenge ergibt. Informationsdichte Sprachen verpacken die Syntax in kleinere Einheiten, sodass die Sprecher nur langsam vorankommen. Weniger informationsdichte Sprachen wie etwa Italienisch können deshalb schneller gesprochen werden.

In einer ausführlichen Studie schildern die Wissenschaftler ihr Vorgehen. Sie haben zunächst die Informationsdichte pro Silbe für 17 Sprachen berechnet. Anschließend ging es für drei Jahre in die Feldforschung: Die Forscher haben für die Sprachen jeweils fünf männliche und weibliche Sprecher rekrutiert, die 15 identische Passagen in ihrer Muttersprache vorgelesen haben. Für einige Sprachen wurden vorhandene Tonaufnahmen eingesetzt, sodass für alle 17 Sprachen eine durchschnittliche Sprechgeschwindigkeit von Silben pro Sekunde ermittelt werden konnte.

Durch Multiplikation der Sprechgeschwindigkeit mit der Informationsdichte kam heraus, dass die Bitrate menschlicher Sprecher im Durchschnitt etwa 39,15 Bit/s beträgt. Ein wichtiger Schluss daraus: Jede Sprache ist hinsichtlich ihrer Effizienz bei der Informationsübertragung vollkommen gleichwertig.