Die digitale Wirtschaft

Digital, innovativ und exponentiell wachsend

Die in den vorherigen Kapiteln besprochenen Technologien und Erfindungen hatten große Auswirkungen auf die Wirtschaft und die Gesellschaft. In den letzten 30 Jahren fand ein Übergang von der traditionellen physikalischen Wirtschaft zu einer digitalen informationsverarbeitenden Wirtschaft statt. Erik Brynjolfsson und Andrew McAfee von der MIT Sloan School of Management fassen diese Änderungen mit den folgenden drei „Bausteinen“ zusammen [BA14]:

  1. Die Digitalisierung von Informationen und die Vernetzung von Computern und Mobiltelefonen
  2. Die großen Fortschritte der Informationstechnik durch exponentielles Wachstum
  3. Kombinatorische Innovationen

Die beiden Wissenschaftler sind der Meinung, dass sich die Menschheit am Anfang einer zweiten Industrialisierung befindet, am Anfang eines zweiten Maschinenzeitalters. Sie glauben, dass in den nächsten Jahrzenten noch sehr viele weitere Änderungen folgen werden. Aber was genau hat sich eigentlich geändert?

Digitalisierung und Vernetzung

Unter Digitalisierung versteht man die Speicherung von Informationen als Folge von Bits, also von Nullen und Einsen. Die Informationen werden als Daten „konserviert“ und verarbeitet, wie in den vorhergehenden Kapiteln besprochen.

Der zweite Baustein ist die schnelle Verbreitung von Daten über das Internet: die Vernetzung. Vor dem Internet wurden Daten mit Datenträgern ausgetauscht, wie z. B. CD-ROMs, DVDs oder Magnetbändern. Heute geht es wesentlich schneller und preiswerter. Auch können Computerprogramme miteinander Daten austauschen, man spricht hier von Maschine-zu-Maschine-Kommunikation (M2M). Die Möglichkeiten der Kommunikation sind immens gestiegen.

Wenn neue technische und soziale Erfindungen auftreten, gibt es in der Wirtschaft und in der Gesellschaft Interessenskonflikte. Denn üblicherweise hat der etablierte Teil der Gesellschaft ein nicht so großes Interesse an den Änderungen, weil er mit den bestehenden Methoden schon gut lebt. Nur „Unzufriedene“ wollen eine Änderung. Das war auch bei der Verbreitung des Internets zu beobachten.

Das erste „Opfer“ der Digitalisierung und des Internets war nämlich die Musikindustrie. Musik wurde im Jahr 1999 noch auf CD-ROMs vertrieben. Die Musik selber war schon digital gespeichert, aber das Medium war noch nicht das Internet. Es war technisch sehr einfach, eine CD-ROM auszulesen und auf einem Internet-Server zu kopieren. Andere konnten sich diese „Raubkopie“ dann herunterladen und auf CD brennen. Die Musikindustrie galt bei vielen auch als sozial ungerecht, weil sie sehr reiche Superstars produzierte, aber CDs doch recht teuer waren. So kam es 1999 zur Gründung der „Musiktauschbörse“ Napster [Hin13]. Hier konnten „Raubkopien“ der CDs heruntergeladen werden.

Die Unterhaltungsindustrie startete den „War on piracy“ (Anmerkung: in den USA gibt es viele solcher „Kriege“, wie z. B. den „War on drugs“, den „War on terrorism“ und den „War on poverty“). Dieser „Krieg“ war eine der ersten Auseinandersetzungen zwischen einer alten etablierten Industrie und dem damals neuen Internet und seinen Möglichkeiten. Napster war sehr erfolgreich und hatte über 26 Millionen Nutzer. Die Musikindustrie versuchte alles, um Napster zu stoppen und startete viele Gerichtsverfahren. Die vielen Rechtstreitigkeiten zwangen Napster auch schließlich 2001 zur Schließung. Allerdings gab es inzwischen viele Nachahmer, wie z. B. FastTrack, Gnutella, Kazaa oder BitTorrent. Der „Krieg“ war also für die Musikindustrie noch lange nicht gewonnen [Hin13]. Die alte Welt gab es nicht mehr, in der sich Musik nur über CDs und Radio-Programme ausbreiten konnte. Die vielen Rechtsstreitigkeiten waren nur kleine Wassertropfen auf einem sehr heißen Stein. Die Musikindustrie musste einen Weg finden, das Kopieren von MP3s zu verhindern. Eine Lösung war die digitale Rechteverwaltung („digital rights management“, DRM). Eine Musikdatei ist damit nur auf einem bestimmten Gerät des Käufers abspielbar und nicht mehr auf anderen Geräten. Die Dateien sind zwar noch einfach zu kopieren, aber für andere nutzlos. Der Vertrieb dieser „kopiergeschützten“ Musik geschah über einen eigenen „Store“ im Internet. Als eine der ersten Firmen führte Apple 2003 den „iTunes Store“ ein. Dieser war zusammen mit dem Abspielgerät namens iPod ein Riesenerfolg.

Wichtig: Die Musikindustrie hatte ein neues Geschäftsmodell benötigt. Das alte war durch die technologische Entwicklung bedroht.

Wichtig ist auch zu sehen, das die Musikindustrie vor dem Internet keineswegs ideal war und auch die Einkommen sehr ungleich verteilt waren. Wenn eine etablierte Industrie aufgrund von neuer Technik bedroht wird, kommt es aber oft zu einer „Beschönigung“ der alten Zustände.

Videos benötigen wesentlich mehr Speicherplatz als Musik. Daher war die Filmindustrie erst später vom Internet betroffen als die Musikindustrie. Aber auch hier gab es zuerst Rechtsstreitigkeiten mit den Tauschbörsen. Die Platzhirsche der etablierten Industrien versuchten, den Rechtsweg auszuschöpfen. Aber wie bei der Musikindustrie brauchte es eine Änderung des Geschäftsmodells: das Streaming. Man zahlt einen monatlichen Mitgliedsbeitrag und kann dann Filme gucken, die man aus einem „Pool“ von Filmen auswählen kann. Die Filme werden beim Sehen direkt aus dem Internet geladen. In den USA hat hier Netflix angefangen, in Deutschland die Telekom. Heutzutage betrifft der Anteil von Video-Stream-Daten einen großen Teil des Internetverkehrs. Technisch gesehen, benötigt man die alten Fernsehleitungen nicht mehr. Man kann alles über das Internet übertragen.

Auch Software lässt sich heute „online“ kaufen. Angefangen hat hier Apple mit dem iPhone und den „Apps“. Inzwischen sind diese „App-Stores“ sehr weit verbreitet. Es gibt sie auf allen Spielkonsolen, PCs und Mobiltelefonen. Auch Bücher gibt es digital, manche Firmen setzen auf DRM, andere nicht. Manche geben auch frei kopierbare Bücher unter der Creative-Commons-Lizenz heraus, die wir weiter unten besprechen werden.

Exponentielles Wachstum

Verschiedene Arten des Wachstums

Der Spruch „Wir befinden uns auf der zweiten Seite des Schachbretts“ wird in der Zukunft noch öfter bei Diskussionen über Computertechnik zu hören sein. Er wird verwendet, um besonders große Fortschritte zu erklären. Um zu erklären, was damit gemeint ist, muss man allerdings ein wenig ausholen und zuerst ein paar Grundlagen behandeln. Es gibt verschiedene Arten von Wachstum. Als Beispiel sind in der folgenden Tabelle vier typische Arten von Wachstum aufgeführt:

Das einfachste ist das sogenannte lineare Wachstum. Hier wird der Wert immer um den gleichen Wert größer. In diesem Fall wird immer 1 hinzuaddiert. Es kann mathematisch als f(n) = n ausgedrückt werden oder rekursiv als f(n) = f(n-1) + 1. Beim quadratischen Wachstum wird n immer quadriert, d.h. f(n) = n^2. Das quadratische Wachstum wächst superlinear, also schneller als linear. Ein Beispiel für sublineares Wachstum ist das logarithmische Wachstum, das in der Informatik sehr häufig vorkommt1.

In folgendem Funktionsgraph werden diese drei Wachstumsarten veranschaulicht:

Ein solcher Funktionsgraph wird oft auch einfach nur Graph genannt, aber dann besteht Verwechslungsgefahr mit den Graphen, die Netzwerke darstellen. Der Funktionsgraph hat zwei Achsen: eine waagerechte x-Achse und eine senkrechte y-Achse. Auf der x-Achse sind Werte von 1 bis 10 eingetragen und auf y-Achse die davon abhängige Anzahl aus der obigen Tabelle. Mit diesen Funktionsgraphen kann man das Wachstum schnell einordnen.

Es gibt noch eine sehr viel schneller steigende Art von Wachstum: das exponentielle Wachstum. Hier wird der vorherige Wert immer verdoppelt: f(n) = 2 * f(n-1) = 2^n. Als Veranschaulichung wird häufig die indische Legende von der Erfindung des Schachspiels erzählt. Der Erfinder des Schachs stellt das Spiel seinem Herrscher vor und der Herrscher war so begeistert, dass er den Erfinder belohnen wollte. Der Erfinder entgegnete ihm, dass er in Reiskörnern belohnt werden wollte: auf das erste Feld des Schachfelds sollte ein Reiskorn liegen, auf dem zweiten zwei, auf dem dritten vier, auf dem vierten acht, usw. Die Anzahl der Reiskörner sollte immer verdoppelt werden. Damit war der Herrscher einverstanden und erlebte eine böse Überraschung. Denn die Anzahl der Körner wurde ziemlich schnell sehr groß. Es ist das exponentielle Wachstum zur Basis 2. Ein Schachbrett hat 8*8=64 Felder und die Zahl 2^63 (2 hoch 63) ist sehr viel größer als es damals auf der gesamten Welt Reiskörner gab [Kur06, BA14]2.

Das exponentielle Wachstum ist in der vorherigen Abbildung nicht abgebildet, weil sich dann die anderen drei Kurven nicht gut unterscheiden lassen würden, wie die folgende Abbildung zeigt:

Diese „Exponentialkurven“ haben bemerkenswerte Eigenschaften, die den Umgang mit ihnen schwierig macht: Auf einem Diagramm sieht die Steigung einer Exponentialkurve am Anfang immer aus wie lineares Wachstum. Im obigen Beispiel ist bis zum Wert 4 fast kein Unterschied zum linearen Wachstum erkennbar. Später dann gibt es einen „Wendepunkt“ (im Diagramm bei ca. 8) und die Exponentialkurve sieht am Ende fast senkrecht aus. Es kann also sein, dass ein Wissenschaftler einen Prozess mit exponentiellen Wachstum beobachtet, er das aber erst bemerkt, wenn es zu spät ist. Der Umgang mit exponentiellem Wachstum erfordert also eine gewisse Übung und Vorsicht.

Ist viel Wachstum gut oder schlecht? Das kommt natürlich drauf an, ob etwas Positives oder etwas Negatives wächst. Das Wachstum des Wohlstands ist natürlich gut, das Wachstum von Armut nicht. Exponentielles Wachstum kann auch sehr negativ sein, z. B. die Hyperinflation in den 20er-Jahren in Deutschland und Österreich oder bei der Ausbreitung von Krankheiten.

Das Mooresche Gesetz

Ein Beispiel für positives exponentielles Wachstum wurde 1965 von Gordon Moore gefunden: ca. alle 18 Monate verdoppelt sich die Anzahl der Transistoren in integrierten Schaltkreisen. Das heißt, dass die Komplexität der Computer sich alle 18 Monate verdoppeln kann. Die Ingenieure können „doppelt“ so viel „Logik“ einbauen und z. B. die Anzahl der Kerne in einer Multicore-CPU erhöhen3.

Dieses Mooresche Gesetz ist allerdings kein „Gesetz“ im Sinne eines Naturgesetzes, sondern eine empirische „Beobachtung“. Die Verdopplung tritt nicht zwangsläufig ein. Den vielen beteiligten Forschern und Unternehmen ist es bisher immer gelungen, die Anzahl der Transistoren zu verdoppeln, weil sie neue Techniken erfanden und z. B. die Integrationsdichte von Chips stark erhöhten. Das muss aber nicht immer so weitergehen und da es kein Naturgesetz ist, wurde auch schon oft ein Ende des Mooreschen Gesetzes vorhergesagt. Laut dem heutigen Diskussionstand soll es aber noch mindestens bis 2030 halten [BA14]. Und – wie wir im Laufe des Abschnitts noch sehen werden – ist es sehr schwierig, weiter darüber hinaus in die Zukunft zu gucken.

Was hat das jetzt mit der zweiten Hälfte des Schachbretts zu tun?

Das exponentielle Wachstum wächst immer stärker! Zuerst sind die Unterschiede ganz klein 1, 2, 4, 8, 16. Später aber werden die Unterschiede immer größer. Wenn dann in 18 Monaten eine Verdopplung von 2^32 (2 hoch 32) zu 2^33 in 18 Monaten passiert, dann ist das schon sehr viel mehr. Wissenschaftler haben sich die Entwicklung der Anzahl der Transistoren angeguckt und herausgefunden, dass 2006 die 32. Verdopplung stattgefunden hat [BA14]. Die Computer werden also in den nächsten Jahren enorme Leistungssprünge machen. Der Fortschritt in diesem Bereich wird schneller werden als in der Vergangenheit.

Extrapolation

Wenn man erahnen möchte, wie die Welt in 10 Jahren aussieht, könnte man die Welt von heute mit der Welt vor 10 Jahren vergleichen und dann „extrapolieren“. Man ermittelt die Unterschiede, die in den 10 Jahren entstanden sind und addiert diese zum heutigen Stand hinzu. Man überlegt sich, wieviel Speicher ein PC hatte, wie schnell die CPU war, wie viele Kerne die CPU hatte, usw. Und addiert die Differenz dann zu den heutigen Werten drauf.

Aber das funktioniert nicht. Denn das Bild, das durch diese „lineare Extrapolation“ entsteht, wird früher erreicht als in 10 Jahren. Das würde funktionieren, wenn die Anzahl der Transistoren linear wachsen würde. Bei exponentiellem Wachstum geht das nicht [Kur06].

Machen wir mal eine vereinfachte Rechnung mit dem Mooreschen Gesetz, d.h. das sich alle 18 Monate die Anzahl verdoppelt. Nehmen wir an im Jahr 2006 gab es die 32. Verdopplung. Wie groß war die „Beschleunigung“ in den 10 Jahren vor 2006, also von 1996 zu 2006, und wie groß war die Beschleunigung in den 10 Jahren nach 2006, also von 2006 zu 2016?4

Die Antwort: Das Wachstum in den 10 Jahren danach ist 64-mal größer als das Wachstum in den 10 Jahren davor.

Und genau dieser Sachverhalt ist die Grundlage dafür, dass Menschen exponentielles Wachstum intuitiv falsch bewerten und damit auch die Zukunft falsch einschätzen. Bei der Extrapolation darf man daher die Differenzen nicht addieren, sondern muss sie multiplizieren.

Wichtig: Exponentielles Wachstum ist in der Zukunft schneller als in der Vergangenheit. Das macht die Vorhersage der Zukunft schwierig.

Weitere „Wachstumsgesetze“

Es gibt noch weitere Beispiele für exponentielles Wachstum. Ein Beispiel aus der Vergangenheit sind die Kosten für Licht, diese sind exponentiell gesunken. Früher gab es nur Kerzenlicht und dieses war am Anfang nur reichen Leuten vorbehalten. Im Laufe der technischen Entwicklung wurde Licht immer billiger, aber man musste früher sehr viel länger für eine Stunde Kerzenlicht arbeiten, als heute für eine Stunde Glühlampenlicht [Gil13, War07]. Allerdings wurden Licht und Strom in einigen Ländern im Rahmen des Umweltschutzes in letzter Zeit wieder etwas teurer.

Heutzutage wächst im Computerbereich nicht nur die Anzahl der Transistoren, sondern auch die Energieeffizienz FLOPS/Watt, die Kapazität von Festplatten in Bytes/Dollar und die Internet-Downloadgeschwindigkeit in Bytes/Dollar [BA14]. Die Anzahl der Daten, die in einem Glasfaserkabel pro Sekunde übertragen werden können, verdoppelt sich laut „Butter’s Gesetz“ alle 9 Monate [SC13, Gil13].

Das „Gesetz“ des steigenden Ertragszuwachses

Aber das sind alles Einzelphänomene. Manche Leute haben es schon intuitiv gespürt, aber es stimmt: die ganze Welt entwickelt sich immer schneller. Es ist ja nicht nur die Computertechnik. Nachdem z. B. Alexander Graham Bell 1876 das Telefon (weiter-)entwickelt hatte, vergingen mehr als 50 Jahre bis die Hälfte der Amerikaner eins hatte. Beim Smartphone (nicht Mobiltelefon) hat das nur noch 5 Jahre gedauert. Die ganze Welt ist unwahrscheinlich „produktiv“ geworden [DMW15].

Das, was ein einzelner Mensch leistet, wird seine Produktivität genannt. Die Produktivität der Gesellschaft ist dann die Summe der einzelnen Produktivitäten. In der Vergangenheit ist aufgrund der Vernetzung durch das Internet die Anzahl der Menschen in der Produktentwicklung und in der Forschung gestiegen. Zum Beispiel hat es in China, Indien und Brasilien große Fortschritte bei der Integration von Menschen in die Weltwirtschaft gegeben. Es arbeiten jetzt mehr Menschen mit. Und auch die Produktivität ist aufgrund der computerunterstützen Forschung und Produktentwicklung gestiegen. Die gesamte Produktivität der Gesellschaft – die kollektive Intelligenz – ist gestiegen. Und sofern keine Kriege oder andere Katastrophen dazwischen kommen, wird sie auch weiter steigen. Es ist eine „positive Feedback“-Schleife entstanden, die dafür sorgt, dass die Entwicklung immer schneller wird. Der Zukunftsforscher Raymond Kurzweil hat dieses im „Gesetz des steigenden Ertragszuwachses“ („the law of accelerating returns“) zusammengefasst [Kur06]. Nach Kurzweil ist der Fortschritt sogar „doppelt exponentiell“, weil die Digitalisierung für eine enorme Steigerung des Wachstums sorgen kann und noch nicht alle Bereiche des Lebens digitalisiert wurden. Sobald eine Technologie mit der Informationstechnologie produziert werden kann, wird der technologische Wissensstand exponentiell steigen. Mit dem Internet der Dinge werden demnächst die physikalischen Objekte „digitalisiert“ (siehe Abschnitt 10.4). Mit der Genetik, Nanotechnologie und der Robotik stehen laut Kurzweil noch ein paar Kandidaten für große Wachstumssteigerungen in Aussicht. Raymond Kurzweil hat 2005 in seinem Buch geschrieben, dass sich der Fortschritt alle 10 Jahre verdoppelt. Im Jahr 2015 gab es seiner Vorhersage nach also doppelt so viel Fortschritt wie 2005.

Wichtig: Die gesamte Menschheit entwickelt sich immer schneller. Daher ist die Zukunft sehr schwer vorherzusagen.

Die digitale Ökonomie

Die drei Bausteine Digitalisierung, das exponentielle Wachstum und die kombinatorischen Innovationen führen zu einer digitalen Ökonomie, in der sich vieles von der traditionellen materiellen Ökonomie unterscheidet [BA14, SV98]. Die drei größten Unterschiede sind die folgenden:

  • Rivale Güter vs. nicht-rivale Güter
  • Knappheit vs. Überfluss („scarcity vs. abundance“)
  • Netzwerkeffekte

Rivale Güter werden beim Konsum verbraucht, wie z. B. Lebensmittel. Einen Kuchen kann man nur einmal essen. Nicht-rivale Güter hingegen werden bei der Benutzung nicht verbraucht. Digitale Daten verbrauchen sich nicht, eine MP3-Datei kann man beliebig oft hören. Verbrauchen tun sich allerdings die Speichermedien, wie Festplatten und USB-Sticks und das Abspielgerät. Auch sind viele Zwischenstufen zwischen „rival“ und „nicht-rival“ möglich. Ein Hammer z. B. kann hintereinander von mehreren Menschen benutzt werden, er verbraucht sich auch, aber nicht schnell. Ein Bleistift verbraucht sich schneller.

Digitale Güter sind nicht-rival und lassen sich außerdem auch leicht kopieren. Damit sind sie (fast) unbegrenzt verfügbar, sofern sie einmal erstellt wurden. Nur die erste Erstellung kostet. Diese erste Erstellung kann natürlich auch sehr teuer sein, wie z. B. bei Hollywood-Filmen oder bei Computerspielen. Das Computerspiel „Grand Theft Auto 5“ z. B. hatte ein Budget von über 250 Millionen US Dollar. Carl Shapiro und Hal R. Varian drücken das folgendermaßen aus „Information ist teuer herzustellen, aber billig zu kopieren“ [SV98]. Digitale Güter sind nicht mehr knapp. Physikalische Güter, wie z. B. Autos oder Waschmaschinen, haben hier andere Eigenschaften. Es macht zwar preislich einen großen Unterschied, ob man nur 10 Autos herstellt oder 10.000, weil die Massenproduktion durch Optimierung die Stückkosten senken kann. Aber auch das 10.001 Auto ist nur mit erheblichen Kosten zu produzieren. Ökonomen nennen die Kosten vom Übergang der Herstellung von n Stück zu n+1 Stück die Grenzkosten oder Marginalkosten. Diese sinken in der Regel. Sprichwörtlich kann man sagen „je mehr man herstellt, desto billiger wird es pro Stück“. Eine Kopie einer Datei kostet aber immer gleich viel und ist von Anfang an niedrig.

In allen Netzwerken kann man sog. Netzwerkeffekte beobachten. Stellen Sie sich vor, noch niemand hätte ein Telefon. Dann macht es für den Einzelnen auch keinen Sinn, sich ein Telefon zu kaufen, weil die meisten Leute auch noch keins haben. Je mehr Leute sich aber eins kaufen, desto mehr Leute sind erreichbar und desto mehr lohnt es sich. Der Nutzen eines Netzwerks steigt mit der Anzahl der Benutzer. Je mehr Benutzer einsteigen, desto mehr Nutzen bekommt das Netzwerk [BA14, Kad11, EK10].

Aufgrund dieser drei Eigenschaften (nicht-rivale Güter, Überfluss und Netzwerkeffekte) ist die digitale Ökonomie anders als die traditionelle. Das hat zu vielen Änderungen geführt, z. B. bei den Geschäftsmodellen.

Innovationen vs. Wettbewerb

Früher musste ein Unternehmen viele Dienstleistungen selber ausführen. Im Folgenden sind einige Dinge aufgeführt, die eine Firma bis in die 90er-Jahre hinein benötigte [Hin13]:

  • Räume: Büros, Produktionsstätten, Lager
  • Ausrüstung, Inventar
  • Postversand und -empfang
  • Druckaufträge
  • Personal und Personalverwaltung: Direktoren, Abteilungsleiter, Sekretärinnen, Manager, Arbeiter, Verkäufer, Notare

Dieses war mit hohen Kosten verbunden. Heute wurde davon vieles digitalisiert und lässt sich inzwischen von anderen Unternehmen als Dienstleistung beziehen. Daher muss eine Firma selber nicht mehr so viele Menschen einstellen und damit ist in kleinen Firmen auch keine Personalabteilung notwendig. Die Beschäftigung von Subunternehmern, Freiberuflern und Selbständigen auf Vertragsbasis ist nicht nur flexibler als die klassische Anstellung, sondern aufgrund der Spezialisierung auch notwendig. Denn ein einzelnes Unternehmen kann nicht für alle Fragestellungen einen Experten in Festanstellung beschäftigen. Leider werden flexible Einstellungsmodelle in der EU in vielen Ländern behindert [Hin13] oder es herrscht große Rechtsunsicherheit wie in Deutschland.

Auch braucht ein Unternehmen heute große Teile seiner Produkte nicht mehr selber herstellen, sondern kann diese bei Zulieferfirmen in Auftrag geben. Die Chiphersteller Apple, NVIDIA oder AMD lassen z. B. alle beim Halbleiterhersteller TSMC fertigen. Digitale Produkte benötigen keine Verpackung und werden nicht per Post versendet. Die Kommunikation innerhalb von Firmen wurde durch Email, Chat, Video-Konferenzen, usw. erheblich verbessert [Hin13]. Und auch die Kosten für die Gründung von Unternehmen wurden in vielen Ländern gesenkt. In Europa ist es jedoch immer noch teurer als in den USA.

Es ist heute also relativ einfach möglich, selber ein Unternehmer zu werden. Das ist heute nicht mehr gleichbedeutend mit „Kapitalist“, weil heute nur noch wenig Kapital erforderlich ist. Man braucht das unternehmerische Wissen und die Geschäftsidee.

Früher war der technische Fortschritt sehr viel langsamer. Die Wirtschaft war weniger dynamisch und alles lief aus heutiger Sicht wie in Zeitlupe ab. Ein typischer Arbeitnehmer machte eine Ausbildung und arbeitete dann bis zur Rente in wenigen Unternehmen. Manche arbeiteten sogar ihr Leben lang in nur einem Unternehmen.

Im Großen und Ganzen war der globale Wettbewerb im 20. Jahrhundert ein langsamer Prozess. In den meisten Märkten gab es ein paar weltweit agierende dominante Unternehmen. Diese Firmen standen gegenseitig im Wettkampf, wie z. B. Ford versus General Motors, Coca-Cola versus Pepsi oder Burger King versus McDonald’s [DMW15]. In diesem Klima war „Wettbewerb“ in der Managementliteratur das wichtigste Thema, wie z. B. das Buch „Competitive Advantage: Creating and Sustaining Superior Performance“ von Michael E. Porter von 1985 zeigt [Por85]. Da es weniger Innovationen gab, waren die Märkte statischer und die Wirtschaft war meistens ein Nullsummenspiel: Die eine Firma konnte nur auf Kosten der anderen Firma gewinnen. Es ging immer um Marktanteile. Ein großer Teil der Unternehmensstrategie galt daher dem Wettbewerb: Beobachtung der Wettbewerber, Analyse der Struktur des Marktes, Verteidigung des eigenen Terrains und Angriff der anderen Firmen [Por85]. „Competition“ war das Zauberwort und prägte auch die amerikanische Kultur der 80er-Jahre von Soap-Operas wie Dallas bis hin zur Hip-Hop-Musik, bei der meist männliche Sänger ein ausgeprägtes Konkurrenzverhalten betonten. Damals dachte man „Ich kann nur gewinnen, wenn ich besser bin als andere, wenn ich andere besiege, wenn ich andere schlage“.

Aufgrund der langsamen technischen Innovation waren die Märkte „fix“, d.h. sie änderten sich nicht. Daher waren sich die verkauften Produkte über einen langen Zeitraum alle sehr ähnlich bis zur nächsten Innovation. Ein Unternehmen in einem solchen Markt kann die Produkte nur über den Preis und die Qualität differenzieren: das Produkt muss günstiger werden. Also suchen die Unternehmen nach Möglichkeiten, die Kosten zu senken. Das ist auf der einen Seite eine Optimierung des Produktionsprozesses, der zu begrüßen ist. Auf der anderen Seite wird auch versucht, bei den Arbeitern und Angestellten zu sparen. Dieses wurde z. B. damit erreicht, die Produktion in andere Länder zu verlegen. Preiswettkämpfe werden in fixen Märkten immer härter. Es setzt ein Wettbewerb um die niedrigsten Kosten ein. Dieses ist auf der Angebotsseite im Unternehmen für Angestellte und Zulieferer schlecht, auf der Nachfrageseite wiederum gut, denn die Produkte werden billiger. Wie bereits früher in Abschnitt 5.4 erklärt, hat in der Ökonomie alles zwei Seiten wie das Yin und Yang-Symbol.

Die Wirtschaftswissenschaftler und Unternehmensberater W. Chan Kim und Renée Mauborgne haben die passendste Metapher für fixe Märkte gefunden, in denen der Wettbewerb „blutig“ und gnadenlos wurde: Ein Markt mit viel Wettbewerb ist ein „roter Ozean“. Ein Markt mit wenig Wettbewerbern ist hingegen ein „blauer Ozean“. In ihrem Buch „Der Blaue Ozean als Strategie: Wie man neue Märkte schafft, wo es keine Konkurrenz gibt“ entwickeln sie ein „Programm“, mit dem Unternehmen auf die Suche nach blauen Ozeanen gehen können [KM05].

Ein großer Teil der Kritik am „Kapitalismus“ bzw. an der Marktwirtschaft ist aufgrund dieser „roten Ozeane“ entstanden. Diese Kritik war in der Vergangenheit teilweise auch berechtigt. Aber auch einseitig, denn die Kritiker haben nur die negativen Erscheinungen auf der Angebotsseite, nicht aber die Preisreduktionen auf der Nachfrageseite beachtet. Karl Marx z. B. dachte, das Proletariat würde im Laufe der Zeit verelenden, weil die Arbeiter aufgrund des Kostendruckes immer weniger verdienen würden. Er dachte, am Ende würden sie nur noch so viel verdienen, wie sie zum Leben benötigen (Subsistenzniveau). Aber seine Vorhersage war falsch, denn es entstanden aufgrund neuer Erfindungen auch wieder blaue Ozeane und die Preisreduktionen in den roten Ozeanen ermöglichten den Arbeitern schließlich Wohlstand, denn sie konnten sich mehr Produkte kaufen als vorher.

Die Wirtschaft ist heute global aufgrund der Digitalisierung und der damit verbundenen einfachen Kommunikationsmöglichkeiten. Diese „Globalisierung“ hat unterschiedliche Effekte je nach Produktionskosten und Lohnniveau. Eine Firma in einem Land mit hohen Löhnen und hohen Produktionskosten kann in einem roten Ozean nicht mit Firmen aus Ländern mit niedrigeren Löhnen konkurrieren, wenn die Löhne einen hohen Teil der Kosten ausmachen. Für eine Firma in einem Land mit niedrigen Löhnen und Produktionskosten ist ein „roter Ozean“ nicht gefährlich, wenn sich bisher nur Konkurrenten aus den „Hochpreisländern“ darin befinden. Die Globalisierung hat viele rote Ozeane geschaffen. Ein großer Teil der Produktion wurde z. B. von den USA und der EU in asiatische Länder verlagert bzw. „out-gesourced“.

Die heutige Wirtschaft setzt ihren Schwerpunkt daher auf Innovation statt auf Wettbewerb und das sieht man der Managementliteratur auch an.

Wichtig: Die Globalisierung führte dazu, dass Unternehmen in Hochlohnländern ihre Strategie von Wettbewerb auf Innovationen umstellen mussten, damit sie der Konkurrenz aus Niedriglohnländern entgehen können. Sie müssen blaue Ozeane schaffen.

Peter Thiel, einer der beiden Gründer von PayPal und der erste externe Investor von Facebook drückt den Unterschied zwischen roten und blauen Ozeanen, zwischen Wettbewerb und Innovation in seinem Buch „Zero to One: Wie Innovation unsere Gesellschaft rettet“ als Globalisierung und Technologie aus [TM14]: Technologie ist für ihn Innovation, Globalisierung ist Wettbewerb.

Und der Wettbewerb findet in Zukunft wirklich global statt. Im Jahr 2020 werden 40% der 25-34-Jährigen in den Schwellenländern, wie z. B. Brasilien, China, Indien oder Südafrika, eine höhere Ausbildung haben als die in den OECD-Ländern, d.h. der „westlichen“ Welt: USA und EU. Ein großer Teil der „komplizierten“ Arbeiten wird dann auch in die Schwellenländer abwandern [Pea15]. Dem „Westen“ bleiben also nur die „komplexen Aufgaben“ und das sind die Innovationen.

Agile Unternehmen

Die Unternehmen haben sich in den letzten Jahrzenten stark geändert, weil sie sich an den technischen Fortschritt und an die Globalisierung anpassen mussten. Früher waren Firmen mechanistisch, hierarchisch, basierten auf Kontrolle, „top-down“-Planung und Wettbewerb. Es war früher notwendig durch die reine Größe des Unternehmens Skalen-Vorteile bei der Produktion zu erlangen, um die Kosten reduzieren zu können, um wiederum im Wettbewerb zu bestehen. Daher wurden die Firmen immer größer. Heute haben Firmen flache Hierarchien, möchten möglichst beweglich sein und schnell reagieren können, sind „agil“ und „lean“, haben Qualitätskontrolle mit SixSigma, optimieren ihre Prozesse mit Kanban und machen „Knowledge Management“ in Kompetenzcentern [DMW15, Cor11, Hin13].

Wasserfall vs. agil

Ein schönes Beispiel für diese geänderte Anschauung ist die Software-Entwicklung. Früher wurde Software nach dem sog. Wasserfall-Modell entwickelt. Hier wurden die einzelnen Schritte der Reihe nach abgearbeitet:

  1. In der Anforderungsanalyse wurde ermittelt, was der Kunde mit der Software erreichen möchte. Welche Daten werden eingegeben und welche werden wieder ausgegeben?
  2. In der Spezifikationsphase wurde ein grobes Modell der Software erstellt. In welche Komponenten wird die Software gegliedert, wie reden diese Teile miteinander, welche Klassen gibt es?
  3. In der Implementierung erstellten die Software-Entwickler aus der Spezifikation ein Programm.
  4. Dieses wurde anschließend in der Test-Phase getestet.
  5. Schließlich wurde das Programm in Betrieb genommen oder an die Kunden ausgeliefert.

Die Software-Entwicklungsmethodik der 70er und 80-er Jahre sah dieses Modell wirklich als Ideal an. In bestimmten Branchen bzw. Bürokratien wird es teilweise bis heute noch verwendet. Das Problem: Das Wissen entsteht erst während des Projekts. Es ist sehr schwierig für Menschen, Wissen explizit zu formulieren. Oft wissen Kunden gar nicht, was sie genau benötigen. Sie haben in der Anforderungsanalyse noch gar keine genaue Vorstellung davon, wie das eigentliche Programm aussehen soll. Das zweite Problem ist, das Softwareprojekte auch mehrere Jahre dauern können. Wenn das System mit dem Wasserfallmodell dann nach zwei Jahren fertig war, hatte sich die Business-Situation schon längst wieder geändert.

Deshalb wird Software heute agil und iterativ entwickelt. Die bevorzugte Methode heißt „Scrum“ [Sch07]. Die Entwicklung bei Scrum ist in kurze „Sprints“ eingeteilt:

  • Der „ScrumMaster“ verwaltet das Projekt und koordiniert die Entwicklung.
  • Der „ProjectOwner“ ist derjenige, der die Anforderungen festlegt und bestimmt, welche Eigenschaften das Programm haben soll.
  • Die Entwicklung geschieht in Sprints. Diese sind 1 - 4 Wochen lang. Vor dem Sprint legt das Entwickler-Team zusammen mit dem ProjectOwner und dem ScrumMaster fest, welche „Features“ im aktuellen Sprint implementiert werden sollen
  • Nach jedem Sprint erfolgt eine Analyse des Erreichten und eine Neubewertung der Situation.

Mit Scrum lassen sich auch am Anfang nicht vorgesehene Eigenschaften in das System einbauen und ist sehr viel erfolgreicher als das Wasserfallmodell. Bei Scrum ist es wichtig, immer ein lauffähiges System zu haben. Scrum ist ein schönes Beispiel für die Verbesserung der Produktivität durch Analyse und Verbesserung der Arbeitsschritte, wie wir sie schon in Abschnitt 4.2 erwähnt hatten. Das Wasserfall-Modell hat das gleiche Problem wie die zentrale Planwirtschaft: das Wissen muss vorher gesammelt und zentralisiert werden. Bei Scrum bleibt es verteilt in den Teams und Entscheidungen werden dezentral gemacht. Im Bereich der industriellen Fertigung sind weitere Methoden entstanden, die sich auch in der Softwareentwicklung einsetzen lassen, wie z. B. Kanban, Kaizen und Lean [OF14].

Kapital, Wissen und Entrepreneurship

Der Begriff „Kapital“ bezog sich ursprünglich auf Geld. Früher – als Kapital noch der limitierende Produktionsfaktor war – war wirklich nur Geld und die Möglichkeit, Arbeiter einzustellen, notwendig, um ein Unternehmen zu gründen. Mit dem Geld wurden dann die Maschinen gekauft, die damals noch einfach zu bedienen waren. Heute ist aufgrund des Fortschritts sehr viel Wissen erforderlich. Mit Geld alleine kann man kein erfolgreiches Unternehmen gründen. Z. B. muss das Personal gebildet sein und die Supply-Chain und die Prozesse des Unternehmens müssen optimiert und an die speziellen Bedingungen des Unternehmens und seiner Märkte angepasst sein. Interessanterweise hat man am Begriff „Kapital“ einfach festgehalten und ihn in verschiedene Richtungen erweitert:

  • Humankapital ist das Wissen der Mitarbeiter
  • Strukturkapital ist das Wissen in den Geschäftsmodellen und den Prozessen, wie z. B. der Supply-Chain
  • Beziehungskapital ist das Wissen über Kunden, Zulieferer und Angestellte
  • Intellektuelles Kapital ist das Wissen des Unternehmens

Somit kann man auch heute noch sagen, ein Unternehmen bräuchte nur „Kapital“ und wir leben im „Kapitalismus“. Aber das ist „gemogelt“ und hat vielen den Blick vernebelt. Wie bereits in Abschnitt 4.2 gesagt, ist Wissen inzwischen der limitierende Faktor.

Wichtig: Wissen und Geld haben einen ganz großen Unterschied: Geld lässt sich einfach überweisen oder eintauschen, Wissen muss erst in jahrelanger Arbeit erlernt werden.

Es ist nicht einfach, Wissen von einem Menschen zum nächsten Menschen zu „transportieren“. Der in Deutschland herrschende „Fachkräftemangel“ ist ein Beispiel dafür, dass es nicht so einfach ist. Ansonsten könnte man die Menschen ja einfach „umschulen“. Die Allgemeinheit ist sich aber oft nicht darüber bewusst, das „Kapital“ nicht mehr ausreicht. Im Rahmen der Euro-Krise wurde oft in den deutschen Medien diskutiert, dass man Griechenland doch helfen würde, wenn man ihnen Geld leiht bzw. stundet. Geld ist aber heutzutage nicht der wichtige Faktor, um bei einer Wirtschaftskrise zu helfen. Es ist unternehmerisches und wirtschaftliches Wissen: Entrepreneurship. In diesen Ländern muss die Wirtschaft wieder in Schwung gebracht werden und das geht in der Wissensgesellschaft nicht mehr mit „Kapital“. Ein weiteres Beispiel ist der Länderfinanzausgleich in Deutschland. Nur mit dem Transfer von Kapital kann man strukturschwachen Bundesländern heutzutage nicht mehr helfen.

Beim „intellektuellen Kapital“ muss man zwischen den beiden folgenden Kategorien unterscheiden [BA14]:

  • Benutzergenerierte Inhalte („user-generated content“)
  • Geistiges Eigentum („intellectual property“, IP)

Benutzergenerierte Inhalte entstehen z. B. bei Facebook, Twitter, YouTube und Pinterest. Die Qualität der Inhalte der anderen bestimmt über den Netzwerkeffekt die Nützlichkeit des Dienstes. Zum geistigen Eigentum zählen u. a. Copyright, Patente, Trademarks und Firmengeheimnisse. Da das geistige Eigentum auch eine politische Komponente hat, besprechen wir es später im politischen Kapitel in Abschnitt 11.8.

Innovationen

Große Unternehmen haben ein Problem: sie sind oft schwerfällig und bürokratisch. Ein Unternehmen muss, um konkurrenzfähig zu sein, seine Prozesse an die augenblicklichen Produkte anpassen. Ein erfolgreiches Unternehmen optimiert die Produktherstellung: alles ist auf die augenblickliche Produktion hin fixiert. Wenn jetzt zusätzlich neue Produkte hergestellt werden sollen oder es große Änderungen an den Produkten gibt, dann muss die Produktion umgestellt werden. Das ist heute bei kleinen Änderungen aufgrund des Supply Chain Managements (SCM) und dem Enterprise Resource Planing (ERP) oftmals nicht so schwierig. Wenn die Änderungen aber so groß sind, dass auch die Organisation der Firma betroffen ist und z. B. Abteilungen zusammengelegt werden müssen, dann ist dieses oft nur schwer möglich, weil die Angestellten, Teile des Managements oder die Gewerkschaften diese Änderungen nicht einsehen, nicht unterstützen und boykottieren. Oftmals gibt es in den Medien auch dann Schlagzeilen wie „Firma X will 2500 Menschen entlassen, obwohl die Gewinne so hoch sind“. Damit kann sich das große Unternehmen nicht an die geänderte Situation anpassen, während die Presse glaubt, dass das Unternehmen nur aus reiner „Profitgier“ handelt. Die Anpassung unterbleibt und die Firma wird „fragiler“.

Die Geschichte der IT-Industrie z. B. zeigt, dass auch erfolgreiche Unternehmen regelmäßig Schwierigkeiten haben, an der Spitze zu bleiben [Chr97]. In den 60er- und 70er-Jahren führte IBM den Mainframe-Markt an. In den 80er-Jahren führten Digital Equipment Corporation (DEC), Data General, Wang, Nixdorf und Hewlett-Packard den Markt für Unternehmenscomputer an. Bei den Home-Computern waren Commodore und Atari die beliebtesten. Der Markt für Grafik-Workstations in den 90ern wurde von Silicon-Graphics (SGI) und Sun beherrscht. IBM schaffte es also nur im PC-Bereich einen Standard zu setzen und wurde dort aber auch durch die vielen Nachbauten aus Asien verdrängt. In technischen Märkten gibt es aufgrund des Wettbewerbs und der vielen Innovationen ein ständiges Auf- und Ab. Die von Karl Marx beschriebenen Zentralisierungsprozesse, die letztendlich zum Monopolkapitalismus führen sollen, gibt es in der Realität nicht.

Der Unternehmensberater und Professor Clayton M. Christensen untersuchte in seinem 1997 erschienenen Buch „The Innovator’s Dilemma“, warum gute Firmen nicht in der Lage waren, sich an „disruptive“5 Technologien anzupassen [Chr97]. Und er entwickelte eine Reihe von Kriterien, mit denen Manager in Zukunft bessere Entscheidungen machen können. In den drauffolgenden Jahren wurden die Managementtechniken zum Umgang mit dem schnellen technologischen Wandel weiterentwickelt. Heutzutage sind Agilität und Geschwindigkeit wichtig. Ein Unternehmen soll „mager“ und „schlank“ sein („lean“) und möglichst sogar eine „lernende Organisation“ sein. Im Sommer 2015 gab z. B. Google bekannt, dass das Unternehmen umstrukturiert wird und die Dachorganisation Alphabet heißen wird. Mit Alpha bezeichnen Aktienhändler die Aktien, die überdurchschnittliche Gewinne versprechen und „to bet“ heißt wetten: alpha-bet. Alpha-Wette. Diese Reorganisation kann als Google’s Versuch gesehen werden, die Firma gegen Veralterung und Bürokratie zu schützen und robuster zu machen.

Entrepreneure

Innovationen werden daher oft von neuen Unternehmen erstellt, weil die alten zu schwerfällig, zu beschäftigt oder zu uninteressiert sind. Ein großes Unternehmen kann auch die Strategie verfolgen, Innovationen einfach von Zulieferfirmen zu beziehen oder junge innovative Unternehmen aufkaufen und zu integrieren. Große Firmen, wie z. B. Apple, kaufen regelmäßig kleine Firmen ein, wenn es finanziell vorteilhaft für sie ist.

Die Unternehmensgründer von heute sind nicht unbedingt Menschen, die unbedingt Karriere machen und viel Geld verdienen wollen. Dafür ist die Gründung eines Unternehmens zu risikoreich. Viele Entrepreneure suchen einen Sinn in ihrer Arbeit, möchten die Welt verändern und wollen keinen automatischen und langweiligen Job von „9 to 5“ (von 9 bis 17 Uhr) machen [Pea15]. Peter Thiel, Gründer von PayPal und erster Investor von Facebook, beschreibt den Entrepreneur als Mensch mit Stärken und Schwächen, als Licht- und Schattengestalt, als Insider und Outsider [TM14]. Denn ein Entrepreneur muss ein Außenseiter sein, weil er eine Idee jenseits des Mainstreams benötigt. Er braucht etwas neues, eine Überraschung. Er muss eine Idee von etwas haben, das in der Zukunft für andere einen Wert hat. Etwas, woran heute noch kein anderer denkt. Peter Thiel fragt in einem Bewerbungsgespräch den Bewerber als erstes die folgende Frage „Welche Ihrer Überzeugungen würden nur wenige Menschen mit Ihnen teilen?“ [TM14]. Auf der anderen Seite muss der Entrepreneur später dann aber auch überzeugen und ein Unternehmen führen können und auch ein „Insider“ sein.

Entrepreneurship ist ein noch recht junges Thema, aber Bücher über Selbständigkeit und Firmengründungen schießen wie die Pilze aus dem Boden. Im Gegensatz zu bürokratischen Organisationen, wie Behörden, Banken und große Unternehmen, gibt es bei vielen Startup-Firmen flache Hierarchien und die Möglichkeit, ein individualistisches Leben zu führen. Man ist in einer kleinen Firma kein Rädchen in einer großen Maschine. Für viele junge Leute ist es die einzige Art, ein kreatives und ausgefülltes Leben zu führen. Denn Bürokratie basiert auf der Einhaltung von Hierarchien, Regeln und Vorschriften, während ein Startup auf Querdenken, Experimentieren und Ausprobieren beruht. Innovationen benötigen freie Menschen und auch freie Unternehmen.

Neue Geschäftsmodelle

Das entflochtene Unternehmen

Um ein Unternehmen erfolgreich zu betreiben, muss es eine bestimmte Vision von sich und der Welt haben: ein Geschäftsmodell („business model“). Dieses Modell beschreibt, wie das Unternehmen Geld verdient und welche Abteilungen welche Funktionen dabei haben. Das Geschäftsmodell ist die „Architektur“ des Unternehmens, „das Grundprinzip, nach dem eine Organisation Werte schafft, vermittelt und erfasst“ [OP10].

Diese Geschäftsmodelle lassen sich mit Mustern beschreiben, mit sog. Geschäftsmodellmustern [GFC13]. Mit Hilfe dieser Muster kann man die Struktur von Unternehmen analysieren und beschreiben. Beispiele für Geschäftsmuster sind der Direktverkauf von der Fabrik, die Flatrate, das Abonnement oder „Pay what you want“. Wir haben auch in Abschnitt 5.5 das Beispiel „Franchising“ angesprochen.

Die Unternehmensberater John Hagel und Marc Singer haben die folgenden drei grundlegende „Säulen“ innerhalb von Unternehmen gefunden [OP10]:

  • Kundenbeziehungen
  • Produktinnovation
  • Infrastruktur

Bei den Kundenbeziehungen geht es um die Beziehungen zu den bestehenden Kunden und um das Finden von neuen Kunden. Neue Produkte und Dienstleistungen entstehen durch Produktinnovation. Die Infrastruktur besteht aus den Fabriken, Industrieanlagen, Büros, Autos, etc. und der Verwaltung dieser Objekte.

Diese drei Bereiche unterscheiden sich stark in ihren Aufgabenstellungen und ihren „Kulturen“. Daher sollte man in jedem Unternehmen untersuchen, ob ein solcher Bereich nicht in eine eigene Firma ausgelagert werden sollte. Wenn ein Unternehmen nur noch eine „Säule“ anbietet, nennt man es entflochtenes Unternehmen. Da das Internet und die Digitalisierung neue Arten der Kommunikation ermöglichen, sind auch neue Arten der Entflechtung entstanden.

Ein Beispiel für ein bisher nicht entflochtenes Unternehmen ist ein Taxi-Unternehmen. Ein Taxi-Unternehmen besteht aus einer Zentrale mit Telefon, einem Fuhrpark mit Fahrzeugen und den Taxi-Fahrern. Ein Taxi-Unternehmen vermittelt einer Person einen Kontakt zu einem Fahrer. Es ist ein Zwischenhändler zwischen Fahrgast und Fahrer. Ein Taxi-Unternehmen besteht also aus den Säulen Kundenbeziehungen (die Telefon-Nummer, die oftmals einfach zu merken und bekannt ist) und der Infrastruktur. Ein solches Taxi-Unternehmen ist noch nicht entflochten: hier ist zu erwarten, dass in der Zukunft spezielle Unternehmen für die Infrastruktur (Fuhrparkverwaltung) und die Kundenbeziehungen entstehen. Die großen Autovermietungen haben hier schon angefangen.

Long Tail

Wenn ein Supermarkt eine große Anzahl von verschiedenen Produkten vorhalten möchte, benötigt er eine Menge Platz und die Besucher des Supermarkts müssen eine große Strecke zurücklegen, wenn sie einkaufen wollen. Daher ist eine wichtige Aufgabe eines Händlers, nur die Waren zu führen, die auch Käufer finden. Es findet eine Vorselektion durch den Supermarktbetreiber statt.

Der Ökonom Vilfredo Pareto (wir sind ihm schon in den Abschnitten 2.4 und 5.2 begegnet) hat die sog. 80/20-Regel formuliert, die auch als Pareto-Prinzip bekannt ist. In der folgenden Abbildung sind als Beispiel die Verkäufe eines sehr kleinen Supermarkts als Verkaufskurve dargestellt.

Auf der horizontalen x-Achse sind die Produkte eingetragen (der Einfachheit halber nur nummeriert von 1 bis 20), auf der vertikalen y-Achse die Verkäufe. Diese Art von Verteilung ist auch eine Pareto-Verteilung wie der Wohlstand im Sugarscape in Abschnitt 2.4. Es gibt typischerweise ein paar Produkte, die sich sehr gut verkaufen. Die meisten verkaufen sich aber nur in geringen Mengen, weil sich nicht viele Menschen dafür interessieren. Der „Long Tail“ ist das lange Ende der Kurve.

Digitale Produkte benötigen nur wenig Platz auf der Festplatte. Sie lassen sich daher sehr einfach vorhalten. Darum können Online-Buchhändler auch wesentlich mehr verschiedene digitale Bücher anbieten, als ein Buchladen in der Fußgängerzone. Für einen weniger bekannten Buchautor hat das Vorteile, denn er kann über eine Internet-Plattform direkt potentielle Leser erreichen. Bücher von unbekannten Autoren werden von traditionellen Buchhändlern nur selten geführt, weil die Bücher Platz im Laden wegnehmen würden.

Der „Long Tail“ bedeutet also, dass man mit dem Internet auch sehr spezielle Produkte und Dienste anbieten kann, weil Angebot und Nachfrage eher zusammen finden.

Crowd Funding

Manche Projekte oder Unternehmen können erst richtig durchstarten, wenn sie eine finanzielle Starthilfe erhalten. Sie können bei Banken um einen Kredit bitten oder bei privaten Firmen sog. Venture-Kapital beantragen. Oft ist ein solcher Kredit aber mit hohen bürokratischen Auflagen verbunden. In manchen Fällen möchte ein Kreditgeber auch ein Mitbestimmungsrecht im Unternehmen erhalten. Auf jeden Fall ist es nicht einfach und anstatt das eigentliche neue Produkt zu entwickeln, entwickelt das Unternehmen zuerst einmal die erforderlichen Dokumente und Businesspläne, die der Kreditgeber verlangt.

Aber hier gibt es einen Ausweg: eine Crowd Funding-Webseite bringt potentielle private Investoren mit Menschen zusammen, die Investitionskapital benötigen. Die zu finanzierenden Projekte und Produkte werden auf einer Webseite vorgestellt und die Investoren können ihre finanzielle Unterstützung zusichern. Dieses Muster hat sich in der Vergangenheit schon öfters bewährt und es wurden z. B. schon Computerspiele, Filme und Musikalben so finanziert. Das Crowd Funding ist eine soziale Innovation. Es ist ein Beispiel, wie auf technische Erfindungen auch soziale Erfindungen folgen.

Crowd Sourcing

Oftmals müssen Firmen bestimmte Arbeiten auslagern. Aufgrund des hohen Spezialisierungsgrads kann ein Unternehmen nicht für alle Eventualitäten einen Spezialisten einstellen. Besonders in kleineren Unternehmen, benötigt man Mitarbeiter mit vielen Kenntnissen, die flexibel einsetzbar sind. Die Spezialisten müssen dann von außen „eingekauft“ werden. Es gibt z. B. alleine bei Datenbanken eine so große Vielfalt, dass man einen Spezialisten für einen bestimmten Hersteller einer Datenbank benötigt (manchmal sogar für eine bestimmte Version). Diese Vermittlung wird oft über Projektbörsen durchgeführt.

Eine Verfeinerung dieses Prinzips ist die Vermittlung von einzelnen Aufgaben an andere. Ein Beispiel hierfür ist der „Amazon Mechanical Turk“. Der „mechanische Türke“ war eine 1769 vorgestellte Maschine in Form eines Tisches mit einem Schachbrett darauf und einer türkisch gekleideten Puppe, die Schach spielen konnte. Es war aber ein Schwindel, denn ein menschlicher Schachspieler war in der Maschine verborgen [BA14]. Bei „Amazon Mechanical Turk“ werden einzelne Aufgaben angeboten, sog. „Human Intelligence Tasks“, die andere gegen Bezahlung erledigen können. Bei diesen Aufgaben handelt es sich um Aufgaben, die man (noch) nicht mit Hilfe von künstlicher Intelligenz lösen kann. Es wird noch menschliche Intelligenz benötigt, deshalb wurde das Verfahren auch schon spaßeshalber „künstliche künstliche Intelligenz“ genannt.

Manchmal stoßen Unternehmen auch an die Grenzen der Erfindungsgabe ihrer Mitarbeiter. Sie vergeben Forschungs- und Entwicklungsaufgaben an Dritte. Dieses wird auch offene Innovation genannt. Das ist dem mechanischen Türken ähnlich, nur richten sich die Aufgaben meistens an private Forscher und haben einen hohen intellektuellen Anspruch. Es geht oft um wissenschaftliche Herausforderungen [BA14].

Dieses Herausgeben von Arbeiten an andere wird „Crowd Sourcing“ genannt. Beim Crowd Sourcing wurden natürlich Bedenken geäußert bezüglich Ausbeutung und der Einhaltung von gesetzlichen Auflagen. Es wurde aber auch berichtet, dass Leute aus ärmeren Ländern hier im Vergleich hohe Einnahmen erzielen können. Das Thema „Outsourcing“ berührt einen zentralen Punkt der sozialen Marktwirtschaft, nämlich den Stellenwert der Arbeit und des Arbeitsverhältnisses und wird damit oft diskutiert.

Eine etwas andere Verwendungsart des Begriffs „Crowd Sourcing“ wird verwendet, wenn Benutzer an einer Webseite oder einer Datenbank mitarbeiten können, wie z. B. bei Wikipedia. Die Arbeit hier ist oftmals freiwillig und unentgeltlich. Hier sind schon gigantische Datenbanken entstanden. Ein weiteres Beispiel ist die Klassifizierung von Bildern von Galaxien im Rahmen des Sloan Digital Sky Survey [HTT09]. Eine Galaxie kann sich im Uhrzeigersinn oder gegen den Uhrzeigersinn drehen. Dieses lässt sich von einem Menschen einfach anhand eines Fotos erkennen. Und im Jahr 2008 funktionierte dieses noch nicht mit künstlicher Intelligenz. Man saß auf unzähligen Fotos von Galaxien, konnte diese aber nicht automatisch klassifizieren. Deshalb baute man eine Webseite mit der Freiwillige diese Klassifizierungsaufgabe durchführen konnten. Jedes Foto wurde mehreren Freiwilligen vorgelegt, um Fehler zu vermeiden. Es wurden innerhalb eines Jahres 50 Millionen Klassifizierungen vorgenommen. Wissenschaft kann auch als Gemeinschaftsaufgabe durchgeführt werden.

Zweiseitiger Markt

Ein zweiseitiger Markt stellt den Kontakt zwischen zwei unterschiedlichen Gruppen her. Er bietet beiden Gruppen eine wirtschaftliche Plattform. Bei Google z. B. gibt es auf der einen Seite Kunden, die die Suchmaschine umsonst benutzen dürfen und auf der anderen Seite Firmen, die Werbeanzeigen zu bestimmten Suchbegriffen platzieren können [Shn15]. Facebook bietet einerseits Menschen ein soziales Netzwerk und andererseits Werbeanzeigen und Spiele.

Zweiseitige Märkte sind oft abhängig von Netzwerkeffekten. Nur wenn die eine Seite zahlreich vertreten ist, wird sie für die andere interessant. Als Beispiel können hier Spielkonsolen oder Betriebssysteme dienen. Nur wenn es gute Spiele für eine Konsole gibt, lohnt sich die Anschaffung der Konsole für Spieler. Für Spiele-Entwickler hingegen lohnt sich die Entwicklung nur, wenn es genügend potentielle Käufer von Spielen gibt.

Cloud

Eine der drei Säulen eines Geschäftsmodells ist die Infrastruktur. Hier hat die „Cloud“ die Möglichkeiten – insbesondere für kleine Firmen – grundlegend geändert. Das gesamte Rechenzentrum ist heute als Dienstleistung (neudeutsch „Service“) zu mieten. Früher mussten Firmen sehr viel Geld in neue Computer und in neue Software stecken. Ein Problem war die Skalierung: Computer lassen sich nicht immer beliebig erweitern und wenn ein Computer ausgelastet war, musste man sich entweder einen neuen kaufen oder den Dienst künstlich einschränken. Heutzutage ist die gesamte Infrastruktur für Server, Datenbanken, Webserver, etc. mietbar. Hier gibt es Tarife, bei denen man nur die tatsächlich genutzte Rechenzeit bezahlen muss. Auch können oftmals beliebig viele Rechner hinzugemietet werden, falls es mal zu ungewöhnlich hoher Nachfrage kommt.

Das „Cloud-Computing“ hat insbesondere für kleine Firmen und Startups Vorteile. Wenn man eine neue Webseite entwickelt, hat man zuerst nur wenige Kunden und bei gemieteten Rechnern in der Cloud sind die Kosten dann auch nicht so hoch. Wenn die Webseite mehr Erfolg hat und sie sich herumgesprochen hat, mietet man einfach weitere Server hinzu. Hier ist es allerdings wichtig, dass die Software diese „Skalierung“ auch unterstützt und explizit als verteilte Anwendung entwickelt wurde [Dav14].

Open Source

Software wird in einer Programmiersprache kodiert und in ausführbare Apps kompiliert (bei Windows sind es z. B. die *.EXE-Dateien). Der Quellcode wird im Englischen „Source“ genannt. Bei käuflicher Software ist der Quellcode ein Geschäftsgeheimnis des Herstellers. Denn wenn ein Programmierer Zugriff auf den Quellcode hat, weiß er wie die Software funktioniert und könnte die Software sehr schnell „nachprogrammieren“. Damit hätte sich die lange Entwicklungszeit für den Hersteller allerdings nicht gelohnt. Also wurde der Quellcode nicht veröffentlicht.

In den 80ern und 90ern ist an amerikanischen Universitäten die sogenannte „Open Source“-Bewegung entstanden. Die Software sollte nicht mehr „kommerziell“ sein und der Quellcode nicht geheim, sondern Software sollte „öffentlich“ sein und jeder sollte die Software nach seinem Belieben ändern können. Statt eine Software zu kaufen, konnte man sich diese eben einfach herunterladen. Die Open Source-Bewegung war teilweise „das virtuelle Äquivalent“ der uneingeschränkten Vision aus Abschnitt 3.4. Diese Programmierer hatten in der Regel gut bezahlte Jobs an den Universitäten oder großen amerikanischen Softwareunternehmen und hatten eine „idealistische“ Vorstellung einer besseren Welt mit „freier Software“.

Und durch Open Source sind auch wirklich sehr gute und wichtige Programme entstanden, wie z. B. das Betriebssystem Linux, GNU, Eclipse oder Hadoop. Aber die anfängliche Vision, dass man alle „kommerzielle“ Software ablösen konnte, war nicht realistisch. Mit Open Source wurde am Anfang auch eher bereits bekannte Software nachgebaut, als wirklich neue Innovationen implementiert. Open Source war eher „Wettbewerb“ als „Innovation“. Die bekanntesten Open-Source-Projekte Linux und GNU waren „Nachbauten“ von bereits verfügbarer Software.

Aber das Interessante war, das viele kommerzielle Firmen auf den Open Source-Zug aufsprangen. Sehr viele Unternehmen haben in Open Source investiert und „mitgemacht“, in dem sie ihren Entwicklern erlaubten, Zeit für Open Source Projekte zu haben. Die als „Informationskapitalisten“ verunglimpften Firmen, wie z. B. Google und Facebook, haben schon sehr viele Open-Source-Software der Allgemeinheit zur Verfügung gestellt. Google hat z. B. laut eigener Webseite6 schon 900 Open Source-Projekte veröffentlicht, wie z. B. das Handy-Betriebssystem Android, das Web-Framework Angular und die V8 JavaScript Engine. Aus Sicht eines Software-Entwicklers machen diese Firmen also auch etwas Gutes.

Insgesamt gesehen hat Open Source den Software-Markt demokratisiert. Kleine Entwickler können hier mit der richtigen Community sehr schnell Erfolge erzielen. Und der Erfolg von Open Source hat zur Nachahmung in anderen Bereichen geführt. Es ist die sog. Creative Commons-Lizenz entstanden. Wenn man ein Werk unter der Creative Commons-Lizenz veröffentlicht, sei es ein Buch, eine Grafik, ein Musikstück oder eben Software, dann hat man die folgenden Optionen:

  • Darf jemand das Werk weiterbearbeiten und auch veröffentlichen, wenn die er die Quelle nennt?
  • Darf das Werk kommerziell genutzt werden?

Diese Lizenzen sind inzwischen sehr weit verbreitet. Oft erkennt man diese Werke am „Open“ im Namen. Zum Beispiel ist die „OpenStreetMap“ eine nicht-kommerzielle Weltkarte. Die kollektive Intelligenz kann durch „Open“-Modelle wesentlich schneller wachsen. Die Geschwindigkeit des Fortschritts ist enorm gestiegen.

Daten als ökonomischer Wert

Daten enthalten Informationen und Informationen haben einen Wert, weil mit Ihnen die Unsicherheit reduziert werden kann. Mit Hilfe von Daten lassen sich Prozesse untersuchen und optimieren, neue Kunden finden, neue Medikamente finden, Verkehrsflüsse optimieren und auch die Umwelt schonen. Daten sind ein Wirtschaftsgut. Sie können einen ungeheuren Wert haben, sowohl in der Wirtschaft als auch in der Wissenschaft [PF13, Dav14].Im Kapitel über Data Science hatten wir es schon erwähnt: man sieht den Daten nicht an, was für ein Wissen in ihnen steckt und damit auch nicht, welchen Wert sie für andere haben könnten. Dieses führt bei vielen Firmen zum „Sammeln von Daten auf Vorrat“. Die Speicherung von Daten ist relativ günstig, wenn man diese noch gebrauchen könnte.

Es gibt sehr viele verschiedene Möglichkeiten, wie man als Unternehmen mit Daten arbeiten kann. Daten-Aggregatoren z. B. sammeln Daten zu bestimmten Bereichen und bieten sie kombiniert wieder an [Cor11]. Es gibt z. B. Webseiten zum Vergleich von Produkten, die sämtliche Testberichte über ein Produkt haben. Bei „rotten tomatoes“ werden Filme verglichen7 und bei metacritic Filme, Serien und Videospiele8.

Viele neue Anwendungen kombinieren verschiedene Arten von Daten: soziale Daten aus sozialen Netzwerken, lokale Daten über die Umgebung und mobile Daten vom Handy ergeben zusammen „SoLoMo“-Apps („social“, „local“, „mobile“), wie z. B. Fourquare9 [BA14].

Die Erstellung von Daten ist aber mit Kosten verbunden. Oft ist es vorteilhaft, bestimmte Daten hinzuzukaufen. Neben kommerziellen Daten gibt es inzwischen auch „Open-Source-Daten“, wie z. B. von den folgenden Quellen [CM16]:

Viele weitere Länder bieten statistische Daten ihrer Länder „offen“ an. Hier entsteht eine Daten-„Kultur“.

Soziale Netzwerke und die Demokratisierung

Ein soziales Netzwerk ist heutzutage meistens eine Webseite bei der man sich anmelden und ein eigenes Profil erstellen kann. Man kann sich in diesem Netzwerk mit anderen Nutzern anfreunden und ihnen persönliche Nachrichten schicken. Weiterhin kann man auf seiner eigenen Seite Nachrichten für einen größeren Empfängerkreis veröffentlichen. Viele soziale Netzwerke bieten Möglichkeiten an, mit denen man die Nachrichten von anderen Nutzern bewerten kann: der berühmte „Like“-Button.

Ein soziales Netzwerk ist ein Beispiel für einen sog. mehrseitigen Markt: Erstens bietet das Netzwerk die Möglichkeit, das Nutzer andere Menschen kennenlernen und sich mit Ihnen austauschen. Zweitens kann der Betreiber des Netzwerks den Nutzern personalisierte Werbung von anderen Unternehmen zeigen. Und drittens erhält die Betreiber-Firma wertvolles Wissen über die Gesellschaft in Form des sozialen Graphen. Die Freundschaften und die „Likes“ der Benutzer werden in einer Graph-Datenbank gespeichert. Es ist eine Datenbank mit vielen statistischen Daten ihrer Nutzer, wie z. B. das Alter, die Anzahl der Kinder oder den Wohnort. Aber sie enthält auch die Beziehungen zwischen den Menschen untereinander und zu anderen Dingen, wie z. B. Musikbands, Fernsehfilmen und Computerspielen. Diese Zusammenhänge bieten bisher ungeahnte Möglichkeiten für die soziologische Forschung. Diese Beziehungen zu untersuchen ist das erste Mal in so großem Stil in der Geschichte der Menschheit überhaupt möglich.

Das im sozialen Graph vorhandene „Wissen“ kann die Betreiber-Firma des sozialen Netzwerks an interessierte Unternehmen verkaufen. Facebook macht dieses z. B. mit „Audience Insights“. Hier muss man sehr deutlich machen, dass es hier nicht um die Adressdaten oder um Telefonnummern und Emailadressen geht, sondern um die „sozialen Daten“: welche Musikbands man toll findet oder welche Filme man gesehen hat.

Aber wem gehören diese Daten im „sozialen Graphen“ (ohne Anschrift, Telefonnummer, Emailadresse). Der Benutzer selber hat angegeben, dass er ein bestimmtes Computerspiel gut findet. Sind das die Daten des Benutzers? Technisch gesehen werden die Daten auf den Rechnern des sozialen Netzwerks gespeichert. Denn sobald er die Daten auf einer Webseite eines sozialen Netzwerks eingibt, haben die Daten seinen PC oder Smartphone verlassen. Es sind nicht mehr „seine Daten“. Die einzige Ausnahme hier sind Cloud-Dienste, die Speicherplatz verkaufen. Da müssen „seine Daten“ auch „seine Daten“ bleiben und dürfen nicht weitergegeben werden.

Hier gibt es Kritiker, die eine „Überwachung“ durch diese „Datenkraken“ fürchten und z. B. mehr staatlichen Datenschutz fordern. Die Befürchtungen bestehen einerseits natürlich zurecht, denn Unternehmen sind oft keine Engel und haben ihre Marktposition und ihre Größe auch schon gegen die Interessen von Menschen eingesetzt. Auch sind Unternehmen gezwungen mit staatlichen Organisationen zusammen zu arbeiten, wie z. B. der National Security Agency (NSA) in den USA oder bei der Facebook-Zensur in Deutschland. Aber andererseits ist keiner gezwungen, ein soziales Netzwerk zu benutzen und erst recht wird keiner gezwungen, dort alle seine Daten zu „veröffentlichen“.

Viele Probleme lagen in der Vergangenheit daran, dass das Medium noch „Neuland“ für viele Benutzer war und es keine Alternativen gab. Facebook z. B. hat sehr viele Nutzer mit Spielen geködert, wie z. B. Farmville oder Candy Crush. Man musste sich nur anmelden und schon hatte man ein paar schöne Spiele. Dafür „opferten“ viele Menschen ihre Daten gerne. Und wer will ihnen das verbieten? Es sind ja ihre Daten. Wer will ihnen vorschreiben, wem sie ihre Daten geben und wem nicht? Das wäre kein Datenschutz, sondern Daten-Bevormundung.

Mit der Zeit wird der Markt für soziale Netzwerke auch kritischer werden, weil es nichts mehr Neues ist. Neues fasziniert die Menschen immer. Die Benutzer werden in der Zukunft darauf achten, was mit ihren Daten gemacht wird und die Anbieter der sozialen Netzwerke werden sich daran anpassen müssen. Dieses geschah in den 80ern Jahren auch in der Lebensmittelindustrie mit den Bio-Lebensmitteln und in jüngerer Zeit mit den veganen Lebensmitteln.

Demokratisierung

Das Internet ermöglicht die direkte Kommunikation und die direkte Suche. Mit dem Internet lassen sich viele „Zwischenhändler“ umgehen. In Ländern mit staatlich reguliertem oder sogar zensierten Fernsehsendern lassen sich Informationen im Internet überprüfen. Mit Hilfe des Internets sind die Kosten für die Gründung einer kleinen Firma extrem gesunken. Jeder kann eine Medienfirma betreiben, jeder kann eine Web-Seite mit einem Online-Shop gründen. Früher musste man dafür teure Miete in einer Fußgängerzone zahlen. Viele können jetzt Jobangebote erhalten, zu denen sie vorher keinen Zugang hatten. Das Internet ist damit auch ein Mittel, die Welt demokratischer zu machen und die Chancengleichheit zu erhöhen.

Preiswerte Bildung

Die Kosten für Bildung und Wissen wurden durch das Internet stark reduziert. Das bekannteste Beispiel ist Wikipedia. Wikipedia umfasst inzwischen mehr als 50 Mal so viele Informationen wie die Encyclopaedia Britannica, dem angesehensten Lexikon von Großbritannien. Früher wurden Lexika von einer Reihe von Angestellten einer Firma erstellt. Wikipedia hingegen wurde von tausenden von freiwilligen Helfern aus der ganzen Welt erstellt. Jeder kann sich anmelden und Änderungsvorschläge machen, über die dann demokratisch abgestimmt werden. Wikipedia ist ein demokratisches Lexikon. Hier würde der sozialistische Slogan „Vom Volk und für das Volk“ gut passen. Ironischerweise aber ist Jimmy Wales, der Gründer von Wikipedia, auf die Ideen hinter Wikipedia durch den Artikel „The Use of Knowledge in Society“ von Friedrich A. Hayek gestoßen [Hay48], den wir schon in Abschnitt 5.3 behandelt haben. Das Wissen ist in der Gesellschaft verteilt.

Viele Universitäten bieten inzwischen auch Kurse im Internet an, wie z. B. das im technischen Bereich weltbekannte Massachusetts Institute of Technology (MIT)10. Es sind auch viele Online-Schulen für Kinder und Heranwachsende entstanden, wie z. B. die Khan-Academy. Unter dem Stichwort „massive open online courses“ (MOOC) sind viele weitere Angebote zu finden.

Plattformen als Zwischenhändler

Das Internet macht es möglich, dass Angebot und Nachfrage global zusammenkommen. Das hat zur sog. Sharing-Economy geführt, bei der Privatpersonen miteinander Geschäftsbeziehungen eingehen können. Ein Beispiel hierfür ist die Vermietung von Wohnraum für Urlauber mit airbnb. Ein Wohnungsbesitzer kann eine Wohnung anbieten und Wohnungssuchende können diese über das Web oder eine App suchen und buchen.

Mit Uber und Lyft kann jeder Autobesitzer zum Taxifahrer werden. Der Kontakt zum Kunden wird über die App hergestellt. Hierzu war bisher ein Taxi-Unternehmen notwendig. Ein Kunde ruft die Zentrale des Unternehmens an und dieses vermittelt einen Fahrer mit einem Auto. Diese Aufgabe kann leicht durch eine Webseite und eine mobile App ersetzt werden. Die Taxi-Unternehmen waren einmal entstanden, weil es nicht möglich war, dass sich Gast und Fahrer direkt verabredeten. Das ist heute anders. Die Sharing-Economy hat daher große wirtschaftliche Änderungen zur Folge. Es gibt einen Interessenkonflikt zwischen den etablierten Hotels und Taxiunternehmen und den Newcomern. Es hat sogar bei Uber schon gewalttätige Proteste von Taxifahrern in Frankreich gegeben. Daher wird die neue Technik natürlich sehr kontrovers diskutiert und es wurden auch Rufe nach Verbot und Regulierung laut.

Viele Diskussionen fassen die Situation als Nullsummenspiel auf: was Uber gewinnt, muss das Taxi-Unternehmen verlieren. Aber der Markt ist nicht fix, d.h. durch Uber kommen einkommensschwächere Kunden hinzu. Das Fahren wird günstiger. Es ist ein Nicht-Nullsummenspiel. Zweitens: wenn die Taxi-Unternehmen etwas verlieren, dann bieten sie etwas an, das der Markt jetzt preiswerter herstellen kann. Der Wohlstand der Gesamtbevölkerung steigt dadurch. Sie erhalten die eine Fahrt und behalten sogar Geld übrig. Es gibt also Gewinner und Verlierer.

Der Arabische Frühling

Im Dezember 2010 wurde der Straßenhändler Mohamed Bouazizi in der tunesischen Stadt Sidi Bouzid von der örtlichen Polizei drangsaliert, weil er keine „Genehmigung“ hatte. Nachdem die Polizei seine Waren und seine Waage beschlagnahmt hatten, zündete sich Bouazizi in der Öffentlichkeit an und verstarb an den Folgen am 4. Januar 2011 [DMW15, TG15, SC13].

Es war der Protest eines selbständigen Kleinunternehmers gegen die unfaire „Regulierung“ durch den Staat. Hierzu muss man sagen, dass man ihm in Deutschland einen solchen Stand höchstwahrscheinlich auch nicht erlauben würde. Man würde ihm evtl. Scheinselbständigkeit vorwerfen. Er müsste zumindest ein Gewerbe anmelden und Gewerbesteuer bezahlen. Damit ist es unwahrscheinlich, dass er seine Familie ernähren könnte, weil er wohl als einzelner Händler nicht genügend Umsatz macht.

Auf jeden Fall verbreitete sich die Nachricht über den Tod von Mohamed Bouazizi in der arabischen Welt über die sozialen Netzwerke in Windeseile und löste in ganz Tunesien Proteste aus. Der damalige Diktator Zine el-Abidine Ben Ali besuchte Mohamed Bouazizi sogar im Krankenhaus. Das nützte aber nichts, denn die Bevölkerung war aufgebracht und der Diktator musste einige Tage später am 14. Januar Tunesien verlassen. Aber die Flamme war entfacht und verbreitete sich in die ganze arabische Welt. Der „arabische Frühling“ führte zu Rebellionen in vielen Ländern.

Warum dieser „Frühling“ dann nicht zu einer „Demokratisierung“ führte, wird kontrovers diskutiert. Einen Aufstand zu veranstalten ist sehr viel einfacher, als in der gesamten Bevölkerung ein „Verständnis“ für die Demokratie zu entwickeln. Dieses „Verständnis“ ist eine Umschreibung für „Wissen, wie man sich in einer Demokratie verhält und das Win-Win-Situationen für alle auf lange Sicht besser sind“ . Eine Demokratie muss „bottom-up“ in der Gesellschaft verwirklicht werden, die lässt sich nicht „top-down“ befehlen oder durch einen „Umsturz“ herbeiführen.

Das Wirtschaftswachstum und das BIP

Um die Entwicklung der Wirtschaft zu bewerten, wird in der Mainstream-Ökonomie das Bruttoinlandsprodukt (BIP) („gross domestic product“, GDP) verwendet. Das Bruttoinlandsprodukt ist die Summe aller Waren und Dienstleistungen, die im Zeitraum eines Jahres innerhalb der Landesgrenzen eines Landes hergestellt wurden. Das ist die traditionelle „top-down“-Sichtweise auf die Wirtschaft. Man guckt auf ein Aggregat, eine Summe oder einen Durchschnitt, und versucht damit die aktuelle Situation der Wirtschaft zu bewerten [BA14].

Solche Zahlen, die als Basis zur Bewertung des Status oder als Grundlage für Entscheidungen dienen, werden Key-Performance-Indikatoren (KPI) genannt (oder auf Deutsch auch „Leistungskennzahlen“). Ein grundlegendes Management-Prinzip ist „what gets measured gets done“ [BA14, TG15]. Anhand der Veränderungen an den KPIs kann man den Erfolg bzw. den Misserfolg der eigenen Aktionen beobachten. In komplexen Systemen hat eine Aktion ja immer auch Nebenwirkungen. Und nur das, was gemessen wird, kann auch bewertet werden. Denn ansonsten bleibt es unbeobachtet.

Wichtig ist allerdings auch, dass man die KPIs richtig interpretiert. Beim BIP z. B. ist die Inflation herauszurechnen, also die Entwertung des Geldes durch die Erhöhung der Geldmenge11.

Das BIP hat auch große Schwierigkeiten in einer Informations- und Wissensgesellschaft, weil es nur Kapital misst, aber nicht die Informationen und das Wissen [BA14]. Die Benutzung von Wikipedia und Google ist umsonst. Viele Zeitschriften können preiswerter im Netz abonniert werden. Ein Telefonat über Skype ist billiger als über das Telefon. Ein Chat mit WhatsApp ist billiger als eine SMS. Diese ganzen Dienste machen das Leben besser und erhöhen die Lebensqualität, denn man kann das gesparte Geld für andere Dinge ausgeben. Brynjolfsson und McAfee fassen das schön mit „aus analogen Dollars werden digitale Pennies“ zusammen. Aber diese Einsparungen führen dazu, dass das BIP sinkt! Die Wirtschaftswissenschaftler bewerten die gestiegene Lebensqualität als negativ, weil die digitalen Leistungen weniger kosten als die analogen. Die Sharing-Economy und die Open-Economy haben positive Effekte, die nicht im BIP auftauchen.

Die Vorteile der Digitalisierung sind also nicht im BIP erkennbar. Unglücklicherweise hat sich das noch nicht überall herumgesprochen und oft wird „Wachstum im BIP“ mit „wirtschaftlichem Wachstum“ gleichgesetzt. Es werden daher neue Metriken benötigt. Hier sind sich Ökonomen aber noch nicht über Nachfolger einig [BA14]. Wie kann der Fortschritt von preiswerteren digitalen Produkten bewertet werden? In der Zwischenzeit müssen die Ökonomen berücksichtigen, dass ein großer Teil der Innovationen nicht im BIP auftaucht.

The winner takes it all

Ganz früher – vor der Erfindung des Versandhandels – mussten Waren immer lokal vor Ort in einem regionalen Geschäft gekauft werden. Wenn Produkte gerade nicht verfügbar waren, haben Kunden dann auch die zweit- oder drittbesten Produkte gekauft. Oft kannte man auch nur die lokalen Produkte, die vor Ort erhältlich waren. Eine Fußgängerzone in Großbritannien unterschied sich in den 80er-Jahren noch stark von einer in Spanien, Frankreich oder Deutschland. Auch die Produkte in den Supermärkten waren unterschiedlich. Heute ist vieles gleich. Es sind die gleichen multinationalen Firmen, die die gleichen Produkte in den gleichen Filialen anbieten.

Heutzutage gibt es durch das Internet und die Globalisierung globale Märkte. Man kann sich über alle Produkte informieren, entweder auf der Webseite des Herstellers oder auf Produktvergleichsseiten. Damit kann man immer das „beste“ Produkt kaufen. Dieses führte zu größerem Wettbewerb bei den Anbietern. Es reicht nicht mehr, der zweite zu sein. Auf der anderen Seite hat eine Firma heute aber auch den Vorteil, dass sie diversifiziertere Produkte anbieten kann aufgrund des „Long Tail“ und der Supply-Chain-Optimierung.

Die Kunden profitieren durch die Vergleichbarkeit der Waren im Internet, während die Firmen „leiden“. Aufgrund der Digitalisierung gibt es weniger Platz für die Nicht-Besten. In der Wirtschaft gilt zunehmend das Motto „The winner takes it all“ [BA14]. Der Wettbewerb findet daher global statt und umso wichtiger sind die „blauen Ozeane“, die Innovationen.

  1. Der Logarithmus zur Basis 2 ist die Anzahl, wie oft man eine Zahl durch 2 teilen kann und der Rest noch größer oder gleich 1 ist. Der Logarithmus von 2 ist 1, weil man 2 einmal durch 2 teilen kann. Der Logarithmus von 15 ist 3, denn 15 / 2 = 7 Rest 1, 7 / 2 = 3 Rest 1, 3 / 2 = 1 Rest 1.

  2. Der Logarithmus zur Basis 2 ist das „Gegenteil“ des exponentiellen Wachstums zur Basis 2. Es gilt log(2^x) = x.

  3. Dieser Gordon Moore ist nicht der Edward F. Moore nachdem die Moore-Nachbarschaft aus Kapitel 2 benannt wurde.

  4. Hier die Rechnung für mathematisch Interessierte: In 10 Jahren gibt es 10*12/18 = 6,67 Verdopplungen, die wir mal auf 6 Verdopplungen vereinfachen. Wenn 2006 die 32. Verdopplung war, dann gab es in den 10 Jahren vorher Wachstum von 2^(32 - 6) = 2^26 auf 2^32 im Jahre 2006. Und das ergibt einen Unterschied von 2^32 - 2^26 = 4.227.858.432. In den 10 Jahren nach 2006 gab es aber Wachstum von 2^32 zu 2^(32 + 6) = 2^38 und das sind 2^38 - 2^32 = 270.582.939.648. Das ist das 64-fache! 64 = 2^6 für 6 Verdopplungen. Im Allgemeinen ist das das 2^k-Fache, wenn die Anzahl der Verdopplungen k ist, wegen (2^(n + k) - 2^n)/(2^n - 2^(n - k)) = 2^k.

  5. Eine „disruptive“ Technologie ersetzt die bisher genutzte Technik.

  6. https://developers.google.com/open-source/

  7. http://www.rottentomatoes.com

  8. http://www.metacritic.com/

  9. https://foursquare.com/

  10. http://ocw.mit.edu

  11. Bei der Inflation muss man heute vorsichtig sein, weil die Inflation in der Mainstream-Ökonomie als Konsumentenpreisindex berechnet wird, bei der Mieten, Häuser und Aktien nicht eingerechnet werden. Auch Zwischenprodukte in der Industrie gehen nicht mit ein. Schließlich wird auch noch ein Warenkorbindex berechnet, bei dem „Experten“ über die Zusammensetzung des Warenkorbs entscheiden. Hier werden auch technische Geräte, wie z. B. Computer aufgenommen. Technische Geräte werden aufgrund des technischen Fortschritts aber billiger und senken den Inflationsindex so künstlich. Ein Index „verwischt“ die Informationen, wie in Abschnitt 5.3 erklärt wurde. Heute wird mit dem Begriff „Inflation“ also gemogelt.

Kaufen

Unterstützen Sie den Autor, indem Sie das Buch oder das E-Book kaufen:

Diskutieren