Die Zukunft

Utopien und Dystopien

Prognosen sind schwierig, insbesondere …

Der dänische Physiker Niels Bohr hat mal gesagt „Prognosen sind schwierig, insbesondere, wenn sie die Zukunft betreffen“. Und damit hatte er vollkommen Recht. Denn über ein komplexes System kann man nur unsicheres Wissen haben, weil die Agenten in diesem System ihr Verhalten ändern können. Je weiter man in die Zukunft hinausgucken möchte, desto unsicherer wird die Prognose, weil die Anzahl der Änderungen proportional wächst. Wenn man schon nicht weiß, was die Agenten im nächsten Zeitschritt tun werden, kann man erst recht nicht wissen, was sie im übernächsten tun. In der Statistik nutzt man oft die bisherigen historischen Daten, um die Zukunft zu „extrapolieren“. Das funktioniert bei einfachen und komplizierten Systemen wunderbar, sofern man über eine genügend lange Historie verfügt. Die Änderungen in komplexen Systemen aber sind es, die Prognosen so schwierig machen.

Der Psychologe Philip E. Tetlock beschäftigt sich seit den 80er-Jahren mit Entscheidungen und Prognosen. Zusammen mit dem Journalisten Dan Gardner beschreibt er im Buch „Superforecasting: The Art and Science of Prediction“ [TG15] die Schwierigkeiten der korrekten Vorhersagen. Die beiden haben mit Hilfe einer Internet-Plattform untersucht, wie gut eine Menge von Freiwilligen Vorhersagen machen konnte. Ein Ergebnis dieser Untersuchung ist, dass die bekannten „Experten“ aus den Medien oft nicht besser vorhersagen als der Zufall. Wir hatten in Abschnitt 2.6 schon erwähnt, dass komplexe Systeme spezielle Techniken erfordern. Wenn man diese berücksichtigt, sind schon etwas bessere Prognosen machbar.

Wichtig: Verlässliche Vorhersagen über einen langen Zeitraum sind in komplexen Systemen sehr unwahrscheinlich.

Man kann sich das auch an einem Beispiel klar machen. Versetzen wir uns 30 Jahre zurück in das Jahr 1985. Damals erschien der Film „Zurück in die Zukunft“ und es gab den Warschauer Pakt noch. Manche Wirtschaftswissenschaftler glaubten damals sogar noch an die Überlegenheit der sozialistischen Planwirtschaft. Auch die Perestroika, die die großen Änderungen auslöste, begann erst 1986. Von der Digitalisierung und dem Internet war noch nicht viel zu sehen. Die im Jahr 1985 gemachten Vorhersagen für das Jahr 2015 können daher einfach nicht stimmen, weil sich die Welt ganz anders entwickelt hat.

Warum sieht man aber dann so viele Vorhersagen in den Medien?

Weil sie für verschiedene Zwecke benutzt werden können. Manche Vorhersagen dienen bestimmten politischen Gruppen, um Menschen zu bestimmten Aktionen anzuregen oder bestimmte gesetzliche Änderungen zu akzeptieren. Hier gibt es zwei verschiedene Strategien: Beruhigen, wie z. B. „Die Renten sind sicher“ oder Beunruhigen, wie z. B. Altersarmut, Umwelt und Krisen. Versicherungen und Banken benutzen Prognosen über die Kursentwicklung, um ihre Produkte zu verkaufen oder um ihre bisherigen Kunden zu beruhigen. Bei Prognosen muss man daher auch immer hinterfragen, welches Interesse der Ersteller der Prognose hat. Was will er damit erreichen? Wer profitiert von der Prognose?

Utopien und Dystopien

Über die Zukunft haben sich schon sehr viele Menschen Gedanken gemacht. Man kann diese in zwei Gruppen einteilen: In einer positiven Utopie ist die Zukunft besser als die Gegenwart oder jedenfalls nicht schlechter und in einer Dystopie, einer negativen Utopie, ist die Zukunft schlechter. Menschen neigen anscheinend dazu, sich eher mit Gefahren zu beschäftigen als mit etwas Angenehmen. Denn es gibt wesentlich mehr negative als positive Utopien. Gute Nachrichten lassen sich wohl nach dem Motto „Good news is no news“ nicht verkaufen.

Beispiele für negative Utopien sind z. B. „1984“ von George Orwell (1949), „Fahrenheit 451“ von Ray Bradbury (1953) oder „Schöne neue Welt“ von Aldous Huxley (1932). Hinzu kommen viele Filme wie „Matrix“, „Terminator“, „Brazil“ oder „Soylent Green“. In den meisten Büchern oder Filmen über künstliche Intelligenz und Roboter werden diese irgendwann „böse“ oder von „Bösen“ eingesetzt und die Protagonisten müssen diese bösen Maschinen besiegen.

Selbst in den „seriösen“ Geisteswissenschaften gibt es viele negative Utopien: Oswald Spengler schrieb 1918 den „Untergang des Abendlandes“. Durch die „Frankfurter Schule“ um Theodor W. Adorno, Max Horkheimer und Herbert Marcuse wurde der ursprünglich positive Marxismus in die negative „Kritische Theorie“ verdreht, nach der der Kapitalismus an wirklich allem „Schuld“ ist [Her07]. Beim späten Karl Marx sollte der Kapitalismus sich noch „zu Ende“ entwickeln und dann fast automatisch zum Sozialismus führen [Des04]. In Frankreich gab es Ende des 19. Jahrhunderts die „fin de siècle“-Bewegung („Ende des Jahrhunderts“), die „den kulturellen Verfall“ thematisierte. Auch in den heutigen Medien werden sehr viele Bedrohungen dargestellt und Zukunftsängste ausgedrückt: Krankheiten und Seuchen, Umweltprobleme, Grenzen des Wachstums und Bedrohungen durch technische Entwicklungen. Es gibt scheinbar wenig Menschen, die optimistisch in die Zukunft gucken.

Aber zur Beruhigung kann man sagen, dass höchstwahrscheinlich ein sehr großer Teil dieser Vorhersagen falsch ist, weil man komplexe Systeme nicht über einen langen Zeitraum vorhersagen kann, denn die Agenten passen sich an. Und in unserer Welt sind die Agenten die Menschen, die dazulernen und ihr Verhalten ändern.

Im Jahr 1966 erschien z. B. der Roman „New York 1999“ von Harry Harrison. Der Autor versuchte damals 33 Jahre in die Zukunft zu gucken. Das Buch ist eher unbekannt geblieben, was vielleicht auch daran lag, dass sich der Autor so stark mit seiner Prognose verschätzt hatte. Denn im Buch hat New York im Jahr 1999 stolze 35 Millionen Einwohner, die zum größten Teil in Massenarmut leben, weil Nahrungsmittel und Trinkwasser knapp sind. Laut Wikipedia erklärte sich der Autor folgendermaßen1:

„Im Jahre 1950 verbrauchten die Vereinigten Staaten mit nur 9,5 Prozent der Weltbevölkerung 50 Prozent der Rohstoffe auf der Erde. Dieser Prozentsatz steigt ständig an, und bei der gegenwärtigen Wachstumsrate werden die Vereinigten Staaten binnen fünfzehn Jahren über 83 Prozent der Jahresproduktion aller Rohstoffe der Erde verbrauchen. Wenn die Bevölkerung im gleichen Maßstab weiter wächst, wird dieses Land zum Ende des Jahrhunderts mehr als 100 Prozent der Erdrohstoffe benötigen, falls der derzeitige Lebensstandard gehalten werden soll.“

Hier hat der Autor die damaligen Werte einfach in die Zukunft hinein extrapoliert und verschiedene Dynamiken nicht berücksichtigt. Zum einen gibt es die technologische Entwicklung und die Menschen produzieren Waren jetzt ressourcenschonender. Zum anderen ist die demographische Entwicklung ganz anders verlaufen. Die Erfindung der „Pille“ sorgte seit den späten 60er-Jahren dafür, dass sich die Menschen nicht wie bisher vermehrten. Es entstand der „Pillenknick“. Aber wenigstens gibt der Autor seine naiven „Extrapolationen“ auch zu, indem er sagt „bei der gegenwärtigen Wachstumsrate“ und „wenn die Bevölkerung weiter wächst“. Aber die Welt ist dynamisch. In einer Marktwirtschaft steigen die Preise, wenn Rohstoffe knapp werden. Daraufhin überlegen sich Menschen, welche alternativen Rohstoffe sie benutzen könnten. Ein Beispiel hierfür sind die steigenden Öl-Preise in den 70er- und 80er-Jahren. Man versuchte daraufhin, Ersatz für das teure Öl und Benzin zu finden. Die Menschen fingen an, mit dem Fahrrad zu fahren und Züge zu benutzen und schließlich stellt man heute sogar Elektroautos her.

Ein Großteil der heute in den Medien veröffentlichten Prognosen leidet unter diesen Extrapolations-Fehlern. Man bekommt kein korrektes Bild von der Zukunft, wenn man die Gegenwart einfach linear weiterführt und mögliche Änderungen nicht berücksichtigt.

Wichtig: Nur wenige Prognosen berücksichtigen bisher die Erkenntnisse der komplexen Systeme.

Die Rahmenbedingungen

Was sagen die Wirtschaftsberater?

Die Wirtschaftsberater Richard Dobbs, James Manyika und Jonathan Woetzel beschreiben ihre Einschätzung der zukünftigen globalen Wirtschaft in ihrem Buch „No Ordinary Disruption: The Four Global Forces Breaking All the Trends“ [DMW15]. Sie sind der Ansicht, dass die Welt vor großen Änderungen steht und alle Menschen, insbesondere Manager und Politiker, ihre Intuitionen „resetten“ müssen. Erinnern Sie sich an die beiden Systeme 1 und 2 aus der Verhaltensökonomie? Dobbs et al. wollen damit sagen, dass sich das komplexe System der Wirtschaft geändert hat und dass die von System 1 auswendig gelernten Heuristiken nicht mehr stimmen. Diese muss man jetzt explizit wieder verlernen und sich an die neue Situation anpassen.

Denn die Weltwirtschaft ist nicht mehr so, wie sie mal war. Als Beispiel nennen Dobbs et al. die indische Mission zum Mars. Im September 2014 ist die „Indian Space Research Organisation“ mit einem Raumschiff in den Orbit des Mars geflogen. Und das für umgerechnet 74 Millionen US Dollar. Der Hollywood-Film „Gravity“ hingegen hatte ein Budget von 100 Millionen US Dollar. Das heißt Indien hat inzwischen große komparative Vorteile im Verhältnis zu den Vereinigten Staaten und ist damit kein „Entwicklungsland“ mehr. Apropos „Entwicklungsland“: Peter Thiel macht da eine sehr tiefsinnige Bemerkung darüber. Das Wort „Entwicklungsland“ legt nahe, dass es auch „Nicht-Entwicklungsländer“ gäbe, also „entwickelte Länder“. Damit entsteht die Illusion, dass z. B. die USA und die Länder der EU „fertig“ seien und sich nicht weiter entwickeln müssten [TM14]. Wenn diese Illusion wirklich besteht, dann hören die Unternehmen in diesen Ländern mit der Suche nach den blauen Ozeanen auf. Ein „entwickeltes“ Land benötigt keine Innovationen, denken sie. Aber dadurch verlieren sie ihren „Wettbewerbsvorteil“ und das führt genau zu den Effekten, die bei der „Globalisierung“ im Westen als negativ aufgefasst werden: die Unternehmen verlagern aus Kostengründen die Produktion. Solange es Fortschritt gibt, ist „entwickeltes Land“ eine irreführende Bezeichnung. Indien auf jeden Fall ist das vierte Land der Erde, das eine Mars-Mission geschafft hat und ist inzwischen damit vielen anderen Ländern voraus.

Nach Dobbs, Manyika und Woetzel wird die Welt durch die folgenden „Kräfte“ in der näheren Zukunft stark verändert werden [DMW15]:

  1. Globalisierung und Urbanisierung
  2. Demographische Veränderungen
  3. Beschleunigung des Fortschritts
  4. Vernetzung

Diese vier „Kräfte“ wirken gegenseitig aufeinander ein und verstärken sich. Sie führen zu Änderungen in fast jedem Markt und fast jedem Wirtschafts-Sektor. Die Wirtschaft wird dynamischer. Prognosen sind normalerweise schon schwierig, aber laut Dobbs et al. werden sie aufgrund dieser vier „Kräfte“ noch schwieriger werden [DMW15].

Globalisierung und Urbanisierung

Es werden in den nächsten Jahren sehr viele Menschen in die Weltwirtschaft integriert werden [DMW15]. Die meisten Einwohner in den sog. „Entwicklungsländern“ verfügten früher nicht mal über ein Festnetztelefon. Erst mit den Mobiltelefonen wurden sie erreichbar. Man schätzt, dass im Zeitraum von 1990 bis 2010 eine Milliarde Menschen der Armut entkommen konnten und in die globale „Konsumwelt“ einsteigen konnten. Bis 2030 sollen zwei weitere Milliarden folgen. Durch Smartphones und durch mobilen Internetzugriff werden sich die Kommunikationsmöglichkeiten für viele Einwohner weiter verbessern: sie werden Teil der „kollektiven Intelligenz“ .

Diese Menschen benötigen Arbeit und daher werden Produktionen in diese Länger ausgelagert. Die „Globalisierung“ wird weitergehen. Hier werden auch schon Jobs aus den Schwellenländern wie z. B. China, in noch „preiswertere“ Länder verlagert. In China werden auch schon Roboter in der Produktion eingesetzt, weil die menschliche Arbeit zu teuer geworden ist [BA14].

Zweitens gibt es in den Schwellen- und Entwicklungsländern noch einen relativ hohen Anteil an Landbevölkerung. Mit dem Anschluss an die Weltwirtschaft, werden in vielen Ländern weniger Menschen in der Landwirtschaft arbeiten und in die Städte ziehen. Es wird laut Dobbs et al. eine Urbanisierungswelle geben. Die Vorteile von Städten überwiegen immer noch ihre Nachteile [Rid10]. Städte verkürzen die Kommunikationszeiten, senken die Kosten für die Suche nach neuen Arbeitskräften und sind Kommunikations- und Begegnungszentren. Menschen sind wegen der Arbeitsteilung auf soziale Zusammenarbeit angewiesen. Eine höhere Arbeitsteilung erhöht die Produktivität einer Gesellschaft. Bisher mittelgroße und unbekannte Städte, wie z. B. Kumasi, Foshan, Porto Alegre oder Surat, werden wichtige Ballungs- und Industriezentren werden. Jede dieser gerade genannten Städte bildet einen Ballungsraum mit mehr als 4 Millionen Menschen und jede wird laut Dobbs et al. in der Zukunft mehr zum Wirtschaftswachstum beitragen als Madrid, Mailand oder Zürich [DMW15].

Die westlichen Unternehmen müssen diese sich schnell ändernden Länder erst kennenlernen. Bisher wurden 70% des weltweiten Bruttosozialprodukts in den „entwickelten Ländern“ und den großen Städten der Schwellenländer erwirtschaftet. Für 2025 wird geschätzt, dass nur noch 33% des Wachstums in der „alten“ Welt stattfindet.

Demographische Veränderungen

In fast allen Ländern wird sich die Zusammensetzung der Bevölkerung ändern und der Anteil von älteren Leuten wird steigen [DMW15]. Im Jahre 2013 lebten 60% der Weltbevölkerung in Ländern, in denen mehr Menschen sterben als geboren werden In den westlichen Ländern gibt es den „Pillenknick“. In China war lange Zeit nur ein Kind pro Ehe erlaubt. Man nennt das Problem jetzt „4:2:1-Problem“: Jedes erwachsene Kind muss für zwei Eltern und vier Großeltern sorgen. Im Jahre 2030 wird nach heutigen Schätzungen die Anzahl der weltweit verfügbaren Arbeitskräfte um ein Drittel gefallen sein [DMW15]. Diese „Veralterung“ wird die Sozialsysteme der Wohlfahrtsstaaten herausfordern. Damit arbeiten weniger junge Leute und mehr ältere Leute sind im Ruhestand.

Daher muss die „Produktivität“ der arbeitenden jungen Leute erhöht werden. Und hierfür werden wiederum Innovationen benötigt. Diese sind mit dem aktuellen Fortschritt sicherlich möglich, sofern der Fortschritt nicht „politisch“ verhindert wird.

Das disruptive Dutzend

Wie in Abschnitt 9.1 besprochen haben Erik Brynjolfsson und Andrew McAfee die folgenden drei Faktoren ausgemacht: die Digitalisierung und Vernetzung, das exponentielle Wachstum und kombinatorische Innovationen [BA14]. Durch das Internet der Dinge (das gleich in Abschnitt 10.4 erklärt wird) wird die Anzahl der digitalisierten Prozesse und Informationen noch stark ansteigen. Die Vernetzung wird zunehmen. Das exponentielle Wachstum wird bei der Anzahl der Transistoren voraussichtlich bis mindestens 2030 anhalten. Die Anzahl der an der Produktentwicklung beteiligten Personen und die Produktivität dieser Personen wird steigen, so dass die Anzahl der kombinatorischen Innovationen ebenfalls steigen wird. Zusammen lösen diese drei das „zweite Maschinenzeitalter“ aus.

Aber welche Techniken wird das hauptsächlich betreffen? Dobbs et al. erachten die folgenden zwölf Technologien als besonders wichtig für das nächste Jahrzehnt (bis 2025) [DMW15]:

  • Grundbausteine
    • 1 Bio-Wissenschaft: Genomik
    • 2 Material-Wissenschaft: Nanomaterial, intelligente Werkstoffe
  • Energiewirtschaft
    • 3 Bessere Speicher von Energie: Akkus, Batterien
    • 4 Neue Förderungsmöglichkeiten für Öl und Gas („fracking“)
    • 5 Erneuerbare Energien
  • Maschinen
    • 6 Roboter
    • 7 Selbstfahrende Fahrzeuge
    • 8 3D-Druck
  • Informationstechnik (IT)
    • 9 Mobiles Internet
    • 10 Internet der Dinge (IoT)
    • 11 Cloud-Dienste
    • 12 Automatisierung von Wissensarbeiten (Big Data, Data Science, KI)

Jede dieser zwölf Techniken hat das Potential, die aktuelle bestehende Technik zu ersetzen und wird deshalb „disruptiv“ genannt. Dobbs et al. nennen diese zwölf Techniken daher das „disruptive Dutzend“ . Und die Hälfte von diesem Dutzend nimmt die Informationstechnik ein, denn Roboter und selbstfahrende Fahrzeuge gehören auch zur IT. Die Ingenieure können Roboter schon recht gut bauen, aber Informatiker noch nicht intelligent genug steuern.

Die Informationstechnik bildet mit Big-Data, Data-Science und KI das „Gehirn“ und mit dem Internet der Dinge das „Nervensystem“ der Wirtschaft.

Das Gehirn: Big Data, Data Science und KI

Die Entwicklung der Computer ist – wie vorher erklärt – auf der zweiten Hälfte des Schachbretts angekommen. Die Sprünge werden immer größer. Aber die Erkenntnisse aus der Künstlichen Intelligenz zeigen uns, dass es keine Quantensprünge werden. Die Technik wird besser und schneller und es werden größere Daten aus sehr vielen Quellen verarbeitet werden. Im Laufe der Zeit werden immer komplexere Entscheidungen automatisiert werden. Aber es wird keinen „Wundercomputer“ geben, der ganz plötzlich intelligenter als ein Mensch ist und die Weltherrschaft übernehmen will.

Es wird allerdings Fortschritte geben und es werden in den nächsten fünf Jahren Systeme entwickelt werden, die man heute noch nicht für möglich hält. Man kann davon ausgehen, dass es 2020 selbstfahrende Autos gibt, die allerdings noch nicht in allen Ländern erlaubt sein werden. Küchenroboter werden Mahlzeiten zubereiten können (in speziell dafür konstruierten Küchen, nicht in jeder Küche), nachdem man ihnen das Gericht einmal vorgekocht hat. Computersysteme und Roboter schauen zu und können das vorgemachte Verhalten imitieren (in speziellen Einsatzgebieten). Computersysteme werden auch die natürlichen Sprachen beherrschen und in Teilbereichen auch automatische Übersetzung gesprochener Sprache ermöglichen. Jemand redet in Englisch mit jemandem in Deutsch über ein Telefon und beide hören die Aussagen des anderen in ihrer eigenen Sprache. Das wird anfangs von schlechter Qualität sein, aber langsam besser werden. Es wird Diagnosesysteme zur Unterstützung wissensintensiver Arbeiten geben, wie z. B. in der Medizin oder Jura [CM16].

Und wie in Kapitel 7 beschrieben, ist Data Science nicht selber intelligent, sondern ein Werkzeug mit dem intelligente Menschen versuchen, dass in Daten vorliegende Wissen zu finden. Die Intelligenz ist in den Data Scientists, die diese Algorithmen kombinieren und einsetzen. Auch hier wird es zweifellos Fortschritte geben, aber nicht die befürchtete „Allmacht der Computer“. Das Schreckensszenario „Die Computer wissen alles über uns“ wird mit der heutigen Technik und mit dem heutigen Fortschritt nicht Wirklichkeit werden. Denn Computer selber können nicht „wissen“, sie können Informationen speichern. „Wissen“ ist von Menschen anwendbare Information. Computer können nur Symbole verarbeiten, deren Bedeutung sie nicht wirklich verstehen. Sie verarbeiten nur die Syntax und nicht die Semantik.

Bei einem Wort, wie z. B. „Hamburger“ wissen Menschen nur aus dem Kontext, ob ein Lebensmittel oder eine Person gemeint ist. Informatiker arbeiten an einem „semantischen Netz“, bei dem jedes Wort Informationen über seine Bedeutung angehängt bekommt. Dieser Prozess ist sehr arbeitsintensiv und erhöht auch die Kosten der Erstellung von Texten. Eventuell kann man mit Crowdsourcing hier eine semantische Datenbank erstellen. Es wurden schon erste Techniken entwickelt, wie z. B. das „Resource Description Framework“ (RDF) mit dem „Dinge“ in einer formalen Sprache genau definiert werden können, oder die „Web Ontology Language“ (OWL) mit der Ontologien erstellt werden können. Menschen verfügen z. B. über „Common Sense“. Jeder Mensch kennt die Eigenschaften des physikalischen „Raums“ um ihn herum. Jeder weiß, dass das Gegenteil von „oben“ „unten“ ist. Ein Mensch kann Phrasen wie „vor der Garage“ oder „hinter dem Kühlschrank“ interpretieren. In einer Ontologie kann dieses räumliche Grundwissen formuliert werden, so dass es als Hintergrundwissen für einen Computer verfügbar ist. Ohne diese „semantische“ Information „weiß“ ein Computer nicht, was er tut. Aber dieses Wissen zu formulieren, diese „Ontologien“ zu erstellen, ist mit sehr viel Arbeit verbunden, weil es eine Art „Programmieren“ und „logisches Formulieren“ ist. Daher wird es vorerst keine Computer mit „Common Sense“ geben.

Das Nervensystem: Das Internet der Dinge

Das Internet heute

Mit dem Internet wurden bisher nur „größere“ technische Geräte verbunden, wie z. B. Smartphones, Tablets, Laptops, PCs, Fernseher und evtl. Lichtschalter. Man könnte das Internet von heute als das „Internet der Menschen und großen Geräte“ bezeichnen. Bisher sieht ein privates Netz ungefähr aus wie in folgendem Diagramm:

Die meisten haben einen DSL-Anschluss an das Internet und ein WLAN („wireless local area network“) verbindet die Geräte im Haus. Die meisten haben ein kombiniertes Gerät, das sowohl ein DSL-Modem als auch ein WLAN-Router ist. Was manche nicht wissen ist, dass das DSL-Modem über eine sog. Firewall verfügt. Eine Firewall ist ein Sicherheitsmechanismus mit dem die „Pakete“ aus dem Internet überprüft und ausgefiltert werden können. Die Firewall verhindert, das „Hacker“ von außen auf die Geräte im Haushalt zugreifen können. Eine solche Firewall kann so konfiguriert werden, dass nur bestimmte Verbindungen zugelassen werden bzw. nur die wirklich benötigten „Dienste“ durchgelassen werden.

Diese Firewall wird oft vergessen, wenn es bei Kritikern der künstlichen Intelligenz darum geht, die Gefahren der KI drastisch zu schildern. Manche Kritiker entwerfen dann ein Szenario, in dem eine KI alle technischen Geräte erreichen und kontrollieren könnte. Und das geht genau wegen dieser Firewalls nicht.

In Netzwerken von Firmen wird noch mehr Wert auf Sicherheit gelegt und man findet hier oft eine sog. „demilitarisierte Zone“ (DMZ), die nach allen Seiten durch Firewalls geschützt wird [Don11]. In der folgenden Abbildung wird das Firmennetz durch eine Firewall von der DMZ geschützt und die DMZ durch eine Firewall vor „Hackern“ im Internet geschützt.

Innerhalb der DMZ stehen dann die Rechner für die zu schützenden Dienste und mit den zu schützenden Daten. Ein direkter Zugriff von außen und von innen auf die Server ist nicht mehr möglich. Das Firmennetz ist „isoliert“. Systemadministratoren beobachten die Log-Dateien der Firewalls meistens semi-automatisch. Ungewöhnliche Zugriffe werden von den Administratoren untersucht. In der Regel sind heutige Unternehmen vor Angriffen aus dem Internet gut geschützt. Eine künstliche Intelligenz kann hier auch nicht mehr erreichen, zumal das „Hacken“ auch Kreativität erfordert und hier ist es noch völlig offen, ob es mal „kreative“ KIs geben wird.

Das Internet der Dinge

Im Internet der Dinge („Internet of Things“, IoT) sollen alle „Dinge“, die Informationen senden oder verarbeiten können, an das Internet angeschlossen werden. Es ist die informationstechnische Erfassung der physikalischen Welt. Die Anfänge des Internet der Dinge sind schon da, denn man kann heute schon die folgenden Geräte an das Internet anschließen [And13]:

  • Körperwaagen, die das Gewicht per WLAN an eine Webseite zur Auswertung schicken
  • Lichtschalter, die über das WLAN kontrolliert werden
  • Bewegungssensoren, die z. B. bei Bewegung das Licht einschalten
  • Paketverfolgung bei der Post und bei Lieferservices
  • Heim-Automatisierung: Thermometer und Heizungen
  • Industrie 4.0, z. B. bei der Supply-Chain, siehe Abschnitt 6.2
  • Pulsmesser mit GPS-Tracker

Momentan ist die Herstellung von WLAN-Bauteilen aber noch relativ teuer, daher wurden sog. WPANs („wireless personal area network“) entwickelt, deren Netzwerk-Komponenten preiswerter herzustellen sind. Hier ist der Markt allerdings noch in der Entwicklung und nicht so standardisiert wie bei den WLANs, wo es den Standard IEEE 802.11 gibt. Es gibt u. a. die folgenden Protokolle [Gre15]:

  • Bluetooth
  • IrDa („Infrared Data Association“) für Infrarot, z. B. bei Fernbedienungen
  • Z-Wave
  • ZigBee

Zu Hause hat man dann mehr als nur ein Netz, wie in folgendem Diagramm dargestellt.

Man hat ein WLAN und ein oder sogar mehrere WPANs. Im Internet der Dinge wird alles irgendwie an das Internet angeschlossen. Die Möglichkeiten sind endlos und werden die Welt stark verändern. Die neuen Techniken werden oft mit dem Präfix „Smart“ bezeichnet, wie z. B. Smart-Home, Smart-Traffic oder Smart-City.

Natürlich gibt es auch Leute, die vor den Gefahren warnen, aber – wie man an der Abbildung erkennt – wird das WPAN auch durch die Firewall vor zugriffen durch das Internet geschützt. Wie man es lokal gegen Angreifer aus der Umgebung schützt, muss die Zukunft allerdings noch zeigen. Aber auch hier gibt es die grundlegenden Techniken schon.

Identifikation mit RFID

Es gibt eine Menge „Dinge“ in der realen Welt, die nicht wirklich kommunizieren können, sondern die nur identifiziert werden müssen. Ein Beispiel ist z. B. ein Schuhkarton. Für den Schuhhändler ist es sinnvoll, zu wissen, ob sich noch ein Schuh der Größe 46 im Lager befindet.

Daher wurde das Identifizierungsverfahren RFID („radio frequency identification“) entwickelt. RFID besteht aus einem sehr kleinen Mikrochip, der eine Zahl speichern kann, und der Möglichkeit, diese Zahl durch Funkwellen auszulesen. Oft wird als Zahl der elektronische Produktcode EPC („electronic product code“) verwendet, ein international verwendetes Schlüssel- und Codesystem für eine eindeutige Identifikationsnummer. Mit RFID bekommt der Schuhkarton oder sogar jeder Schuh einen sehr kleinen Chip aufgeklebt und an der Eingangstür des Lagers werden die Schuhkartons ein- und ausgescheckt.

In der Industrie werden RFID-Chips z. B. von WalMart in den USA seit 2005 bei den Paletten der Zulieferer eingesetzt [GB06]. Jede Palette ist anhand der RFID eindeutig identifizierbar und damit konnte WalMart die logistischen Prozesse der Belieferung der Warenmärkte verbessern. Wenn ein LKW mit Paletten beladen bei einem WalMart-Lager ankommt, wird jede Palette mit einem RFID-Leser gescannt. Der Supermarkt weiß damit, welche Produkte er bekommen hat und kann die Datenbank mit dem Lagerbestand aktualisieren. Die Firma „weiß, was sie auf Lager hat“. Die Identifizierung anhand des EPC könnte auch mit Strichcodes durchgeführt werden, aber diese müssen händisch „gescannt“ werden und es ist ein Sichtkontakt notwendig. Das ist umständlich. RFID benutzt Funk und das „Scannen“ kann daher automatisch stattfinden [Gre15]. RFID ermöglicht es, Prozesse besser zu dokumentieren und eine bessere „Übersicht“ zu erhalten:

  • Der Lagerbestand kann automatisch ermittelt werden.
  • Bei verderblichen Waren kann die Haltbarkeit ermittelt werden.
  • Prozesse, wie die Supply-Chain oder das Enterprise Resource Planing (ERP) können verbessert werden. Dadurch werden Verschwendung und Verluste reduziert.
  • Prozesse könnten „dokumentiert“ werden, wann wurde das Produkt hergestellt, wann geliefert usw.
  • Bei fehlerhaften Waren kann man anhand der RFIDs feststellen, wo im Produktionsprozess der Fehler aufgetreten ist.

Seit 2013 setzt z. B. Walt Disney World in Florida (USA) RFID ein [JL14]. Jeder Besucher bekommt ein Armband, in dem ein RFID-Chip steckt. Besucher können vor der Anreise per Internet bestimmte Attraktionen buchen und/oder reservieren. Man kann z. B. ein Treffen mit einer Goofy-Figur zu einem bestimmten Zeitpunkt verabreden. Dadurch werden überlaufene Veranstaltungen und Warteschlangen vor Restaurants vermieden. Das Unternehmen hingegen kann mit den so gewonnenen Daten den Park weiter verbessern. Und zur Datensicherheit ist zu sagen, dass in den Armbändern nur eine künstliche ID gespeichert ist. In einer verschlüsselten Datenbank werden anhand dieser ID die gebuchten Attraktionen ermittelt. Diese Datenbank enthält laut Disney keine Kreditkartendaten oder andere persönliche Informationen. Anhand des Armbands kann also nicht auf persönliche Daten zurückgeschlossen werden.

Zur Sicherheit muss man sagen, dass es inzwischen auch schon RFID-Störsender gibt und auch Portemonnaies, die auslesesicher sind. RFID lässt sich also umgehen, wenn die Privatsphäre geschützt werden soll.

Maschine zu Maschine-Kommunikation (M2M)

Mit RFID kann man also eine Brücke zwischen der physikalischen und der virtuellen Welt bauen [Gre15]. Diese Brücke zwischen Physik und Information besteht zu einem sehr großen Teil aus der Kommunikation von Maschinen zu Maschinen („machine to machine“, M2M). Ein Thermometer sendet seine Daten an ein WPAN-Empfangsgerät, dieses sendet die Daten weiter an eine Datenbank im Internet. Diese Datenbank wird wiederum von einem Web-Portal benutzt, mit dem ein Benutzer sich die Daten angucken kann. Wichtig aus technischer Perspektive ist, dass diese Datenübertragungen sicher, verlässlich und bei vertraulichen Daten auch verschlüsselt funktionieren.

Hier wird noch eine Menge zusätzliche Infrastruktur benötigt. Ein Vergleich mit dem Straßenverkehr bietet sich an: neben Autobahnen werden Zufahrtsstraßen, Schilder, Tankstellen, Raststätten, Motels, Auto-Werkstätten für Reparaturen usw. benötigt. Ähnlich wird es sich mit dem Internet der Dinge verhalten: Geräte, Software, Programmiertechniken, Werkzeuge, usw. [Gre15]. Es entsteht ein „Nervensystem“, das die Geräte in der Welt miteinander verbinden kann. Diese Verbindung muss natürlich auf freiwilliger Basis erfolgen. Es wird auch möglich sein, bestimmte Geräte oder Dienste nur innerhalb eines privaten Subnetzes oder einem „virtuellen privaten Netz“ (VPN) zu betreiben.

Noch in der Entwicklung

Das Internet der Dinge befindet sich zum Zeitpunkt der Erstellung des Buchs (2015) auf der S-Kurve im Status „in Entwicklung“ (siehe Abschnitt 5.6). Es sind noch sehr viele Dinge zu lernen und zu entwickeln. Natürlich wird es auch Rückschritte und auch Sicherheitslücken geben, zumindest bei manchen Produkten und bei manchen Anwendern. Fehler werden bei jeder Entwicklung gemacht.

Hier haben viele Kritiker große Ängste und fürchten die Überwachung der Menschen. Wenn jemand Schuhe kauft und mit einer Kreditkarte bezahlt, könnte der Schuhladen die RFID der Schuhe mit dem Namen des Käufers zusammenbringen. Wenn der Kunde mit diesen Schuhen den Laden wieder betritt, kann der Schuhladen den Käufer „wiedererkennen“. Hier gibt es unterschiedliche Meinungen: die einen würden das als Service begrüßen, die anderen allerdings sehen sich „überwacht“. Es wird hier in Zukunft also noch viele Diskussionen geben. Allerdings gibt es diese Möglichkeit ja im Autoverkehr auch schon, ohne das sich da jemand drüber aufregt. Denn jedes Auto hat ein gut sichtbares Nummernschild.

Die verbesserte kollektive Intelligenz

In den nächsten Jahren wird ein Internet der Dinge entstehen, das „semi-intelligent“ mit menschlicher Hilfe ausgewertet werden kann. Die größten Fortschritte wird es durch die Kombination der neuen Techniken und Daten geben. Es werden neue soziale Netze und Communities entstehen. Weil mehr Menschen am Internet teilnehmen können, wird der Fortschritt weiter beschleunigt.

Beispiele für das Internet der Dinge

Die vielen Geräte im Internet der Dinge werden kontinuierlich Daten erzeugen, die mit Hilfe von Big Data verarbeitet und mit Data Science analysiert werden. Es gibt heute schon regelbasierte Systeme, die anhand der Daten bestimmte Aktionen auslösen, wie z. B. ifttt2. Eine Regel hat das Format „IF Sensor THEN Aktuator“. Hier gibt es Adapter für verschiedene Software, Geräte und soziale Netze. Beispiele für heute verfügbare Regeln und entsprechender Hardware:

  • Wenn die Sonne nicht scheint, schalte ein Licht ein
  • Lese die Schlagzeilen einer Webseite und verschicke diese mit einer Email
  • Wenn die Wettervorhersage Regen am nächsten Tag vorhersagt, schicke eine SMS
  • Schalte die Lichter an, wenn man nach Hause kommt und es schon dunkel ist

Diese Regeln und Dienste werden in Zukunft sicher ausgefeilter und komplexer werden. Später wird es hier zu ausgereifteren Techniken mit Künstlicher Intelligenz kommen, die Entscheidungsbäume oder neuronale Netze benutzen.

Es gibt auch viele Anwendungen im Bereich des Umweltschutzes. Die „Hawaiian Legacy Reforestation Initiative“3 hat sich das Ziel gesetzt, das ursprüngliche Ökosystem auf Hawaii wiederherzustellen, das durch die industrielle Nutzung beim Anbau von Zucker und Ananas zerstört wurde. Hier können Freiwillige einen Baum „spenden“. Insgesamt wurden so schon mehr als 225.000 Bäume angepflanzt [Gre15]. Die Verwaltung und die Pflege dieser Bäume geschieht mit moderner Technik, denn jeder neue Baum bekommt einen RFID-Chip, so dass er anhand seiner GPS-Koordinaten wiedergefunden werden kann. Die Pflege der Bäume, evtl. Wässerungen bei Trockenheit usw. lassen sich anhand der Datenbank planen.

In der Landwirtschaft lassen sich mit Feuchtigkeitsmessern, Thermometern und Messern der pH-Werte viele Verbesserungen erzielen, wie z. B. weniger und besser angepasste Düngung und Bewässerung. Mit Sensoren ist die Verwaltung von freilaufenden Rindern auch einfacher [Dav14].

In der Logistik, wie z. B. bei Containern oder bei Paketdiensten, werden „Tracking-Systeme“ schon seit einiger Zeit eingesetzt. Auch hier sind die wirtschaftlichen Einsparungen enorm. Die Umwelt wird auch geschont, wenn die Lieferfahrzeuge der Paketdienste weniger Umwege fahren als vorher.

In sog. Smart-Cities könnten Verkehrsleitsysteme einmal helfen, Staus und Unfälle zu vermeiden und die Parkplatzsuche zu erleichtern. Selbstfahrende Autos werden energieeffizienter fahren, weil sie weniger „Übersteuern“ als Menschen. Sie werden gezielter Gas geben und gezielter bremsen als Menschen [Gre15].

Das Internet der Dinge wird also sowohl ein Teleskop als auch ein Mikroskop werden. Keine Industrie wird davon unberührt bleiben. Im Zusammenhang mit Big Data und Data Science ergeben sich hier ungeahnte Möglichkeiten des Fortschritts [Gre15] und der „kollektiven Intelligenz“.

Anwendung: Klima

Mit dem Internet der Dinge wird es möglich, sehr viel mehr Daten über die Umwelt zu erlangen. Hier werden „ökologische Applikationen“ („environmental applications“) entstehen [HTT09]. Mit diesen Applikationen werden verschiedene Aspekte der Umwelt verwaltet und kontrolliert werden, wie z. B. die Wasserqualität. In der Forschung werden bessere und realistischere Modelle der Umwelt entstehen, weil mehr und bessere Daten vorhanden sind. Mit preiswerten Sensoren wird es auch erstmals möglich sein, bisher unerforschte Teile der großen Ozeane mit Big Data und KI zu erforschen. Mit Hilfe der Kombination von Nanotechnologie, Biotechnologie, Informationstechnik, Computer-Modellen, Bild-Verarbeitung und der Robotik wird es irgendwann auch möglich sein, mit ferngesteuerten oder autonomen Robotern auch in der Tiefe dieser Ozeane zu forschen.

Anwendung Gesundheit

Die demographischen Veränderungen der Weltbevölkerung – mehr alte Leute, weniger junge – machen eine Verbesserung der Gesundheitssysteme notwendig. Um den gleichen Leistungsstand zu erhalten, sind Produktivitätsgewinne erforderlich. Bei der Einführung eines neuen Medikaments ist es wichtig, möglichst schnell zu reagieren, falls neue Nebenwirkungen bekannt werden. Dieses kann z. B. mit Crowdsourcing ermöglicht werden [HTT09].

Die medizinische Forschung wird in der Zukunft sehr stark von den vielen Gesundheitsdaten und den Analysemöglichkeiten von Data Science profitieren. Die Anzahl der Fehldiagnosen und Fehlmedikamentationen wird gesenkt werden können [HTT09].

Anhand von Waagen, Blutdruckmessern und anderen Sensoren, die ihre Daten an Webseiten zur Aufbereitung schicken, können automatisierte Warnungen an Menschen mit bestimmten Krankheiten geschickt werden [HTT09].

In der medizinischen Forschung entstehen sehr viele Neuigkeiten. Es wird geschätzt, dass ein Epidemiologe jeden Tag 21 Stunden mit dem Lesen der neuen Forschungsberichte verbringen müsste, um auf dem neusten Stand zu bleiben [HTT09]. Ein typischer Arzt sollte ungefähr 10.000 Krankheiten und Syndrome, 3.000 Medikamente und 1.100 verschiedene Testverfahren kennen. Dieses umfangreiche Wissen ist natürlich von einzelnen Menschen nicht zu meistern und es müssen computerunterstütze Wissensmanagement und Diagnosesysteme entwickelt werden. Ein solches Diagnosesystem ist Dr. Watson von IBM [BA14]. Ein Arzt gibt dem System die Symptome des Patienten bekannt, wie z. B. leicht erhöhte Temperatur, Schweißausbrüche und roter Ausschlag und das System schlägt eine Reihe von möglichen Diagnosen vor. Der Arzt sucht dann die seiner Meinung nach passende Diagnose aus.

Anwendung: Finanzsystem

Das heutige Geld wird von Staaten herausgegeben, die es u. a. dazu benutzen, die Zinsen für ihre Staatsschulden zu bezahlen. Aber das war nicht immer so. Geld ist ein Tauschmittel, dass den Handel erleichtert. Bevor das Geld erfunden wurde – im Zeitalter der Jäger und Sammler – musste direkt getauscht werden. Ein Jäger, der einen Hasen zu viel hatte, musste einen Sammler finden, der einen Hasen haben wollte und etwas „Leckeres“ als Gegenwert hatte. Mit Geld ist das einfacher, da tauscht der Jäger den Hasen bei jemandem anderen gegen Geld und dann beim Sammler das Geld gegen die Beeren. Geld ist daher eine ganz einfache Sache und natürlich beim Handel entstanden. Selbst zu Zeiten von Ötzi gab es schon kleine Kupferbarren, die zum Tausch benutzt wurden [Rid10, Fer08].

Heutzutage ist das Geld in staatlicher Hand und aus verschiedenen Gründen suchte eine Mischung von Informatikern, Kryptologen und Markt-Anarchisten eine digitale Währung, die die Nachteile der staatlichen Währungen nicht haben sollte. Vor allen Dingen sollte die Währung nicht von einem Staat kontrolliert werden.

In einer digitalen Währung hätte man eine digitale Münze und könnte sie digital in einer Konto-App aufbewahren. Bei einem Kauf würde man die digitale Münze einfach zu anderen Leuten „überweisen“. Aber bei digitalen Gütern sind Kopien sehr einfach! Wie kann man verhindern, dass eine digitale Münze einfach kopiert und mehrfach ausgegeben wird? Ein Betrüger könnte versuchen, mehrere Kopien der Münze möglichst gleichzeitig bei verschiedenen Online-Händlern zu benutzen. Die würden den Betrug dann erst später merken und dann wäre es zu spät.

Eine Lösungsmöglichkeit wäre eine zentrale Datenbank, in der alle IDs der digitalen Münzen gespeichert werden und auf welchem Konto sich eine digitale Münze gerade befindet. Jetzt müsste bei einem Einkauf ein Händler diese Datenbank abfragen, wo sich die Münze gerade befindet und ob sie der Käufer wirklich besitzt. Das klingt schön und gut, hat aber einen großen Nachteil: diese Datenbank ist zentral und daher ist dieses System fragil. Was passiert, wenn diese Datenbank ausfällt oder wenn ein Gauner diese Datenbank knackt?

Die Entwickler von Bitcoin haben eine Alternative gefunden: die sog. Blockchain. Die Blockchain ist ein Peer-to-Peer-Netzwerk (P2P) (siehe Abschnitt 2.3). Die Datenbank befindet sich auf allen teilnehmenden Rechnern. Die Blockchain kann speichern, auf welchem Konto sich ein Bitcoin gerade befindet. Die Technik dahinter verwendet ausgeklüngelte Verschlüsselungsverfahren und gilt bis heute als recht sicher [Ant14].

Bitcoin hat viele Vorteile, aber zum heutigen Zeitpunkt auch noch Nachteile. Mit Bitcoin können z. B. auch Menschen am internationalen Handel teilhaben, die von der traditionellen Kreditwirtschaft bisher ausgeschlossen wurden, wie z. B. in vielen Ländern Afrikas. Allerdings ist momentan der Umgang mit Bitcoin noch nicht wirklich benutzerfreundlich und es ist passiert, dass Leute ihr Geld verloren haben, weil sie die digitalen Münzen nicht auf ihrem eigenen Rechner, sondern auf einem Server gespeichert haben. Wenn ein solcher Server dann „gehackt“ wird, sind die Bitcoins weg. Natürlich ist ein neues Geldsystem auch ein Anziehungspunkt für alle Arten von Betrügern und Gaunern.

Die Blockchain hingegen kann auch für andere Anwendungen als Bitcoin genutzt werden. Hier werden in den nächsten Jahren noch viele innovative Anwendungen entstehen [Swa15]. Und die hier entstandene Technik bedroht auf jeden Fall viele Teile des heutigen Finanzsystems. Vor den Computern und der Digitalisierung war das Geschäft der Banken pro Kunde sehr ertragreich. Damals war „Banking“ personal- und rechtenintensiv. Dann kamen die Computer und die Berechnungen wurden automatisiert. Danach kam das Internet und die Kundenbeziehungen konnten auf das Internet verlegt werden. Heute gibt es „entflochtene“ Banken, die keine richtigen Filialen mehr haben, sondern nur noch eine Internetseite und ein paar Service-Mitarbeiter für die Telefon-Hotline. Es ist heute für eine Bank sehr schwer, mit dem früheren Kerngeschäft noch Geld zu verdienen. Kritiker sprechen sogar schon von einem Ende der Banken [Mil14]. Der Finanzmarkt wird sich daher in den nächsten Jahren noch stark ändern.

Die ferne Zukunft: die Singularität

In Abschnitt 9.1 wurde erläutert, warum die Geschwindigkeit des Fortschritts aufgrund des „Gesetzes des steigenden Ertragszuwachses“ steigt. Wir haben auch schon Kurvendiagramme für exponentielles Wachstum gesehen und wissen, dass die Kurve am Ende fast senkrecht nach oben steigt. Wird das mit der Forschung auch so sein? Wird dann in einem Jahr so viel geforscht, wie früher in 100 Jahren? Mehrere Zukunftsforscher haben sich über diese Fragen Gedanken gemacht. Der zentrale Punkt für diese Überlegungen ist, ob Computer wirklich so intelligent werden wie Menschen und was sie dann mit ihrer Intelligenz machen [Kur06, Sha15].

Die zentrale Hypothese ist: Wenn es irgendwann mal „intelligente Maschinen“ geben sollte, die genauso intelligent wie Menschen sind, dann könnten diese Maschinen sich selbst verbessern und sich selber noch „intelligenter“ machen. Diese „intelligenteren“ Maschinen könnten das wiederum auch machen und somit würden nach mehreren Schritten dann „hyperintelligente“ Maschinen entstehen. Dieser Moment wird „Singularität“ genannt. Eine Singularität ist ein einzelner wichtiger Moment in einem System. Ein Moment an dem etwas passiert, dass eine sehr große Auswirkung hat. In der Physik ist z. B. der Urknall eine Singularität oder ein schwarzes Loch.

Viele Kritiker der KI befürchten, dass diese „rekursive Selbstverbesserung“ zu einem Ende der Menschheit werden könnte [Bos14]. Sie gehen von einer „explosionsartigen“ und sehr schnellen Entwicklung einer Super-KI aus, die sehr viel intelligenter als Menschen ist. Diese Super-KI könnte dann die Weltherrschaft an sich reißen, weil durch die Vernetzung alle Systeme miteinander zusammenhängen und es für die Super-KI kein Problem wäre, die Sicherheitsmechanismen zu umgehen.

Aber an diesem Szenario stimmen ein paar Dinge nicht und es gibt viele wissenschaftliche Gegenargumente. Der größte Fehler ist, dass wir uns in unserer heutigen Welt vorstellen, was die Folgen einer solchen Super-KI wären. Was wäre, wenn man den Römern zu Zeiten von Jesus Christus von Panzern erzählt hätte? Sie hätten ihren Untergang befürchtet, weil sie sich gegen einen Panzer nicht hätten wehren können. Ein Panzer ist aus damaliger Sicht unangreifbar und unbesiegbar. Die heutigen Italiener aber, wären von einem einzelnen Panzer nicht wirklich beeindruckt. Ähnlich ist es, wenn wir uns heute die Folgen einer Super-KI vorstellen. Denn bis zum Zeitpunkt der Singularität müsste sich die Welt schon unvorstellbar geändert haben. Bevor man eine KI herstellen kann, die so intelligent wie ein Mensch ist, muss man KIs hergestellt haben, die z. B. so intelligent wie Hunde oder Katzen sind. Und dieses würde die Welt schon unbeschreiblich verändern.

Ein weiterer Fehler ist, dass Erfindungen nicht sprunghaft oder explosionsartig entstehen. Sie sind das Ergebnis von kombinatorischer Innovation und kollektiver Intelligenz. Die Super-KI müsste intelligenter sein, als die 6 Milliarden Menschen, die auf der Erde leben.

Außerdem entsteht Intelligenz beim Menschen durch eine „intelligente“ Kombination aus den Systemen 1 und 2 (siehe Abschnitt 3.2). Menschliches Denken ist eine Mischung von zeitsparenden Heuristiken aus System 1 und sorgfältigem Ausprobieren aller Möglichkeiten mit System 2. Beide Systeme lassen sich durch Computersysteme „simulieren“: System 1 durch neuronale Netze und System 2 durch Suchalgorithmen, mathematischen Differentialgleichungen oder durch Simulationen mit agentenbasierter Modellierung. Eine Super-KI kann Differentialgleichungen aber nicht schneller lösen als ein traditioneller Supercomputer. Ein NP-vollständiges Problem ist auch für eine Super-KI NP-vollständig und benötigt damit eine lange Rechenzeit. Viele Optimierungsaufgaben sind NP-vollständig und die heutigen Computerchips werden schon mit mathematischer Optimierung durch Computeralgorithmen verbessert. Wenn das heute schon mathematisch optimal passiert, kann die Super-KI hier nichts mehr verbessern. Eine Super-KI wäre auch auf die traditionellen Computer angewiesen, denn „number crunchen“ können diese schneller.

Außerdem fehlen bei diesen Kritikern die ökonomischen Aspekte völlig: Computer brauchen Energie. Die heutigen Supercomputer benötigen die Energie von ganzen Kraftwerken. Diese Super-KI wäre am Anfang sehr teuer und damit nur von großen Staaten betreibbar.

Heutzutage geht der Trend hin zu verteilten Systemen. Diese Systeme bestehen z. B. aus tausenden von Rechnern, die zusammen erst das System darstellen. Heutzutage ist die Rechenleistung über die ganzen Länder und Bevölkerungen verteilt. Eine Super-KI wäre mit Sicherheit ein verteiltes System mit einer recht geringen Rechenleistung im Vergleich zum Rest der Welt.

Es sind auch nicht alle Systeme miteinander vernetzt. Viele vernetze Systeme stehen in demilitarisierten Zonen, die durch Firewalls gesichert sind. Verschlüsselungsverfahren und Passwörter sind genauso schwer zu „hacken“ für die Super-KI wie für heutige Computer und Menschen. Man kann also nicht einfach per Netz die gesamte Welt erobern.

Und wie im Kapitel 8 über die KI erwähnt, ist es heute noch gar nicht wissenschaftlich erwiesen, dass es eine menschliche KI überhaupt mal geben wird. Die heutige KI täuscht Intelligenz nur vor. Ob wirklich einmal kreative und selbstbewusste Computer existieren werden, steht heute noch nicht fest.

Da die heutige KI auf Basis der auf Silikon basierten Computer nicht die gewünschten Erfolge vorweisen konnte, sind viele Zukunftsforscher auf die Nachahmung von menschlichen Gehirnen umgestiegen. Sie entwerfen – eine heute noch völlig fiktive – Theorie, dass man das menschliche Gehirn einfach wie einen Datenspeicher ausliest und maschinell oder per Biotechnologie nachbaut. Und damit hätte man dann eine KI, die so intelligent ist wie ein Mensch [Kur06]. Auch hier ist wissenschaftlich noch nicht klar, dass das überhaupt möglich ist. Das Gehirn ist sehr viel komplexer aufgebaut als ein Computer. Es ist ein komplexes Netzwerk mit unterschiedlichen Teilen, die chemisch und elektrisch miteinander reagieren. Ob man dieses in Computern simulieren kann ist noch offen [Sha15].

Dass diese Ziele noch in weiter Ferne liegen, kann man gut am OpenWorm-Projekt erkennen4. Hier versucht man den Fadenwurm Caenorhabditis elegans in Software nachzubauen. Caenorhabditis elegans wird bis zu einem Millimeter groß und der männliche Wurm hat 1031 somatische Zellkerne und ein Gehirn mit 304 Nervenzellen. Mit Hilfe eines Computermodells haben Forscher versucht, den Organismus des Wurms besser zu verstehen. Eine erste Erkenntnis ist, dass es trotz des einfachen Aufbaus sehr schwierig ist, die komplexen Interaktionen der einzelnen Teile zu verstehen und nachzubauen. Es sind noch viele Fragen offen. Das Projekt ist ein schönes Beispiel dafür, dass man auch in der Biologie mit der Simulation von komplexen Systemen Fortschritte erzielen kann. Auf der anderen Seite hat ein Mensch aber geschätzte 100 Milliarden Nervenzellen mit 60 Billionen Synapsen (Verbindungen). Von einer Simulation des menschlichen Gehirns ist man also mindestens noch 10-20 Jahre entfernt.

Es gab in den letzten Jahren in den Medien Berichte in denen Forscher von der erfolgreichen Simulation eines Gehirns berichteten. Hier muss man allerdings berücksichtigen, dass man ein Gehirn mit einem unterschiedlichen Abstraktionsgrad modellieren und simulieren kann. Diese simulierten „Gehirne“ sind stark vereinfachte Modelle. Das komplexe chemische Gehirn wurde auf ein kompliziertes neuronales Netz reduziert.

Interessierte Leser seien auf das Buch von Murray Shanahan [Sha15] oder auf das „Original“ von Raymond Kurzweil [Kur06] verwiesen.

Kaufen

Unterstützen Sie den Autor, indem Sie das Buch oder das E-Book kaufen:

Diskutieren