Internet, KI, Computer
04.01.2019, 12:13 Uhr
Die größten Fehlprognosen der Technikgeschichte
Gerade in der Technikwelt ist der Blick in die Kristallkugel äußerst schwierig. Selbst Experten lassen sich häufig zu eklatanten Fehlprognosen hinleiten. Die größten Vorhersage-Fails der Technikgeschichte hier in der Übersicht.
Es ist wieder die Zeit im Jahr, in der Marktbeobachter und Branchenexperten den Blick in die Kristallkugel wagen. Während die meisten Vorhersagen - da einigermaßen absehbar und plausibel - gute Chancen haben, in Erfüllung zu gehen, hat der eine oder andere Technologie-Guru auch schon schwer daneben gehauen. Wir haben in der Folge ein paar der größten Fehlprognosen der Technologiegeschichte zusammengetragen.
Skepsis ohne Ende
Solange schon Ingenieure neue Technologie erfinden, gibt es Leute, welche die Innovationen äußerst skeptisch betrachten. So soll bereits der römische Senator Sectus Iulius Frontinus im ersten Jahrhundert unserer Zeitrechnung behauptet haben, dass alles erfunden sei und es keinen Raum mehr für Verbesserungen gäbe. Nun: Der Erfindergeist der nächsten Jahrhunderte und Jahrtausende strafte den Toga-Träger definitiv Lügen.
Speziell skeptisch wurde auch der Beginn der Industrialisierung betrachtet. So konnte sich der französische Kaiser Napoleon Bonaparte nicht vorstellen, dass Schiffe einst mit Dampf betrieben werden könnten. Apropos Dampfkraft: Auch der Lokomotive und der Eisenbahn wurden keine großen Zukunftsaussichten nachgesagt. Berühmt ist hier das Zitat von Dionysius Larder, der befürchtete, dass Passagiere in zu schnell fahrenden Zügen an Atemnot sterben würden.
Auch der Elektrizität wurde keine große Zukunft eingeräumt. "Nach der Schließung der Weltausstellung in Paris wird auch das elektrische Licht ausgehen und in Vergessenheit geraten", soll etwa 1878 Erasmus Wilson, seines Zeichens Professor an der renommierten Oxford Universität, prognostiziert haben. Auch das Automobil wurde als Spielzeug abgetan: Pferde seien hier, um zu bleiben, das Auto dagegen eine Modeerscheinung, orakelte 1903 C. T. Bridgman, Präsident der Michigan Savings Bank, und riet dem Anwalt von Henry Ford ab, in dessen Firma Geld zu investieren.
Unzulängliche Telefone
Es gibt somit kaum eine Technologie, die nicht als aussichtslos und ohne Zukunft abgetan wurde. Zahlreich sind daher auch die Fehlprognosen aus dem Bereich Informations- und Telekommunikationstechnologie. Die ersten Fehldeutungen beginnen bereits mit der Erfindung des Fernsprechers. "Dieses Telefon hat zu viele Unzulänglichkeiten, um ernsthaft als Kommunikationsmittel in Frage zu kommen", meinte etwa anno 1876 William Orton, Präsident von Western Union. Zumindest mehr als ein Jahrhundert lang sollte sich die Vorhersage von Orton als falsch herausstellen. Bis zum Siegeszug der E-Mail und anderen digitalen Kommunikationsformen war die Übermittlung der Stimme über "singende Drähte" die beliebteste und begehrteste Art der Menschen, in Kontakt zu treten und zu bleiben.
In Sachen Telefon gibt es eine weitere Fehlprognose, die ebenfalls als typisch gelten kann. Die Aussage nämlich, dass eine Erfindung nur für einen bestimmten Teil der Welt geeignet sei. "Die Amerikaner können das Telefon gebrauchen, wir aber nicht. Wir haben genügend Laufburschen", soll 1878 Sir William Preece Chef-Ingenieur der Britischen Post gesagt haben.
Die Welt war gut verdrahtet, jedes Haus und Büro über einen Fernsprechapparat erreichbar, da überlegten sich Ingenieure ernsthaft, diese Drähte zu kappen und das Mobiltelefon zu entwickeln. Allerdings war selbst der Vater des Handys, Marty Cooper, nicht sonderlich von seiner Erfindung überzeugt. "Mobiltelefone werden überhaupt nicht die lokalen verdrahteten Systeme ersetzen", gab er 1981 zu Protokoll. Heute ist klar, dass das Smartphone bei vielen Zeitgenossen das Festnetztelefon ersetzt hat.
Fünf Computer müssen weltweit reichen
Dass es schwierig ist, kurz nach der Erfindung eines neuen Gerätes, deren künftige Verbreitung oder Marktmacht zu beurteilen, beweist auch die Computerindustrie im engeren Sinn. Watson heißt heute der große, mit viel Künstlicher Intelligenz ausgestattete Rechner von IBM. Wäre es nach dessen Namensgeber gegangen, könnten wir die Anzahl Computer heute lediglich an einer Hand abzählen. "Ich denke, es gibt vielleicht einen Weltmarkt für fünf Computer", hat 1943 Thomas Watson, Vorsitzender von IBM, prophezeit. Zugegeben, das war zu einer Zeit, da die ersten Rechner ganze Hallen füllten. Wenig konnte Watson ahnen, dass künftig seine Firma den PC zum wahren Massenprodukt machen würde.
Die Grenzen der Computertechnik ließen sich in den 1940er Jahren ebenfalls nicht wirklich absehen. Dies beweist ein Zitat des berühmten Computerwissenschaftlers John von Neumann. Er sah 1949 schlicht und einfach bereits das Ende seiner Zunft gekommen. "Es macht den Anschein, dass wir die Grenzen dessen erreicht haben, was mit Computertechnologie möglich ist", lautete seine gewagte These.
Die neuen Datenverarbeitungsmonster
Die Größe der damaligen neuen Datenverarbeitungsmonster war denn auch das Ziel vielerlei Spekulationen, die sich als falsch herausstellten. "In der Zukunft werden Computer nur 1.000 Vakuumröhren aufweisen und nicht mehr als 1,5 Tonnen wiegen", prognostizierte das Magazin "Popular Mechanics" 1949 und lehnte sich mit dieser Vorstellung stark aus dem Fenster. Denn zur der Zeit wog die mit 18.000 Röhren bestückte Eniac 30 Tonnen. Angesichts dieses Gewichts ist es wirklich kaum vorstellbar, dass heutzutage Hinz und Kunz einen Rechner mit sich in der Hosentasche herumführt, der um die 200 Gramm wiegt.
Spätestens in den 1960er Jahren waren Röhrenrechner Geschichte und von Transistorrechnern ersetzt worden. Integrierte Schaltkreise waren bereits en vogue, da tauchten erste Prototypen des Mikroprozessors auf. "Für was zur Hölle soll das gut sein?", meinte 1968 Robert Lloyd, Ingenieur der Abteilung für Advanced Computing Systems bei IBM, zu Kollegen, die im Mikroprozessor die Computing-Zukunft erblickten - und recht behalten sollten. Immerhin sollte zur Ehrenrettung der Branche erwähnt sein, dass zu jener Zeit (1965) ein gewisser Gordon Moore von Intel die These aufstellte, dass sich die Anzahl integrierter Schaltkreise alle zwölf bis 24 Monate pro Flächeneinheit verdoppeln werde, eine Vorhersage, die als Moore´sches Gesetz bekannt wurde und bis heute seine Gültigkeit behalten hat.
Das Unding Heimcomputer
Andre bekundeten dagegen Mühe die Miniaturisierung, die zukünftige Verbreitung von Computern und deren Rechenleistung und -hunger für die Nahe Zukunft richtig einzuschätzen. Zu den wohl bekanntesten Fehleinschätzung gilt der Ausspruch von Kenneth Olsen, Präsident, Vorstandvorsitzender und Gründer der Firma Digital Equipment Corporation (DEC), der 1977 während einer Rede sinnigerweise am Treffen der World Future Society in Boston sagte: "Es gibt keinen Grund, warum irgend jemand einen Computer zuhause haben möchte". Die Fehlinterpretation von Olsen wiegt umso schwerer, da zu jener Zeit bereits die ersten PCs erhältlich waren, darunter der Apple I, der 1976 erschien. Schon im Folgejahr begann mit dem Apple II und dem PET von Commodore, dem Vorläufer des C64, die Individualisierung des Computing in allem Ernst. Nur schon der Apple II wurde sechs Millionen Mal verkauft, vom C64 sogar 22 Millionen Stück.
Kann man bei Olsen auch davon ausgehen, dass er als Hersteller von größeren, zentralen Firmenrechnern keine PC-Konkurrenz haben wollte, führen andere Vorhersagen aus der Frühzeit des aufkeimenden PC-Zeitalters zu mehr Stirnrunzeln. Sehr berühmt ist eine Aussage, die dem Microsoft-Mitgründer und damaligen CEO Bill Gates zugeschrieben wird. Er soll nämlich behauptet haben, dass "niemand mehr als 640 Kilobyte RAM in seinem PC benötigt". Nur schon das aktuelle Betriebssystem von Microsoft, Windows 10, benötigt mindestens zwei GByte Zwischenspeicher. Für ein komfortables Arbeiten sollte der eigene PC wohl eher mit einem Vielfachen dessen ausgestattet sein.
Auch wenn Gates dementiert, die 640-K-Aussage je gemacht zu haben ("Ich habe viele dumme Dinge in meinem Leben behauptet, aber nicht das"), dürfte der Microsoft-Boss dennoch in die Annalen eingehen, als Orakel, das mehr als einmal danebengehauen hat. "Wir werden nie ein 32-Bit-Betriebssystem bauen", sagte er während der Veröffentlichung des 8-Bit-Heimcomputers MSX im Jahre 1983. Zehn Jahre später, 1993, brachte Microsoft Windows NT auf den Markt, das - wir ahnen es schon - eine Wortbreite von 32 Bit unterstützte. Übrigens heute sind 64-Bit-Betriebssysteme Usus und die 32-Bit-Vorgänger auf dem Weg zum Software-Friedhof.
Ebenfalls belegt ist die Aussage von Gates aus dem Jahre 1980, dass er niemanden kenne, der durch das Schreiben von Software reich geworden wäre. Nun ja, er kannte wohl seine eigene Karriere als künftig reichster Mann der Welt noch nicht, als er sich zu dieser Aussage hinreißen ließ. Wobei: Ganz so falsch ist die Aussage gar nicht. Das reine Schreiben von Software ist noch keine Garantie für Reichtum, wohl eher die geschickte Vermarktung und Vereinnahmung von Entwicklungen.
Supernova Internet
Auch die Entwicklung des Internets und damit einhergehenden Trends gehört nicht zu den Gebieten, in denen Gates mit Augurenkünsten zu glänzen wusste. So behauptete er am 15. Januar 2004 während des World Economic Forums (WEF) in Davos, dass das "Spam-Problem in zwei Jahren gelöst" sei. Der Anteil an Spam-Mails in Unternehmen weltweit beträgt laut Statista nach wie vor zwischen 55 und 60 Prozent. Spam ist somit alles andere als gelöst.
Sogar ausgewiesene Netzwerk-Gurus lagen gelegentlich daneben, was die Entwicklung des Internet selbst betrifft. So prognostizierte der Ethernet-Erfinder und 3Com-Gründer Bob Metcalfe im April 1995 in einer Kolumne der US-Fachzeitschrift Infoworld das baldige Ende des Netz der Netze. "Das Internet wird bald eine Supernova bilden und 1996 katastrophal kollabieren", schrieb er. Zum Glück hatte er unrecht, genauso wie unser bereits bekannter Fehlprognostiker Gates, der schon 1993 behauptet hatte: "Das Internet ist nur ein Hype". Nicht nur Gates konnte sich irren, auch der was Trends anbelangt als besonders findig geltende Apple-Mitgründer Steve Jobs postulierte Ende 2003: "Das Abo-Modell für den Kauf von Musik ist gescheitert". Eine kleine schwedische Firma namens Spotify sollte den als Technologie-Guru gefeierten Jobs eines besseren belehren.
Hightech-Schwärmereien
Die meisten Fehlprognosen scheinen dem Negativismus zu fröhnen und die wahre Zukunft von Technologien zu verkennen. Es gibt aber auch das Umgekehrte: Leute, die das Potenzial gewisser Erfindungen und Entwicklungen komplett überschätzen.
Neben der Vorstellung von atomar betriebenen Staubsaugern, wie sie der US-amerikanische Haushaltsgerätehersteller Alex Lewyt 1955 formulierte, oder vom Raketen-getriebenen, transkontinentalen Transport von Paketen, wie er dem damaligen US-Post-Chef Arthur Summerfield vorschwebte, wurden auch die Möglichkeiten von Computertechnologien weitaus zu positiv gesehen.
Der Vater der künstlichen Intelligenz
Bestes Beispiel ist dabei die Prognose von Herbert Simon von der Carnegie Mellon University. Der als Vater der künstlichen Intelligenz geltende Forscher meinte in einem 1965 gehaltenen Vortrag: "Bis 1985 werden Maschinen in der Lage sein, alle Arbeiten zu verrichten, die der Mensch erledigen kann". Selbst wenn dies jemals möglich sein wird in Anbetracht der rasanten Entwicklung in der künstlichen Intelligenz und Robotik der letzten Zeit, hat sich Simon um einige Jahrzehnte verschätzt.
Immer wieder daneben liegen auch Experten, die davon schwärmen, dass die Menschheit geliebte analoge Speicherformen wie das Papier der Digitalisierung opfern werde. "Zur Jahrhundertwende werden wir in einer papierlosen Gesellschaft leben", formulierte 1986 General-Motors-Boss Roger Smith. Zu ihm gesellten sich die zahlreichen Apostel des papierlosen Büros, das bis zum heutigen Tag eine Utopie geblieben ist.