Mark Carrel - Fotolia
Mooresches Gesetz: Neue Anwendungen benötigen mehr Leistung
Gordon Moore formulierte seine Leistungsvorhersage vor 53 Jahren. Wie lange sie noch Bestand hat, ist umstritten. Die bisherigen Steigerungen haben ihre Grenzen.
Intel feierte im Sommer 2018 sein 50-jähriges Firmenjubiläum. Der Chip-Konzern ist Symbol für die Prozessor- und Halbleiterentwicklung eines halben Jahrhunderts. Am bekanntesten ist Moore‘s Law, das auf Intel-Mitgründer Gordon Moore zurückgeht. In der überarbeiteten Fassung aus dem Jahr 1985 besagt es, dass sich die Zahl der Transistoren in einem Chip alle zwei Jahre verdoppelt – in der ersten Fassung aus dem Jahr 1965 hieß es noch, dass sich die Zahl der Transistoren bis 1975 jedes Jahr verdoppelt.
Im Wesentlichen hatte Moore Recht. Die unvorstellbaren Leistungssteigerungen der Computer-Technologie in den vergangenen Jahrzehnten gehen eindeutig auf die exponentielle Performance-Entwicklung bei den Chips – insbesondere den Prozessoren – zurück.
Das Ende ist unausweichlich
Doch diese Ära geht zur Neige. Schon seit geraumer Zeit geht das Verkleinern der Transistoren immer langsamer voran und wird immer teurer. Inzwischen sind die Transistoren in den Labors nur noch zehn Nanometer groß – das sind Größenordnungen eines Atoms.
Dass die Zahl der Transistoren auf einem Chip nicht mehr so rasant ansteigt, zeigt sich auch daran, dass die Hersteller andere Parameter, wie Stromverbrauch oder die Anzahl der Kerne, in den Vordergrund stellen. Trotzdem sind einige Chip-Experten davon überzeugt, dass – zumindest für die nähere Zukunft – Moores Law noch Bestand haben wird.
„Ich denke, dass Moores Law noch mindestens bis 2025 Gültigkeit hat, und Silizium wird sogar noch bis 2040 das alleinige Ausgangsmaterial sein“, sagt David Harold, Vice President von Imagination Technologies.
DARPA investiert 1,5 Milliarden
Einen Entwicklungsschub für neue siliziumbasierte Technologien hat jetzt die Forschungsagentur des Pentagons, DARPA, initiiert. Mit einem Etat von 1,5 Milliarden Dollar sollen innerhalb der nächsten fünf Jahre neue Wege für Hochleistungsprozessoren gefunden werden. Ziel ist die Entwicklung eines System on a Chip (SoC), dessen Performance im Vergleich zu derzeitigen Mikrochips deutlich höher sein soll.
In der sogenannten Electronic Resurgence Initiative (ERI) haben sich bereits mehrere leistungsfähige Partner zusammengefunden. Dazu zählen unter anderen Intel, Nvidia, Qualcomm, UCSD, Yale, Northrop Grumman, Cadence, Xilinx, Synopsys, USC und Princeton.
Eines der von der DARPA bereits genehmigten Projekte befasst sich mit dreidimensionalen, monolithischen System on a Chip (3DSoC). Hierbei werden die Transistoren und andere Bauelemente nicht mehr nur flach, sondern auch räumlich angeordnet. Das schafft nicht nur mehr Transistoren auf einem Chip, sondern beschleunigt auch die Kommunikation zwischen Prozessor und Memory.
Neu Materialien im Test
Trotz dieser intensiven und kostspieligen Entwicklungen wird mit Hochdruck an der schnellen Ablösung herkömmlicher Verfahren und Materialien gearbeitet. Eine Idee ist der Mehr-Komponenten-Chip, zum Beispiel aus Gallium und Stickstoff. Damit lassen sich im Vergleich zu Silizium um den Faktor 100 höhere Geschwindigkeiten und kürzere Latenzen erzielen, außerdem erlauben sie eine Lichterkennung und -emittierung.
Eine andere Alternative, die aber wesentlich weiter in der Ferne liegt, sind Graphen und Kohlenstoffnanoröhren. Beide haben elektrische, mechanische und thermische Eigenschaften, die wesentlich besser sind als bei Silizium. Doch deren Entwicklung steht erst am Anfang. Vor allem fehlt es noch an brauchbaren Fertigungstechnologien und -werkzeugen.
Doch das baldige Ende von Silizium und Moore‘s Law wird möglicherweise durch ganz andere Entwicklungen eingeläutet. Diese hängen weniger mit der Transistorgröße und den gewählten Materialen zusammen, als mit den neuen Anforderungen. So zeichnen sich bereits am Horizont viele Anwendungen ab, die im Vergleich zu heute nicht nur eine wesentlich größere Rechenleistung verlangen, sondern vor allem neue Architekturen benötigen. Beispiele hierfür sind autonome Automobile, das Internet der Dinge, künstliche Intelligenz (IoT) und Robotik. Diese integrieren selbstlernende Systeme, die ähnlich wie unser Gehirn mit parallelen neuronalen Netzen ausgestattet sind.
Trend eins: Neuromorphic Processor
Intel stellte hierzu bereits einen neuen Neuromorphic Computing Processor mit dem Namen Loihi vor. „Er arbeitet wie das menschliche Gehirn“, sagt Intels CEO Brian Krzanich bei der Ankündigung im Januar.
Der Vergleich basiert darauf, dass Loihi künstliche Neuronen integriert hat, die sich selbst vernetzen. Diese Vernetzung ändert sich aber durch die eingehenden Daten und Verarbeitungen. Das heißt, der Prozessor soll ähnlich dem Gehirn fortlaufend hinzulernen. So soll der Prototyp-Prozessor bereits in wenigen Wochen erfolgreich gelernt haben, bestimmte Objekte zu erkennen.
David HaroldImagination Technologies
„Es ist ein Chip-basiertes Lernsystem, mit dem sich Maschinen autonom in Echtzeit an veränderte Aufgaben und Umgebungen anpassen können“, sagt Michael Mayberry, Managing Director der Intel Labs, über das neue System. Anwendungsgebiete dafür sieht er bei autonomen Fahrzeugen, Robotern und Industrieautomation. Inzwischen hat Intel mehrere Prototypen dieses Prozessors an Universitäten und Forschungsinstitute zur Weiterentwicklung und zur Erprobung ausgeliefert.
Trend zwei: Quantencomputer
Der zweite Bereich, auf dem Intel forscht, sind Chips fürs Quanten-Computing. Als Grund gibt Krzanich an, dass man mit Quanten-Computing Probleme lösen kann, für die selbst die derzeit schnellsten Supercomputern Monate oder gar Jahre benötigen.
Der zugehörige Prozessor soll ein supraleitender 49-Qubit-Testchip mit dem Namen Tangle Lake sein. Anders als ein einzelnes Bit, das entweder nur eine Eins oder eine Null sein kann, kann ein Quantenbit gleichzeitig beides sein. Diese Definition impliziert, dass ein Quantenbit zwischen den beiden Zuständen viele verschiedene Information enthalten kann.
Damit hat sich Quanten-Computing zu einem heißen Thema entwickelt, denn in Zukunft werden nicht nur die Datenberge rasant anwachsen. Auch die zugehörigen Algorithmen werden komplexer und benötigen mehr Rechenleistung. Noch aber ist es nicht soweit. „Wir haben noch einen sehr langen Weg vor uns, bis Quantencomputer eine kommerzielle Relevanz erreicht haben“, sagt Mayberry. Er schätzt, dass es mindestens noch sieben Jahre dauern wird.
Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!