Moore’s Law & Landauer Prinzip

Der Fortschritt der Halbleitertechnologie gerät ins Stocken, Moore’s Law und das Landauer Prinzip zeigen bestehende Probleme auf.

Moore’s Law besagt, dass sich die Anzahl der in einem Mikroprozessor enthaltenen Transistoren etwa alle zwei Jahre verdoppelt. Das Gesetz ist mittlerweile obsolet, die ursprünglich angenommenen Werte, werden nicht mehr erreicht. Moore’s Law verdankt seinen Jahrzehnten langen Erfolg der Tatsache, dass mit der Verkleinerung der Transistoren diese gleichzeitig billiger, schneller und energieeffizienter wurden. Der Gewinn aus diesem Szenario ermöglichte Reinvestitionen in die Halbleiterfertigungstechnologie, die anschließend noch kleinere, dichter gepackte Transistoren ermöglichen konnten. Dieser Kreislauf setzte sich fort, Jahrzehnt für Jahrzehnt.

Computer haben seit rund 5 Jahrzenten stetige Verbesserungen (Geschwindigkeit) erfahren und dass nur aufgrund dem exponentiellen Anstieg der Anzahl der Transistoren, die auf einer integrierten Schaltung (IC) pro Flächeneinheit verbaut werden konnten. Heute gehen Experten aus Industrie, Wissenschaft und staatlichen Labors davon aus, dass die Halbleiterminiaturisierung vielleicht noch fünf oder zehn Jahre andauern wird. Die Verkleinerung von Transistoren bringt nicht mehr die Verbesserungen, die sie früher gebracht haben. Die physikalischen Eigenschaften von kleinen Transistoren führten vor mehr als einem Jahrzehnt zu einer Stagnation der Taktfrequenz, was die Industrie dazu veranlasste, Chips mit mehreren Kernen zu bauen.

In der Halbleiterindustrie werden derzeit enorme Anstrengungen unternommen, um die Miniaturisierung am Laufen zu halten. Aber keine Investition kann die Gesetze der Physik ändern. Obwohl derzeit immer noch kleinere Transistoren hergestellt werden können, verlassen wir allmählich den Bereich der klassischen Physik und betreten den Bereich der Quantenmechanik, in dem sich Materialien unterschiedlich verhalten. Anders ausgedrückt, es kommt die Zeit, in der ein Elektron einen so dünnen Draht nicht mehr passieren kann, seine elektromagnetische Welle „springt“ von einem Leiter zum anderen und verursacht unerwünschte Werte in den umgebenden Transistoren.

Neben den physikalischen Grenzen, wird in nicht allzu ferner Zukunft ein neuer Computer, der nur noch kleinere Transistoren hat, nicht mehr billiger, schneller oder energieeffizienter sein als seine Vorgänger. Zu diesem Zeitpunkt wird der Fortschritt der konventionellen Halbleitertechnologie gestoppt.

Das Landauer Prinzip besagt, dass die heutigen irreversibel (dt. nicht wiederherstellbar) arbeitenden Computer die eingespeiste Energie überwiegend in Form von Wärme an die Umgebung verlieren, dies geschieht insbesondere durch das Löschen eines Bits an Information und selbst wenn man die Verlustleistung drastisch reduzieren würde, käme man nicht unter eine gewisse Untergrenze der Verlustleistung. Die 1961 von Rolf Landauer beschriebene Hypothese wurde mittlerweile durch Experimente bestätigt und verknüpft die Informationstheorie mit Thermodynamik und statistischer Physik. In der gesamten Geschichte der Informatik haben unsere Computer also in einer Weise gearbeitet, die den absichtlichen Verlust einiger Informationen (sie werden zerstörerisch überschrieben) bei der Durchführung von Berechnungen verursacht.

Die derzeitige Untergrenze der Verlustleistung lässt sich nur mit grundlegenden technischen Neuerungen wie Quantencomputern oder reversibel(dt. wieder herstellbar) arbeitenden Computern unterschreiten. Letztere sind unmittelbar vom Landauer-Prinzip abgeleitet, reversibel computing bedeutet das eine Berechnung ohne Informationsverlust durchgeführt werden kann und somit aus dem Endresultat einer Berechnung, der Anfangszustand wiederhergestellt werden kann. Um ein Löschen von Information zu vermeiden, laufen diese nach dem Ende einer Berechnung rückwärts wieder in den Anfangszustand zurück. Wenn man dies umsetzen möchte, müssen vom logischen Gatter bis zur Programmiersprache alle Elemente reversibel neu entwickelt werden.

Reversibel computing ist der einzig mögliche Weg innerhalb der Gesetze der Physik, dass wir in der Lage sein könnten, die Kosten- und Energieeffizienz des universellen Rechnens bis weit in die Zukunft zu verbessern. In der Vergangenheit wurde dem Reversible Computing nicht viel Aufmerksamkeit geschenkt. Das liegt daran, dass es sehr schwer zu implementieren ist und es gab wenig Grund, diese große Herausforderung zu verfolgen, solange die konventionelle Technologie immer weiter verbessert werden konnte (Moore’s Law). Da nun das Ende des ständigen Fortschritts in Sichtweite liegt, ist es an der Zeit, dass reversible Computing in die Praxis umzusetzen.


Mit ternär basierenden Konzepten, Lösungen für die bestehenden Probleme anbieten.

JINN Labs (wurde leider gestoppt, siehe hier) arbeitet bereits an einen ternären Mikrocontroller namens „JINN“, siehe Themenbereich Hardware. Dieser könnte den nächsten Evolutionsschritt in der Halbleiterindustrie auslösen. Platzsparende und zugleich Energieeffiziente ternäre Mikrocontroller sind wie geschaffen für das zukünftige IoT, denn alle Kleinstgeräte müssen für Proof-of-Work eine relativ hohe Rechenleistung aufbringen. Jede noch so kleine Energieeinsparung ist von Vorteil, insbesondere für Batterie betriebene Geräte.


Die IF in Person von David Sønstebø argumentiert, dass ternär basierende Software, die auf ternärer Hardware läuft, folgendes bewirkt, effizienter sein.

Dazu ein Zitat David Sønstebø „Um die Wahl des ternären Systems zu verstehen, muss man verstehen, woher IOTA kommt. IOTA kommt aus der Hardwareindustrie (siehe JINN), in der das Moore‘sche Gesetz längst erschöpft ist, so, dass man neue Hardware für neuartige Anwendungsfälle entwickeln muss. Wie ich immer sage: Software treibt das Hardware-Design voran, nicht umgekehrt. Derzeit gibt es keine Hardware (abzüglich Mininghardware und Wallets) in existierenden Produkten, die irgendeine Art von DLT unterstützen, dass ist, warum IOTA Pioniere sind und wir wollen den zukünftigen Standard für langfristige Vorteile so optimal wie möglich gestalten“.

Mit dem den in Massenproduktion gefertigten binären Bauteilen für Computer wurden ternäre Computer zu einer Fußnote der Computergeschichte, obwohl das balancierte ternär System eine effizientere Zahldarstellung in der Mathematik darstellt als das Binäre. Dies wird sich laut einigen Experten in Zukunft wieder ändern, daher setzt die IF schon heute auf eine ternär basierenden Technologie, um für die Zukunft gerüstet zu sein.


An dieser Stelle ein Zitat von Limo (ehemals tangleblog):

“Wenn es Come-from-Beyond gelingt, die Energieeinsparung von logischen Gattern und Verkabelung um 36% zu reduzieren, dann bringen sie die Industrie vermutlich in den nächsten Evolutionsschritt im Rückblick auf das Moore’sche Gesetz. Eines der größten Probleme in der Halbleiterindustrie ist die Reduzierung des Energieverbrauchs. Transistoren können umso kleiner und effizienter gestaltet werden, je weniger Energie sie verbrauchen. Dann können mehr Transistoren (was in der Regel mehr Berechnungen bedeutet) in einer CPU eingebaut werden. Diese Entwicklung folgte bis vor kurzem dem Moore’schen Gesetz. CFB hat dieses Gesetz geändert. Das bedeutet weniger Verdrahtung, weniger Strom, weniger Wärme, weniger Leistung, aber die gleiche Leistung durch Abra, die trinäre Logik und JINN. Das Moore’sche Gesetz wäre nicht mehr der relevante Indikator für den Transistorfortschritt.


Quellen

https://blog.pandorafms.org/moores-law/

https://blog.pandorafms.org/reversible-computing/

https://spectrum.ieee.org/computing/hardware/the-future-of-computing-depends-on-making-it-reversible