Erklären Sie uns doch bitte – ehe wir in die Mythen einsteigen, die sich um Quantencomputing-Technologie ranken – in ein paar Sätzen: Was ist eigentlich das besondere an Quantencomputern?
Sabina Jeschke: Sie werden das Thema High-Performance-Computing auf eine völlig neue Ebene heben – und zwar bald. Darüber ist sich die Fachwelt einig. Das heißt, wir reden dann nicht mehr über das
Mooresche Gesetz – also die Verdoppelung der Geschwindigkeit „normaler“ Rechenleistung in Computern alle 18 Monate, wie wir das bisher kannten –, sondern von einer Explosion der Leistungsfähigkeit. Und damit von der Möglichkeit, Dinge zu berechnen und Szenarien zu simulieren, von denen es noch gar keine Modelle gibt, weil wir bisher immer davon ausgegangen sind: Das lohnt sich nicht, denn die Rechenzeiten würden 20 oder 200 oder sogar 2.000 Jahre betragen.
Starten wir mit dem ersten Mythos: „Die Ära der Quantencomputer ist noch weit entfernt.“ Warum ist das falsch?
Jeschke: Weil wir Deep-Temperature-Quantum-Computing – also die Rechner, die eine sehr tiefe Temperatur von etwa minus 273 Grad Celsius benötigen – in einer durchaus ernst zu nehmenden Form schon 2025 sehen werden; Quantenrechner bei Raumtemperatur so etwa 2028. Vielleicht sind sie noch nicht leicht bezahlbar, das sehe ich eher ein bis zwei Jahre später. Es gibt übrigens heute schon
Quantencomputer mit noch wenigen Qubits, von IBM etwa, mit denen können Sie bereits Experimente durchführen, Proof of Concepts also. Auch wenn die Leistungsfähigkeit dieser Rechner derzeit noch gering ist, sie eine Art „Baby“ zukünftiger Quantencomputer darstellen mit noch hoher Störanfälligkeit – sie funktionieren konzeptionell und entwickeln sich rasch weiter.
Das heißt: Wer das nicht weiß und dem Mythos verfällt, liegt schon im Rückstand?
Jeschke: Ja. Und was viele Unternehmen noch nicht wirklich realisiert haben: Sie rechnen zum Beispiel Optimierungsverfahren in großen Rechenzentren, die dort im Laufe der Jahre von immer neueren Rechnern abgelöst werden, ohne dass die Unternehmen auf diese Hardware-Veränderungen aktiv reagieren mussten. Das geschieht völlig abgeschottet und eher evolutionär; die Rechner verfügen über „backward compatibility“. Als Nutzer stellt man nur erstaunt fest, dass das Problem immer schneller gelöst wird. Und jetzt kommt plötzlich die Quantenrevolution: Rechner, die physikalisch ganz anders aufgebaut sind und auf denen bestehende Codes nicht interpretiert werden können.
Das bedeutet?
Jeschke: Dass wir schon heute Codes entweder neu schreiben oder sehr, sehr intelligent „übersetzen“ müssen, wenn wir an der Quantenrevolution partizipieren wollen. Anders als beim Leistungsanstieg der traditionellen Rechner kann ich nicht bis 2025 warten und dann einfach auf Quantencomputer umschwenken! Ich muss relativ viel vorbereiten. Wer das nicht tut, wird es besonders extrem zu spüren bekommen, wenn das Mooresche Gesetz zu einem Ende kommt, was etwa zeitgleich, also rund 2025, sichtbar werden wird. Das wird zum Beispiel für Simulationssoftware eine Art „Einfrieren der Leistungssteigerung“ bedeuten. Gleichzeitig kommen dann andere Unternehmen, die ihre Produkte bereits jetzt auf die Quantenwelt optimieren – „born quantum companies“ in Anlehnung an „born digital“ – und ziehen rechts und links an der etablierten Konkurrenz vorbei.
Mythos zwei: „Quantencomputer werden sowieso nur für Spitzenleistungen benötigt.“
Jeschke: Viele Menschen glauben: So was brauche ich nicht, das ist vielleicht für Klimamodelle gut, für Proteinfaltung oder für DNA-Analytik. Also für Bereiche, von denen man weiß, dass die Berechnungen außerordentlich komplex und damit langwierig sind. Tatsächlich gibt es aber auch sehr „alltägliche“ Anwendungsmöglichkeiten, und sie stellen sogar die Mehrheit dar. Nehmen wir das über 30.000 Kilometer lange Bahnnetz in Deutschland. Bei den heutigen Rechnerleistungen stoßen wir schnell an Grenzen, wenn zum Beispiel folgendes Problem in hinreichender Echtzeit gelöst werden soll: Zwischen Hannover und Bremen liegt ein Baum auf der Strecke. Wie wirkt sich das auf alle heute fahrenden Züge in Deutschland aus? Oder das Beispiel Fußball: Versuchen Sie mal, alle Spielpläne in Deutschland unter Berücksichtigung von Spielorten und Massen von Rahmenbedingungen, selbst solche wie „Karneval in NRW“, perfekt und schnell zu erstellen.
Von welchen Dimensionen reden wir hier?
Jeschke: Wenn man solche Probleme komplett durchrechnen will, dann hat der Lösungsraum oft etwa so viele Punkte, wie unser Sonnensystem Atome hat. Das bedeutet in der Praxis, dass wir nicht den ganzen Lösungsraum durchsuchen können, weil in der Regel nur ein beschränktes, oft sogar sehr enges Zeitfenster zur Verfügung steht, um eine Lösung zu finden. Und doch werden wir mit Quantencomputern in diese Bereiche vorstoßen und dort, wo wir uns heute mit einer „Good-Enough-Lösung“ zufriedengeben, optimale Lösungen finden. Wir werden, um zum Bahn-Beispiel zurückzukommen, keine Antwortzeiten von, sagen wir, 20 Tagen mehr haben, was nichts nützt, wenn innerhalb von zwei Minuten entschieden werden muss. Wir werden stattdessen Probleme plötzlich in Echtzeit lösen können. Das sind dann Spitzenleistungen, die auch dem Individuum sehr nützen.
Wir kommen zu Mythos drei: „Es gibt ja noch keine Quantencomputer, also lohnt es sich nicht, mich damit zu beschäftigen.“
Jeschke: Zwei Jahre bis 2025 sind nicht viel, oder? Wenn wir über Fragen nachdenken wie: Welchen Use Case habe ich in meinem Unternehmen? Wie kann ich mir hier einen Vorteil gegenüber meinen Wettbewerbern verschaffen? Wie kriege ich bis dahin die nötigen Talente an Bord, und wo kommen die her? Wenn ich also rechtzeitig Kompetenzen aufbauen und ein Ökosystem integrieren will – da kann ich doch fast schon von Glück sagen, dass die Rechner nicht bereits morgen kommen. Dann hätte ich nämlich ein ernsthaftes Thema und eine Entwicklung verschlafen. Ich kann mich ja schon heute mit der praktischen Seite beschäftigen. Ich kann schon jetzt auf bereits funktionierende Quantensysteme zugreifen, die sogenannten Annealer. Diese können zwar nur bestimmte Problemklassen berechnen, sind also keine universellen Quantencomputer. Aber wenn Unternehmen Optimierungsverfahren haben, die durch Annealer gelöst werden können, dann können sie das bereits heute tun, mit teilweise sehr guten Resultaten. Und was den meisten Menschen auch nicht bewusst ist: Sie können heute schon „quantum-inspired algorithms“ verwenden.
Das heißt?
Jeschke: Sie haben ein Optimierungsthema, für das Sie in Ihrer Organisation bisher noch kein Optimierungsverfahren entwickelt haben, also nehmen wir mal ein Beispiel wie das oben genannte der Bahn, oder auch: Wie kriege ich 60.000 Piloten und Pilotinnen und das Kabinenpersonal optimal auf die Flugzeuge der Lufthansa verteilt? Sie können dafür einen Optimierungsalgorithmus entwickeln, der vereinfacht gesagt so angelegt ist, als hätten Sie einen Quantencomputer. Sie lassen ihn dann vorübergehend auf klassischen Systemen rechnen, auf CPUs oder GPUs, und legen dann, wenn die Quantensysteme da sind, einfach den Schalter um. Sie schaffen sich also eine „forward compatibility“, indem Sie einen Algorithmus bauen, dessen Modellierungen eigentlich für eine spätere Version von Computern bestimmt sind, den Sie aber in der Übergangszeit noch auf bestehender traditioneller Hardware laufen lassen können.
Man könnte meinen, dass solche Probleme für die heutigen Rechner auch zu lösen sein müssten.
Jeschke: Das Problem an sich klingt ja auch relativ einfach, aber es gibt eben eine unglaublich hohe Anzahl an Rahmenbedingungen: Flugzeiten, Verspätungen, Umsteigezeiten, Arbeitswege, Tages-Arbeitszeiten der Piloten und Pilotinnen und des Kabinenpersonals, ihre Wochen-Arbeitszeiten, Dienstantrittszeiten. Wenn Sie das alles mitplanen wollen, entsteht ein Lösungsraum, der so groß ist, dass Sie ihn in einer vernünftigen endlichen Zeit nicht untersuchen können. Sie nehmen also wieder die „Good-Enough-Lösung“, die beste, die Sie aktuell finden können.
Wir können heute noch gar nicht abschätzen, wie weit wir in einzelnen Problemfeldern vom globalen Optimum entfernt sind. Das wissen Sie nicht, und das weiß ich nicht, weil wir nicht wissen, wo überhaupt das globale Optimum liegt.
Von wie vielen Rechenvorgängen sprechen wir überhaupt, also im Vergleich heute – morgen?
Jeschke: Das ist etwas schwer zu sagen. Wir können noch keine Messungen machen, weil es ja die Rechner noch nicht gibt. Die Hardwarehersteller und Quantumspezialisten sagen aber heute: Wenn ein herkömmlicher Computer zwei Wochen an einem Problem rechnet, dann dauert das künftig vielleicht eine Stunde oder eine Minute. Und zwar mit einem feinen Unterschied: In dieser Stunde oder Minute wurde der gesamte Lösungsraum durchsucht, nicht nur eine Teilmenge, wie das heute zwangsweise gemacht wird.
Unternehmen müssen heute schon berücksichtigen, dass sie bald Probleme werden lösen können, an die sie sich heute gar nicht herantrauen, weil das sowieso keinen Sinn machen würde?
Jeschke: Ja. Bis jetzt haben wir ja das Mooresche Gesetz; in den vergangenen 20 Jahren sind ganze Rechenzentren in meinem Smartphone gelandet. Aber das Mooresche Gesetz setzt eben bald aus.
Und obwohl man das weiß, leben viele Unternehmen in einem Henne-Ei-Prinzip?
Jeschke: Nachdem wir Quantagonia gegründet hatten, habe ich eine Vielzahl von Interviews in sehr verschiedenen Branchen geführt, dafür in verschiedenen Unternehmen angerufen und gesagt: Gebt mir doch bitte mal euren besten Quantencomputing-Spezialisten. Da gab es interessante Reaktionen im Sinne von: Wen? Was? Aber das ist nicht überall so. Es gibt heute extrem viel Wissen in Bereichen, in denen Materialwissenschaft eine große Rolle spielt – also Pharma, Chemie, Kunststoff, Medizintechnologien. Vielen CTOs dieser Bereiche ist schon ab 2015 klar geworden, wie nützlich Quantumcomputing für sie sein wird, welche massive Beschleunigung sie damit bekommen. Am anderen Ende der Skala stehen eher Infrastrukturprovider. Sie sind – Ausnahmen bestätigen die Regel, bitte! – tendenziell nicht die Allerstärksten in der Digitalisierung und auch nicht in der Cloudifizierung. Und der letzte Punkt spielt eine zentrale Rolle: Unternehmen mit breiter Cloudinfrastruktur können über diese perspektivisch auch bald auf Quantencomputer zugreifen, weil die Cloudanbieter diese Services bereits aufbauen. Diejenigen, die das nicht haben, müssen sich die Zugänge deutlich komplizierter beschaffen. Am interessantesten ist übrigens die Gruppe dazwischen: hochtechnologische Firmen, die schon 2019 über Use Cases nachgedacht, mit Unis kooperiert, mal eine Studienarbeit betreut und kleine interne Fach-Communitys aufgebaut haben.
Stichwort Uni: Gibt es überhaupt genügend Fachkräfte?
Jeschke: Es gibt einen absoluten War of Talents im Quantumcomputing-Umfeld. Und man muss sehen, dass sich jetzt die ersten Studiengänge aufbauen, die das Thema in seiner interdisziplinären Breite adressieren.
Es gibt keine?
Jeschke: Noch nicht. Wenn man auf dem Feld Quantencomputer richtig gut sein will, braucht man umfassende Informatik-, Mathematik- und Physikkenntnisse. Domänenkenntnisse wären auch hilfreich, um zu verstehen, bei welchen Problemen Quantumcomputing schnell einen Unterschied ausmachen könnte. Wir haben es heute also vorwiegend mit Menschen zu tun, die aus einer der genannten Richtungen kommen und die ihre zusätzlichen Kenntnisse durch fachlichen Austausch in den Unternehmen oder selbst geleitet – durch Weiterbildung, aber auch YouTube und Co. – erwerben.
Wir haben uns zu Mythos vier vorgearbeitet: „Ist eh alles zu teuer.“
Jeschke: Dieses K.-o.-Argument hören wir manchmal. Es gibt Menschen, die wenig wirkliche Kenntnisse von Quantumcomputing haben, aber pauschal dann solche Kommentare etwa in sozialen Medien hinterlassen. Sie haben vielleicht irgendwo gelesen, dass man die Systeme auf minus 273 Grad abkühlen muss, und vermuten lediglich, dass das dann doch wahnsinnig teuer und aufwendig sein muss.
Solche Aussagen sind viel zu pauschal. Man muss ja zum Beispiel nicht den ganzen Quantencomputer bei so tiefen Temperaturen fahren, sondern nur einen kleinen Bereich – der, in dem tatsächlich gerechnet wird. Und außerdem: Ist das nicht immer so bei neuen Technologien? Wenn ich den Preis der ersten Batterie für ein Elektroauto genommen und versucht hätte, daraus abzuleiten, ob ich eines Tages E-Autos verkaufen kann, dann hätte die Antwort klar gelautet: Nein. Prototypen kosten immer extrem viel, und dann kommt der übliche Preisverfall. Schließlich: Durch die Cloudifizierung sind wir ja gar nicht gezwungen, für sagen wir mal 15 Millionen Euro einen Quantencomputer zu kaufen; wir mieten uns nur temporär „eine Scheibe“ davon über entsprechende Lizenzmodelle.
Für etwa 11.000 Euro pro Monat, zum Beispiel bei IBM – so der Stand 2022.
Jeschke: Und auch diese Lizenzgebühren werden mit der breiteren Verfügbarkeit weiter sinken. Hohe Preise sind also meiner Meinung nach ein vorgeschobenes beziehungsweise ein wenig durchdachtes Argument.
Wir haben über Tiefkühlung der großen Quantencomputer und immense Rechenleistungen gesprochen und kommen damit zu Mythos fünf: „Quantencomputer sind Stromfresser und beschleunigen den Klimawandel.“
Jeschke: Genau das Gegenteil ist voraussichtlich der Fall. Aber auch hier wieder der kleine Disclaimer: Da die Rechner noch nicht existieren, können wir die Energiebilanz nur abschätzen, nicht messen. Aber wir erwarten, dass Deep-Temperature-Systeme etwa zehn Prozent der heute benötigten Energie verbrauchen werden. Und wir erwarten, dass die Systeme, die bei Raumtemperatur arbeiten, sogar noch deutlich darunter liegen, eher zwei Größenordnungen weniger im Vergleich zum heutigen Energieverbrauch. Wir müssen bei den Kosten das ganze System betrachten, und Energie-Nebenkosten werden ja das absolut dominante Thema der nächsten Jahre. Wenn also ein Quantenlaptop für zu Hause vielleicht das Doppelte kosten würde wie ein heutiges Modell, aber kaum noch Energie verbrauchte, wäre das möglicherweise trotzdem ein gutes Angebot. Wenn sich die Energiebilanzen so entwickeln, wie es die Fachleute heute voraussagen, haben wir eventuell bis 2030 eine Trendwende zu einer Art „quantum first“.
Können Sie sich vorstellen, dass wir 2030 alle ein Quanten-iPhone in der Tasche haben?
Jeschke: Das ist gut möglich. Vielleicht nicht primär, weil die Rechnerleistung notwendig wäre, sondern dann vor allem, weil die Gesamt-Energiebilanz eines solchen „Q-Phones“ viel, viel besser wäre und damit natürlich auch die Laufzeit länger und die Ladezeit kürzer.