Start Was ist KI? KI-Anwendungen Computer Weltregionen Forschung Entwicklung

.
..
..
..
.

Recht
Aktuelles
Statistik
Militärisches
Robotik
Publikationen
Lexikon

KI

pfeilWas ist ein Quantencomputer?

Mit der Quantenmechanik werden heute extrem leistungsfähige Rechner gebaut. Eine Einführung in die nächste Generation der Computerei...

Quantencomputer besitzen Eigenschaften, die schier unglaublich sind: Deren Leistungsfähigkeit steigert sich exponentiell mit zunehmender Größe. Große Welt-Konzerne wie Google und IBM arbeiten an der Herstellung von Quantencomputer und präsentieren wissenschaftliche Durchbrüche wie erste kommerzielle Lösungen.

Quantencomputer sind schneller als Superrechner; schneller als wir uns das vorstellen können... Es sind neuartige Computer, die Energie aus den Überlagerungs- und Verschränkungselementen der Quantenphysik beziehen (gleich mehr dazu) und Informationen auf sehr, sehr schnelle Weise verarbeiten.

Quantencomputer haben eine schnellere und effizientere Verarbeitungsleistung als jeder andere Computer. Deswegen sind sie prädestiniert für den Einsatz von KI-Software...

Wie entstanden die Quantencomputer?

Der deutsche Physiker Werner Heisenberg (1901 – 1976) gab 1925 die erste Formulierung der Quantenmechanik.

1927 formulierte er die Heisenbergsche Unschärferelation, eine der fundamentalen Aussagen der Quantenmechanik – nämlich, dass bestimmte Messgrößen eines atomaren Teilchens, etwa die Bestimmung dessen Ortes und dessen Impulses, nicht gleichzeitig beliebig genau zu bestimmen sind.

Für die Begründung der Quantenmechanik wurde Werner Heisenberg 1932 mit dem Nobelpreis für Physik ausgezeichnet.

Heisenberg, so sei hier kurz referiert, ist einer der bedeutendsten Physiker des 20. Jahrhunderts.

Quantencomputing ab 1981

Mit der Entwicklung der Quantenphysik machte auch die Idee des Einsatzes von Quantencomputern Fortschritte. Diese Idee wurde Anfang der 1980er Jahre vom Nobelpreis-Physiker Richard Feynman konzipiert, um die komplexen und langwierigen Gleichungen der Quantenphysik zu lösen. Im Jahr 1981 schuf Paul Beniof die Theorie des Quantencomputings – basierend auf den Ideen des Physikers Max Planck.

Geprägt wurde der Begriff “Quantencomputer” auf der ersten Conference on the Physics of Computation am MIT im Mai 1981 durch die Vorträge der Physiker Paul Benioff und Richard Feynman über das quantum computing.

Paul Benioff präsentierte eine Arbeit, die demonstrierte, dass Computer unter den Gesetzen der Quantenmechanik arbeiten können. Und Richard Feynmans Vortrag stellte erstmals ein Grundmodell für einen Quantencomputer vor.

Der Quantencomputer blieb lange ein theoretisches Konzept. Es gab verschiedene Vorschläge, wie ein Quantencomputer realisiert werden könnte, in kleinem Maßstab wurden einige dieser Konzepte erprobt und erste Quantencomputer mit wenigen Qubits realisiert.


Quanten-Programme

Auf einem Quantencomputer kann man nicht dieselben Algorithmen laufen lassen, die auf einem herkömmlichen Computer funktionieren. Stattdessen muß man für Quantencomputer neue, fremdartige Quanten- Algorithmen konstruieren...

> Mehr dazu lesen.

Durchbruch ab 2020

Der Rekord der in Qubits gemessene Leistung lag im November 2021 bei 127 Qubits für den Prozessor. Und schon ein Jahr später, bei 433 Qubits.

Neben der Anzahl der Qubits ist aber auch eine geringe Fehlerquote beim Rechnen und Auslesen wichtig – und wie lange die Zustände in den Qubits fehlerfrei aufrechterhalten werden können.

Seit 2018 investieren viele Regierungen und Forschungsorganisationen sowie große Computer- und Technologiefirmen weltweit in die Entwicklung von Quantencomputern, die als eine der entstehenden Schlüsseltechnologien des 21. Jahrhunderts angesehen wird.

Der Shor-Algorithmus

Im Jahr 1994 hatte der Mathematiker Peter Shor vom Massachusetts Institute of Technology / MIT eine Idee, die eine neue Ära einleitete. Shor untersuchte ein neues Verfahren, um eine ganze Zahl in Primzahlen zu zerlegen.

Diese Primzahl-Faktorisierung ist eine aufwendige Angelegenheit; um sehr großen Zahlen in Primzahlen zu zerlegen, brauchen selbst sehr leistungsstarke Supercomputer mehrere Jahre.

Es ist zwar sehr einfach selbst große Zahlen aus bekannten Primzahlen zusammenzusetzen (z.B. 7 × 13 × 13 × 17 × 53 = 1065883).

Doch die Umkehrung ist nahezu unmöglich!

Peter Shor fragte sich, ob es ein neues Verfahren gäbe, um neue Algorithmen für die Primzahlzerlegung zu erstellen. Dann erinnerte er sich an eine Pflichtvorlesung über Quantenmechanik, die er am California Institute of Technology (Caltech), gehört hatte.

Ihm kam die Idee, dass das Verfahren viel schneller zum Ziel führen könnte, wenn man zur Berechnung nicht einen “normalen” Computer, sondern einen Quantencomputer verwenden würde. Shor tüfftelte ein Jahr an seinem Quanten-Algorithmus und kam tatsächlich zu dem gewünschten Ergebnis.

Sein Algorithmus schlug ein wie eine Bombe!

Bis zu diesem Zeipunkt war es noch niemanden gelungen, einen Quantencomputer zu konstruieren. Der Shor-Algorithmus war aber der erste Beweis, wie leistungsstark ein Quantencomputer sein würde.

Shors Algorithmus löste einen regelrechten Boom in den Quantencomputer-Szene aus.

Qubits (Quanten-Bits) einfach erklärt Im Gegensatz dazu steuert ein Quantencomputer die Informationen nicht über einfache An/Aus-Schalter an, sondern über sogenannte „Qubits“ (= Quanten-Bits).

In einem Qubit sind die Werte 0 oder 1 (beziehungsweise An oder Aus) gleichzeitig in einer überlagerten Form vorhanden. Diese Überlagerung ist ein wesentliches Element der Quantenmechanik. Dieses Verhalten hat sehr ungewöhnliche Konsequenzen.

Die zweite ungewöhnliche Eigenschaft von Qubits ist folgende: Man kann einen Quantencomputer zwar durch einen herkömmlichen Computer simulieren, der Aufwand dafür nimmt mit steigender Qubitzahl aber sehr schnell gigantische Ausmaße an.

Quantenparallelismus, Superposition

Nehmen wir das Beispiel mit dem Multiplizieren. Ihr herkömmlicher PC nimmt sich zwei Zahlen, in Form von zwei Bit-Reihen im Arbeitsspeicher, führt das Programm von einzelnen Rechenschritten aus und erhält am Ende eine Zahl in Form von einer Bit-Reihe.

Ein Quantencomputer nimmt für eine Aufgabe zwei Qubit-Reihen, speichert die Zwischenergebnisse wieder in Qubits und erhält am Ende das Ergebnis in Form einer Qubit-Reihe.

Da in einer Qubit-Reihe aber riesige Mengen von Informationen gleichzeitig enthalten sein können, kann der Quantencomputer das Programm gleichzeitig mit einer riesigen Menge von Zahlen ausführen.

Dies ist der sog. Quantenparallelismus. Was den Quantenparallelismus so besonders macht, ist, dass nur wenige Qubits so unvorstellbar große Datenmengen überlagern können. Die Qubits werden nicht nur einzeln überlagert, sondern der gesamte Verbund an Qubits.

Und gerade dabei erhöht sich die Anzahl von möglichen Kombination so rasant. Für drei Qubits werden also z.B. bis zu acht mögliche Bit-Zustände gleichzeitig verwendet (das entspricht 2³). Nämlich diese: 000, 100, 001, 101, 011, 111, 010 und 110.

Die Umgebungs-Variablen

Aber die enorme Rechenleistung eines Quantencomputers funktioniert nur solange der Rechner perfekt von seiner Umgebung isoliert ist und die höchst fragilen Qubits ungestört sind.

Aber in dem wir am Ende das Ergebnis des Quantenprogramms aus den Qubits auslesen, tun wir aber genau das. In diesem Moment „zerfallen“ die gleichzeitig vorhandenen Werte und übrig bleibt nur ein einziger Wert der darüber hinaus auch noch zufällig gewählt wird.

Diese Liste zeigt, wie viele Bits notwendig sind, um Qubits nachzubilden.

1 Qubit benötigt 256 herkömmliche Bits

2 Qubits benötigen 512 herkömmliche Bits

10 Qubits benötigen 16 herkömmliche Kilo-Byte (KB)

20 Qubits benötigen 16 herkömmliche Mega-Byte (MB)

30 Qubits benötigen 16 herkömmliche Giga-Byte 31 Qubits benötigen 32 herkömmliche Giga-Byte. (GB).

Jedes weitere Qubit verdoppelt also die benötigte Anzahl von herkömmlichen Bits.

Die Leistungsfähigkeit eines Quantencomputers steigt also exponentiell.

Und so geht es weiter:

45 Qubits benötigen ca. die Speichergröße des größten herkömmlichen Supercomputers.

50 Qubits, die „Quanten-Überlegenheit“-Grenze: Die Grenze an dem ein Quantencomputer gewisse Berechnungen durchführen kann, die mit keinem der aktuellen Supercomputer durchführbar sind. 

250 Qubits: Die absolute Grenze, die überhaupt machbar wäre für herkömmliche Computer.

Um einen 250 Qubit-Quantencomputer nachzubilden, müsste ein herkömmlicher Computer jedes Atom im Universum als herkömmliches Bit verwenden.

Ihre Anwendungen erstrecken sich über Sektoren wie

  • Gesundheitswesen / Medizin,
  • Bildung,
  • Produktion,
  • Publizistik
  • Unterhaltung und mehr.

Prognosen

(•) Das Jahr 2024 — und die Zukunft

(•) Wird KI eine "Superintelligenz" schaffen, die uns alle beherrscht?

Grundsätzliches

(•) Was ist eigentlich »Lernen« ?

(•) Was sind "Neuronale Netze"?

(•) Was sind Kognitive Systeme?

Entwicklungen

(•) Super-Rechner

(•) Quanten-Computer

(•) Quanten-Programme

(•) Roboter und KI

(•) Bessere Wetterprognosen mit KI

(•) Das Internet der Dinge (IoT)

(•) KI in Audio

Bedrohliches

(•) KI in der Rüstungsindustrie

 

Dr. Paulo Heitlinger

Autor, Vortragender, Fachlicher Ansprechpartner

Web-site, das E-Book, die Newsletter und die Vorträge werden mit Hilfe von KI-Lösungen erstellt.

© 2025 | Copyright by Paulo Heitlinger

Impressum | Kontakt | Autor | E-Book | Vorträge | Other languages