Abgeschlossene Abschlussarbeiten

Basket Option Pricing mit Quantenschaltkreisen

Betreuung: Tobias RoheAbgeschlossen am: 15. April 2026

Die Bewertung von Basket-Optionen stellt aufgrund der Abhängigkeit von mehreren Underlyings und deren Korrelationen eine komplexe numerische Herausforderung dar. Während klassische Monte-Carlo-Verfahren mit zunehmender Dimension hohen Rechenaufwand erfordern, ermöglichen Machine-Learning-Ansätze eine direkte Approximation der Preisfunktion. Ziel dieser Arbeit ist die Untersuchung variationaler Quantenschaltkreise (VQCs) zur Approximation von Basket-Optionspreisen sowie der Vergleich mit etablierten klassischen neuronalen Netzarchitekturen. Die Trainingsdaten basieren auf Monte-Carlo-Simulationen, deren Parameter aus historischen Marktdaten geschätzt werden. Es werden unterschiedliche Payoff-Strukturen (Worst-of, Best-of, Average) betrachtet sowie die Einflüsse von Trainingsdatensatzgröße, künstlichem Rauschen und einem zeitlich geordneten Train-Test-Split analysiert. Zusätzlich wird die Frequenzstruktur der Zielgrößen mithilfe einer Non-Uniform Fast Fourier Transform untersucht, um die darstellbare Modellkapazität der VQCs spektral einzuordnen. Die Ergebnisse zeigen, dass sowohl klassische neuronale Netze als auch VQC-basierte Modelle die Preisfunktion mit hoher Genauigkeit approximieren können. Während klassische Netze tendenziell von zunehmender Modellgröße profitieren, erreichen VQCs bereits bei moderater Schaltkreistiefe einen Großteil ihrer maximalen Leistungsfähigkeit, was mit der überwiegend niederfrequenten Struktur der Zielgrößen konsistent ist. Unter begrenzter Datenverfügbarkeit und starkem Rauschen erweisen sich einfachere Modelle als robuster, während komplexere Architekturen erst bei ausreichender Datenmenge ihr Potenzial entfalten. Insgesamt erreichen VQC-basierte Modelle eine konkurrenzfähige Approximationsleistung, ohne jedoch einen klaren Vorteil gegenüber klassischen neuronalen Netzen zu zeigen.

Optimierung parametrisierter Quanten-Hamiltonian-Operatoren durch implizite Differenzierung

Betreuung: Tobias Rohe, Jonas SteinAbgeschlossen am: 15. April 2026

Variationelle Quantenalgorithmen sind einer der vielversprechendsten Ansätze, um kombinatorische Optimierungsprobleme auf naher Zukunft verfügbarer Quantenhardware zu lösen. Ein praktisch relevanter, aber bisher wenig untersuchter Fall sind parametrisierte Hamiltonians, bei denen die Problemstruktur selbst~-- etwa die Kantengewichte eines Max-Cut-Problems~-- von einem externen Steuerparameter abhängt. Solche Abhängigkeiten treten natürlich auf, wenn Kalibrierungseinstellungen, Designvariablen oder physikalische Randbedingungen die Probleminstanz beeinflussen. Die gemeinsame Optimierung von Steuer- und Schaltkreisparametern führt zu einem zweistufigen Problem. Dies macht das Gesamtverfahren inhärent aufwändig, da bereits ein einzelner äußerer Optimierungsschritt eine vollständige innere Lösung erfordert. Bestehende ableitungsfreie Methoden verschärfen dieses Problem, da sie pro äußerem Schritt mehrere Auswertungen der äußeren Zielfunktion benötigen~-- von denen jede eine eigene vollständige innere Optimierung auslöst~-- und so die ohnehin hohen Kosten des zweistufigen Verfahrens vervielfachen. Diese Arbeit stellt Correlator-Reuse Implicit Differentiation (CR-ID) vor, einen Ansatz, der diesen Mehraufwand vermeidet: Am inneren Optimum lässt sich der äußere Gradient als gewichtete Summe von Kantenschnittwahrscheinlichkeiten ausdrücken, die bei der Energieauswertung ohnehin anfallen. Der äußere Optimierungsschritt benötigt damit keine zusätzlichen inneren Lösungen und das Gesamtverfahren konvergiert deutlich schneller. Ergänzend führt die Arbeit eine Benchmark-Familie ein, die Skalierung und funktionale Form der Kantengewichte systematisch trennt, sowie eine Analyse des Einflusses der Algorithmenarchitektur auf die Exaktheit dieses Gradienten. Acht Experimente unter vergleichbaren Budgets zeigen, dass CR-ID die budgetnormierte Leistung gegenüber ableitungsfreien Referenzverfahren durchgehend verbessert~-- über verschiedene Schwierigkeitsgrade, Graphklassen, Messmodelle und hochdimensionale Steuerung hinweg. Die Architekturstudie ergibt zudem einen praktischen Vorteil von VQE gegenüber QAOA auf Erwartungswertebene, wobei QAOA diesen Rückstand in der finalen Auslesephase teilweise aufholen kann. Die Ergebnisse zeigen, dass implizite Differentiation mit Korrelator-Wiederverwendung zweistufige Quantenoptimierung parametrisierter Max-Cut-Probleme wesentlich beschleunigt, ohne zusätzliche Schaltkreisauswertungen zu erfordern.

Einfluss verschiedener Rauscharten auf Konvergenz und Robustheit eines globalen Modells in einer Quantum Federated Learning-Umgebung

Betreuung: Leo Sünkel, Tobias RoheAbgeschlossen am: 30. März 2026

Diese Bachelorarbeit untersucht das Potenzial von \textit{Quanten-föderierten Lernen} (QFL) als dezentrale Trainingsarchitektur für die medizinische Bildverarbeitung in der NISQ-Ära. Im Zentrum steht die Herausforderung, ein robustes globales Modell auf Basis parametrisierter Quantenschaltkreise zu entwickeln, während die lokalen Client-Systeme sowohl durch Datenheterogenität als auch durch physikalisches Quantenrauschen beeinflusst werden. Zunächst evaluiert die Arbeit, inwiefern der Einsatz von QFL die negativen Auswirkungen einer \textbf{ungleichmäßigen Klassenverteilung} (\textit{Label Distribution Skew}) innerhalb eines Klinikverbunds reduzieren kann. Die Ergebnisse verdeutlichen, dass QFL die lokale Bias-Schwere signifikant senkt und die Leistungslücke zwischen Mehrheits- und Minderheitsklassen (\textit{Performance Gap}) im Vergleich zu rein lokalen Modellen effektiv schließt. Darüber hinaus wird die Forschungsfrage adressiert, inwiefern unterschiedliche Rauschmodelle -- namentlich \textit{Bit-Flip}, \textit{Phasen-Flip}, \textit{Depolarisierung} und \textit{Amplitudendämpfung} sowie \textit{Phasendämpfung} -- die Trainingsdynamik und Generalisierungsfähigkeit des globalen Modells beeinflussen. In einer simulierten Umgebung zur Pneumonie-Erkennung wird quantitativ nachgewiesen, dass das System eine hohe Robustheit gegenüber Pauli-Fehlern aufweist, während der Amplitudendämpfungskanal bei einer Fehlerwahrscheinlichkeit von $p=0,10$ eine kritische Barriere für die Konvergenz darstellt. Die Untersuchung belegt jedoch eine inhärente Resilienz des föderierten Verbunds gegenüber Hardware-Ausreißern, indem Fehlfunktionen einzelner, hochgradig verrauschter Clients durch die globale Aggregation kompensiert werden. Damit liefert die Arbeit wichtige Erkenntnisse über die Stabilität und praktische Einsetzbarkeit von Quantenalgorithmen in unzuverlässigen, heterogenen Netzwerken.

Datensatz-basierte vergleichende Analyse von Quantenvorteilen bei Quantum Reservoir Computing

Betreuung: Thomas Gabor, Maximilian ZornAbgeschlossen am: 30. März 2026

Quantum Reservoir Computing (QRC) hat sich als vielversprechender Ansatz erwiesen, um die komplexe nichtlineare Dynamik von Quantensystemen einzusetzen und Machine-Learning-Aufgaben mit reduziertem Trainingsaufwand zu lösen. Die vorliegende Arbeit präsentiert eine datensatzbasierte Gegenüberstellung zwischen Gate-basiertem QRC und etablierten klassischen Architekturen mit Zufallsprojektion: dem Echo State Network für dynamische Aufgaben und der Extreme Learning Machine für statische Regressionen. Während klassische Modelle bei traditionellen Benchmarks wie der Mackey-Glass-Zeitreihe einen Leistungsvorsprung behalten, zeigen unsere Ergebnisse einen erkennbaren Quantenvorteil in quantennativen Domänen. Bei einer unitären Regressionsaufgabe übertraf das QRC-Modell die klassische Baseline. Dabei wurden 92% weniger Ausleseparameter genutzt und eine 300-fache Steigerung der Trainingsgeschwindigkeit erzielt. Zudem belegen Analysen zur architektonischen Übereinstimmung eine klare Leistungshierarchie. Demnach steigern strukturelle Parallelen zwischen dem Quantenreservoir und dem untersuchten System die Effizienz des QRC-Modells messbar. Darüber hinaus verdeutlicht die hybride Interpolationsaufgabe eine erhöhte Schwierigkeit für klassische Architekturen, die Komplexität des Quantenanteils auszugleichen, während das Quantenmodell eine höhere strukturelle Eignung zur Abbildung hybrider Datenkomplexität aufweist. Diese Ergebnisse legen nahe, dass der strukturelle induktive Bias und die hohe Informationsdichte von Quantenreservoirs einen messbaren Vorteil für quantennative Anwendungen bieten und damit eine Grundlage für zukünftige hardwaregestützte QRC-Paradigmen in der ``Noisy Intermediate Scale Quantum''-Ära schaffen.

Systematische Evaluation der Reservoirnutzung in Quantum Reservoir Computing

Betreuung: Thomas Gabor, Maximilian ZornAbgeschlossen am: 30. März 2026

Reservoir Computing basiert auf der Idee, dass nützliche zeitliche Verarbeitung aus festen rekurrenten Dynamiken entstehen kann; im Quantum Reservoir Computing ist diese Behauptung jedoch oft schwer von Vorverarbeitungs- und nachgelagerten Readout-Effekten zu isolieren. Diese Arbeit führt daher ein einheitliches Evaluationsprotokoll ein, um diese Behauptung im QRC direkt zu testen, anstatt sie indirekt aus End-to-End-Benchmark-Ergebnissen abzuleiten. Die erste Achse prüft, ob rekurrente Dynamiken über angepasste statische Baselines hinaus einen Mehrwert bieten, wenn Vorverarbeitung und Readout-Bedingungen kontrolliert werden. Die zweite Achse verwendet Readout-Probes und Wissensdistillation, um zu untersuchen, was in eingefrorenen rekurrenten Zuständen auslesbar bleibt und inwieweit die rekurrente Abbildung durch kompakte statische Schüler ersetzt werden kann. Innerhalb dieses Rahmens adressiert die Arbeit das sequenzielle NISQ-Dilemma durch die vorgeschlagene Leaky-Recurrent Quantum Reservoir Computing (LR-QRC)-Architektur, ein gradientenfreies, auf Neustarts basierendes Modell, das einen komprimierten, messungsbasierten Gedächtniszustand zurückführt, während der Quantenteil fixiert bleibt. Der rekurrente Kanal skaliert mit lokalen Observablen anstatt mit vollständigem Wahrscheinlichkeitsvektor-Feedback und bleibt mit flacher, gate-basierter Ausführung kompatibel. Die dritte Evaluationsachse nutzt anschließend symmetrisch abgestimmte chaotische Prognose-Benchmarks, um Gedächtnis, Stabilität und hardwarebewusste Effizienz unter Einschränkungen der logischen Tiefe und der Feedback-Skalierung zu testen. Entlang der ersten Achse dient row-sequential MNIST als zentraler kontrollierter Benchmark und zeigt, dass rekurrente Dynamiken über Vorverarbeitung und nachgelagerte Readout-Kapazität hinaus beitragen. Entlang der zweiten Achse zeigen Readout-Probes und Distillation, dass die eingefrorenen LR-QRC-Zustände durch feste Readouts zweiter Ordnung stark auslesbar bleiben, obwohl die rekurrente Input-zu-Zustand-Abbildung nur teilweise durch kompakte statische Schüler reproduzierbar ist. Entlang der dritten Achse dienen Lorenz 63 und Mackey–Glass als Stresstests für Gedächtnis und Effizienz; abgestimmte klassische LI-ESN-Baselines bleiben insgesamt überlegen und offenbaren eine klare verbleibende Lücke im Langzeitgedächtnis. Gleichzeitig ist LR-QRC unter einem konservativen Vergleich gemischter Tiefe die leistungsstärkste gate-basierte Baseline unter den verglichenen Modellen auf Lorenz 63. Diese Ergebnisse stützen eine enge Schlussfolgerung: Rekurrente Dynamiken im QRC können einen messbaren Mehrwert gegenüber angepassten statischen Baselines liefern, und LR-QRC stellt eine stärkere und hardwarebewusstere gradientenfreie rekurrente Baseline dar als mehrere frühere gate-basierte QRC-Modelle, auch wenn starke klassische Reservoirs insgesamt überlegen bleiben.

Constraint-gesteuerte robotische Objektübergabe mittels Reinforcement Learning

Betreuung: Maximilian Zorn, Philipp AltmannAbgeschlossen am: 30. März 2026


Eine Untersuchung über klassische und quantenbasierte Beiträge im hybriden Quantum Transfer Learning

Betreuung: Leo Sünkel, Julian SchoenbergerAbgeschlossen am: 27. März 2026

Hybride quanten-klassische Modelle besitzen ein großes Potenzial für fortgeschrittene Verfahren des maschinellen Lernens. Ihr tatsächlicher Nutzen für reale Anwendungen wie die Bildklassifikation hängt von mehreren entscheidenden Faktoren ab. Diese Arbeit untersucht systematisch die klassischen und quantenbasierten Beiträge im Hybrid Quantum Transfer Learning und analysiert, ob die Integration einer quantenmechanischen Komponente Effizienz und Leistungsfähigkeit im Vergleich zu vollständig klassischen Modellen verbessern kann. Die Studie orientiert sich an hybriden quantuen-klassischen Lernarchitekturen, in denen klassische neuronale Netze als sogenannter „Feature Extractor" dienen, während parametrisierte Quantenschaltkreise als adaptive Klassifikationskomponenten eingesetzt werden. Allerdings sind aktuelle Quantemhardwaresysteme stark eingeschränkt, insbesondere durch die begrenzte Anzahl verfügbarer Qubits und die maximale Schaltungstiefe, was die Effektivität quantenbasierter Komponenten limitiert. Zur Bewertung wurden drei Modellvarianten durchgeführt: einem rein klassischen Modell, einem klassischen Kontrollmodell sowie einem hybriden quantum-klassischen Modell. Diese wurden auf zwei Datensätzen evaluiert, nämlich dem Modified National Institute of Standards and Technology Datensatz und einem reduzierten Teil des Canadian Institute for Advanced Research 10-class Datensatzes. Die Ergebnisse zeigen, dass hybride Quantenmodelle grundsätzlich lernfähig sind, jedoch unter den aktuellen Beschränkungen nicht in der Lage sind, klassische Modelle hinsichtlich der Klassifikationsgenauigkeit zu übertreffen. Der klassische „Feature Extractor" stellte weiterhin den wesentlichen Beitrag zur Gesamtleistung des Modells dar, während die Quantenschicht primär als zusätzliche Transformationsstufe diente und nur geringe Leistungsverbesserungen erzielte. Insgesamt verdeutlichen diese Ergebnisse die gegenwärtigen Limitationen des Hybrid Quantum Transfer Learning und legen nahe, dass zukünftige Fortschritte insbesondere durch die Verbesserung der Quantenhardware, optimierte Trainingsstrategien sowie weiterentwickelte Schaltungskonfigurationen erzielt werden können, um eine praktikable Integration in reale Anwendungen zu ermöglichen.

Curriculum Reinforcement Learning zur Drohnennavigation in Beengten 3D-Umgebungen

Betreuung: Maximilian Zorn, Philipp AltmannAbgeschlossen am: 27. März 2026

Die autonome Navigation von Mikrodrohnen in komplexen, kartenlosen Innenräumen erfordert robuste, reaktive Steuerungsstrategien. In dieser Arbeit wird ein autonomer Agent auf Basis von Reinforcement Learning entwickelt, der ausschließlich anhand egozentrischer Tiefenbilder und lokaler kinematischer Daten navigiert. Zur Bewältigung partieller Beobachtbarkeit und spärlicher Belohnungen werden zwei Sequenzmodellierungsansätze (Frame Stacking und LSTM) miteinander verglichen. Zudem wird eine adaptive Curriculum-Learning-Strategie in Kombination mit Domain Randomization implementiert. Die Ergebnisse zeigen, dass Frame Stacking eine höhere Reaktivität und Lerneffizienz bei agilen Ausweichmanövern bietet, während die LSTM-Architektur eine stabilere Flugdynamik – insbesondere in der Gierachse – gewährleistet. Darüber hinaus erweist sich das Curriculum als essenziell zur Lösung komplexer topologischer Herausforderungen wie lateralen S-Kurven, wodurch der Agent seine erlernte Policy erfolgreich auf ungesehene, prozedural generierte Umgebungen generalisieren kann.

Robustheit parametrisierter Quanten-Schaltkreise gegenüber adversarialer Einflüsse im Reinforcement Learning

Betreuung: Julian Hager, Michael KölleAbgeschlossen am: 27. März 2026

Feindliche Angriffe stellen eine ernstzunehmende Bedrohung für die Zuverlässigkeit intelligenter Systeme dar, besonders in sicherheitskritischen Bereichen, in denen minimale, gezielte Manipulationen die Leistung dieser Systeme massiv einschränken können. Während die Anfälligkeit klassischer Deep-Reinforcement-Learning-Agenten bereits intensiv erforscht wurde, ist über die Robustheit von Quantum-Reinforcement-Learning-Modellen (QRL) bislang nur wenig bekannt. Erste Studien deuten darauf hin, dass QRL-Ansätze auf Basis von Variational Quantum Circuits (VQCs) aufgrund ihrer quantenmechanischen Architektur inhärent widerstandsfähiger gegenüber Störungen sein könnten. Daher stellt sich die Frage, ob sich diese Eigenschaft auch auf gezielte adversarische Angriffe übertragen lässt. In dieser Arbeit untersuchen wir die Robustheit von VQC-basierten Reinforcement-Learning-Agenten gegen gezielte Störungen empirisch. Wir vergleichen VQC-Policies mit klassischen neuronalen Netzen, wobei beide Architekturen mit demselben evolutionsbasierten Verfahren trainiert werden. Die Evaluierung erfolgt in den Umgebungen CartPole-v1 und LunarLander-v3. Um die Belastbarkeit der Agenten zu testen, implementieren wir verschiedene Störungen im Beobachtungsraum mit steigender Komplexität. Dazu gehören konstante Störungen, zufälliges Rauschen sowie Black-Box-Policy-Induction-Angriffe und speziell trainierte adversarielle Netzwerke. Die Ergebnisse liefern eine fundierte Einschätzung darüber, wie sich VQCs unter gezielten adversären Bedingungen verhalten. Damit klärt die Arbeit auch, inwieweit die inhärente Rauschtoleranz von VQCs tatsächlich zu einer höheren Robustheit in praktischen Reinforcement-Learning-Szenarien führt.

Kolmogorov-Arnold Networks für Continuous Thought Machines

Betreuung: Julian Hager, Gerhard StenzelAbgeschlossen am: 27. März 2026

In this bachelor thesis we try to examine the effect of exchanging the Multilayer Perceptron Learner (MLP) Neuron Level Model (NLM) of Sakana AI's recent research on Continuous Thought Machines (CTM) with a Kolmogorov-Arnold Network (KAN), which we think suits the motivation behind introducing CTMs more properly. The main idea of Continuous Thought Machines is to improve classical machine learning models in terms of their original biological role model: the human brain. Generally speaking, human brains operate fundamentally differently compared to MLPs. Since neuroscience discovered that neuron activity is % look up neuro science actually linking neuron firing activity, we can argue that classical MLPs, which although seem to still deliver promising performances, are an overly simplistic modeling of the real human brain, merely focusing on their output values. Continuous Thought Machines aim to mimic human brains by introducing a time domain and by self-synchronizing neuron activity in Neural Networks. Our hypothesis is that with its wave-shaped activation functions, KAN Networks used in CTMs can perform better on tasks that the classical CTM still struggles on. In this thesis we try to find out which learning patterns on the CTM with KAN occur, how it performs compared to the normal CTM and more typical machine learning models like Recurrent Neural Networks or ResNets on tasks such as QAMNIST, CIFAR-10 and ListOps. We came to the conclusion, that the KAN is suitable as a NLM. Despite being more expensive in computation, the KAN can outperform the MLP on selected tasks with reasonable additional expense.

Individuenkodierung zur selbstadaptiven Rekombination in Evolutionären Algorithmen

Betreuung: Thomas Gabor, Maximilian ZornAbgeschlossen am: 18. März 2026

In der Bachelorarbeit wird untersucht, ob Rekombination in Evolutionären Algorithmen durch individuell kodierte Marker gesteuert werden kann und ob solche selbstadaptiven Mechanismen Optimierungsvorteile gegenüber statischen Crossover-Baselines bieten. Rekombination kann hilfreich sein, jedoch ist ihre Wirksamkeit stark problemabhängig: Ein Operator, der auf einem Benchmark gut funktioniert, kann auf einem anderen ine!ektiv sein, und die Nützlichkeit eines Operators kann sich zudem im Verlauf eines Runs verändern. Deshalb implementieren wir drei selbstadaptive Varianten (Spears Bit, Float Marker und Revised Float Marker), bei denen jedes Individuum einen zusätzlichen Marker trägt, der die Wahl des Rekombinationsoperators während der Reproduktion beeinflusst. Diese Ansätze vergleichen wir mit drei statischen Baselines: Fixed Uniform, Fixed Two-Point und einer 50/50 Fixed Random-Zufallsauswahl, deren Operatornutzung über den gesamten Run konstant bleibt. Alle Varianten verwenden denselben evolutionären Ablauf und unterscheiden sich ausschließlich im Mechanismus zur Operatorauswahl. Die Auswertung erfolgt auf etablierten Benchmarkproblemen, darunter kontinuierliche Minimierungsfunktionen sowie binäre Maximierungsbenchmarks mit Building-Block-Struktur (HIFF und Royal Road). Die Optimierungsleistung messen wir über den besten Zielfunktionswert pro Generation über 50 unabhängige Runs. Das adaptive Verhalten analysieren wir anhand der realisierten Operatornutzung und der Markerwerte über die Zeit. Die Ergebnisse zeigen, dass selbstadaptive Varianten ihre Rekombinationsnutzung zuverlässig benchmarkabhängig verschieben. Unter unserer Konfiguration übertre!en sie jedoch nicht konsistent die stärksten statischen Baselines über alle Domänen hinweg. Auf den meisten kontinuierlichen Funktionen sinkt die Two-Point-Nutzung (Adaptation in Richtung Uniform Crossover), während sie auf den binären BuildingBlock-Benchmarks steigt, was mit dem Vorteil der Block-Erhaltung konsistent ist. Insgesamt liefern individuelle Kodierungen interpretierbare Operatorverschiebungen, während ihr Einfluss auf die finale Optimierungsleistung benchmark- und konfigurationsabhängig bleibt.

LLMs als Mutations- und Rekombinationsoperatoren in evolutionären Algorithmen

Betreuung: Thomas Gabor, Maximilian ZornAbgeschlossen am: 18. März 2026

Diese Thesis untersucht den Einsatz eines allgemein einsetzbaren großen Sprachmodells, Meta Llama 3.2 (3B Parameter), als Mutationsoperator innerhalb eines evolutionären Algorithmus. Die betrachteten Optimierungsaufgaben waren das Rastrigin-Problem und das Factory Robot Route Problem. Die LLM-basierte Mutation wurde statistisch mit konventioneller, auf Zufallszahlengeneratoren (RNG) basierender Mutation hinsichtlich Mutationsstärke, durch das LLM eingeführter Mutationsverzerrungen sowie der gesamten Mutationsleistung verglichen. Sowohl englische als auch deutsche Prompts wurden evaluiert. Die Ergebnisse zeigen, dass LLM-basierte Mutation übermäßig große Modifikationen erzeugt, wobei der englische Prompt zu größeren Veränderungen führt als der deutsche Prompt. Zusätzlich wurden mehrere systematische Verzerrungen identifiziert, darunter eine Präferenz für diskrete Mutationsschritte, diskrete Genwerte, Mutationen des ersten Gens, Mutationen ohne tatsächliche Veränderung, vorzeichenbezogene Tendenzen sowie die wiederholte Generierung bestimmter Zahlen. Diese Verzerrungen waren beim englischen Prompt deutlich schwächer. Hinsichtlich der Leistung schnitt die LLM-basierte Mutation in allen evaluierten Szenarien schlechter ab als die RNG-basierte Mutation. Wir stellen die Hypothese auf, dass dies primär durch ein übermäßiges Ausmaß an Veränderung verursacht wird und nicht durch die identifizierten Verzerrungen. Diese Annahme wird durch die Beobachtung gestützt, dass der englische Prompt, der weniger Verzerrungen, aber größere Mutationsänderungen aufwies, schlechter abschnitt als der deutsche Prompt. Abschließend untersuchten wir, ob eine explizite Anweisung an das LLM innerhalb des Prompts, bestimmte Verzerrungen zu vermeiden, diese reduzieren kann. Die Ergebnisse legen nahe, dass eine solche Minderung schwer zu kontrollieren ist. In einigen Fällen erzeugt sie den gegenteiligen Effekt und führt häufig zu unbeabsichtigten Nebeneffekten. Darüber hinaus erwies sich eine bejahende Formulierung als etwas effektiver als die Verwendung von Negationen. Da jedoch der Mutation Impact der primäre limitierende Faktor zu sein scheint---und durch eine nachgelagerte Validierung der vom LLM generierten Individuen kontrolliert werden kann---betrachten wir LLM-basierte Mutation als eine vielversprechende Richtung für zukünftige Forschung. Darüber hinaus stellen LLMs für komplexe Datentypen wie Text oder Quellcode derzeit einen der wenigen praktisch verfügbaren Mutationsmechanismen dar.

Untersuchung von Optimierungsfaktoren in Quantenalgorithmen für die Neuplanung von Zugrouten

Betreuung: Maximilian Zorn, Jonas SteinAbgeschlossen am: 16. März 2026

Diese Arbeit untersucht zwei hybride Quantenalgorithmen zur Lösung des Train-(Re)-Routing Problems: Quantum Annealing mit QUBO-Formulierung auf D-Wave-Hardware sowie den Quantum Approximate Optimization Algorithm (QAOA+) mit zulässigkeitserhaltenden Mixern auf IBM Gate-Modell-Quantencomputern. Beide Ansätze werden in eine Benders-Dekomposition integriert, bei der das kombinatorische Masterproblem durch Quantenhardware gelöst und die Zulässigkeit durch einen klassischen SMT-Solver verifiziert wird. Im Rahmen systematischer Ablationsstudien werden die Einflüsse verschiedener Hyperparameter auf die Lösungsqualität analysiert. Für das Quantum Annealing erweisen sich längere Annealing-Zeiten (100~$\mu$s), moderate Chain-Strength-Werte (2,0--4,0) sowie niedrige Constraint-Penalty-Gewichte als vorteilhaft. Der QAOA+-Ansatz zeigt einen nicht-monotonen Zusammenhang zwischen Schaltkreistiefe und Lösungsqualität, wobei bereits niedrige Tiefen ($p=1$ bis $p=3$) kompetitive Ergebnisse erzielen. Die Evaluation erfolgt auf drei Datensätzen realer Fahrplandaten mit 7 bis 14 Zügen. Während das Quantum Annealing mit optimaler Konfiguration Abweichungen von 110% bis 317% gegenüber dem exakten Gurobi-Solver aufweist, erzielt der QAOA+-Ansatz ein interessantes Ergebnis. Auf dem normalen Datensatz übertrifft er sowohl die Greedy-Heuristik als auch den exakten Solver um 13,4%. Dieses Ergebnis demonstriert, dass Quantenalgorithmen unter bestimmten Problemkonstellationen bereits heute klassische Verfahren schlagen können. Die Arbeit liefert konkrete Konfigurationsempfehlungen für beide Ansätze und diskutiert die praktischen Implikationen für den Einsatz von Quantenoptimierung in der Eisenbahnplanung.

Privacy-Preserving Training of Quantum Circuits via Homomorphic Encryption

Betreuung: Gerhard Stenzel, Michael KölleAbgeschlossen am: 11. März 2026

Der Zugang zu Quantenhardware ist derzeit auf wenige Cloud-Anbieter beschränkt, sodass Organisationen ihre Daten an unbekannte Server übermitteln müssen, um Algorithmen auf realer Hardware auszuführen; die Quantenhomomorphe Verschlüsselung (QHE) ermöglicht Berechnungen direkt auf verschlüsselten Quantenzuständen, jedoch erfordern bestehende Verfahren mit universellen Gattermengen entweder umfangreiche Client-Server-Interaktion für jedes Nicht-Clifford-Gatter oder eine große Anzahl zusätzlicher Qubits, die die Kapazitäten aktueller NISQ-Geräte übersteigen, weshalb ein praktikables datenschutzwahrendes Trainingsverfahren für parametrisierte Quantenschaltkreise fehlt; wir entwickeln daher ein Protokoll auf Basis des Pauli One-Time Pads mit schlüsselabhängiger Vorzeichenanpassung der Schaltkreisgewichte zum Training parametrisierter Quantenschaltkreise auf verschlüsselten Zuständen, formalisieren es als kryptographisches Protokoll und beweisen seine Korrektheit, wobei es im Gegensatz zu bisherigen universellen QHE-Verfahren keine Interaktion pro Gatter, keine Quantenfähigkeit auf Clientseite über die Zustandspräparation hinaus und keine zusätzlichen Qubits erfordert; der Informationsverlust wird durch zwei komplementäre Methoden quantifiziert, nämlich eine algebraische Analyse über den Rang der Schlüsselexpansionsmatrix über $\mathbb{F}_2$ zur Begrenzung des statischen Informationsverlusts aus einer einzelnen Beobachtung sowie eine statistische Analyse mittels Hidden-Markov-Modellen zur Erfassung des dynamischen Informationsverlusts über den Trainingsverlauf, wobei sich zeigt, dass die Wahl der Schaltkreisarchitektur die Sicherheit unmittelbar beeinflusst und maximale Sicherheit nur erreicht wird, wenn die Architektur Generatoren kombiniert, die von allen Komponenten des Verschlüsselungsschlüssels abhängen; insgesamt stellt das vorgeschlagene Trainingsprotokoll eine leichtgewichtige Alternative zu formal sicheren, aber ressourcenintensiven QHE-Verfahren dar und eröffnet einen praktikablen Weg zur datenschutzwahrenden Nutzung von Quanten-Cloud-Diensten bereits in der NISQ-Ära.

Mathematisches Schließen in kleinen Sprachmodellen: Vergleich von Herausforderungen und Potenzialen verschiedener Prompting-Strategien

Autor/in: Patrik FelbingerBetreuung: Philipp Altmann, Thomas GaborAbgeschlossen am: 14. Januar 2026


Empirische Evaluation der Auswirkungen des Designs von Quanten­schaltkreis-Ansätzen auf überwachtes Lernen

Autor/in: Alexander KovacsBetreuung: Michael Poppel, Jonas SteinAbgeschlossen am: 14. Januar 2026


Zutatenerkennung und relative Mengenabschätzung in Lebensmittelbildern auf hardwarebeschränkten Systemen

Autor/in: Michael AnderleBetreuung: Gerhard Stenzel, Michael KölleAbgeschlossen am: 3. Dezember 2025


Vergleich von Ameisenalgorithmus und Dijkstra-Algorithmus für Routing in Quantennetzwerken

Autor/in: Felix MichlBetreuung: Leo Sünkel, Tobias RoheAbgeschlossen am: 3. Dezember 2025


Generalisierung in einem natürlichsprachlich basierten genetischen Algorithmus

Autor/in: Sarah GernerBetreuung: Thomas Gabor, Gerhard StenzelAbgeschlossen am: 12. November 2025


Vergleich von Echo State Networks und Spiking Neural Networks für Reservoir Computing

Autor/in: Flo HelmbergerBetreuung: Philipp Altmann, Thomas GaborAbgeschlossen am: 12. November 2025


Verbesserung von kooperativem MARL durch Curriculum Learning für dynamische Rollenzuweisung

Autor/in: David EngelBetreuung: Maximilian Zorn, Philipp AltmannAbgeschlossen am: 12. November 2025


Erforschung der praktischen Anwendung von quantenbasierter Self-Attention für Quanten-Vision-Transformers

Autor/in: Joel FurtakBetreuung: Jonas Stein, Michael KölleAbgeschlossen am: 12. November 2025

Vision Transformer (ViTs) haben sich als leistungsstarke Alternative zu Convolutional Neural Networks im Bereich der Computer Vision etabliert und zeigen durch ihre Fähigkeit, globale Zusammenhänge mittels des Self-Attention Mechanismus zu erfassen, überragende Leisutngen in zahlreichen ufgabenbereichen. Im Gegensatz zu vorherigen Methoden, welche sich hauptsächlich auf lokale Merkmale konzentrieren, erlernen ViTs Beziehungen zwischen Bildausschnitten ("Patches") und ermöglichen flexible Architekturen, die globale Abhängigkeiten effektiv modellieren können. Trotz seines Erfolgs leidet der Self- Attention Mechanismus von ViTs in ressourcenbeschränkten und echtzeitkritischen Anwendungen unter erheblichen Rechenaufwand. Diese Einschränkung motiviert die Erforschung von Quantumcomputing basierten Ansätzen, welche die globale Modellierungsfähigkeit von ViTs beibehalten und gleichzeitig den Rechenaufwand der Self-Attention verringern. Während einige Ansätze darauf setzen, den Self-Attention Mechanismus mithilfe trainierbarer Compound-Matrizen nachzubilden, schlägt diese Arbeit eine Quantum Vision Transformer (QViT) Architektur vor, welche die Quantum Singular Value Transformation (QSVT) nutzt um den Self-Attention Mechanismus zu approximieren, und somit nativ im Quantumparadigma formuliert ist. Das vorgeschlagene Modell kodiert zuerst mithilfe eines parametrisierten Quantenschaltkreises (PQC) patch-weise Bildeinbettungen, die anschließend durch eine Linear Combination of Unitaries (LCU) zu einer Attention-ähnlichen Mischung ihrer Repräsentationen kombiniert werden. Danach wird eine Quantum Singular Value Transformation (QSVT) angewandt, um nicht-lineare Transformationen zu ermöglichen. Zusätzlich erweitert ein quantenbasiertes Klassifikationsmodul das Datenregister um trainierbare Klassen-Qubits, die als Quantenäquivalent zum klassischen "Class Token" dienen und durch Messung zur Ermittlung des Outputs verwendet werden. Um die Leistungsfähigkeit des vorgeschlagenen Modells zu testen, wird es für Bildklassifikationen auf den Bars-and-Stripes- und Binary-MNIST-Datensätzen angewandt, auf welchen Genauigkeiten von bis zu ~99% erreicht. Weiterhin zeigt eine Analyse der Komplexität des Modells einen geringeren Parameter- und theoretisch niedrigeren Laufzeitaufwand auf Basis der Input-Größen. Die in dieser Arbeit erzielten Ergebnisse dienen als Proof-of-Concept für das vorgeschlagene QViT-Modell und seine potenziellen Anwendungen bei Aufgaben im Bereich der Computer Vision.

Offline Quantum Reinforcement Learning mittels metaheuristischen Optimierungsstrategien

Autor/in: Frederik BickelBetreuung: Michael Kölle, Julian HagerAbgeschlossen am: 8. Oktober 2025

In dieser Arbeit wird offline Quantum Reinforcement Learning (QRL) metaheuristischen Optimierungsverfahren untersucht. O!ine Reinforcement Learning (RL) ermöglicht es, Agenten ausschließlich auf Basis fixer Datensätze zu trainieren, anstatt durch direkte Interaktion mit der Umgebung. Dadurch eignet sich dieser Ansatz besonders für reproduzierbare Studien und kontrollierte Vergleiche. Für CartPole-v1 wurde hierzu ein Datensatz erstellt, der eine Kombination verschiedener Strategien umfasst. Auf diesem Datensatz wurde die Leistungsfähigkeit von vier gradientenfreien Metaheuristiken evaluiert: Genetic Algorithm (GA), Particle Swarm Optimization (PSO), Simulated Annealing (SA) und Tabu Search (TS). Trainiert wurde ein DQN-Agent mit einem Variational Quantum Circuit (VQC). Die Ergebnisse wurden ebenfalls mit einem gradientenbasierten Optimierer (Adam) verglichen.Unsere Ergebnisse zeigen, dass alle Metaheuristiken die gradientenbasierte Referenz deutlich übertreffen. SA erzielte die beste Endleistung, gefolgt von TS, GA und PSO. Damit wird deutlich, dass gradientenfreie Optimierungsansätze klare Vorteile gegenüber Adam bei VQCs bieten. Dies gilt auch im Offline-Ansatz, in dem die Optimierung unter eingeschränktem Datenzugang und ohne weitere Umgebungsinteraktion erfolgen muss. Durch die Entkopplung des Trainings von Interaktionen mit der Umgebung bietet dieser Ansatz eine praktischen Möglichkeit der Skalierung von QRL-Experimenten unter realistischen Ressourcenbeschränkungen. Dies ist vor allem in Anwendungsbereichen relevant, in denen Interaktionen mit der Umgebung teuer oder sicherheitskritisch sind. Somit etabliert diese Arbeit offline QRL mit metaheuristischen Optimierungsstrategien als eine vielversprechende Forschungsrichtung, und macht zugleich auf bestehende Herausforderungen wie Distributionsverschiebung und begrenzte Konvergenz bei nur einem Datensatzdurchlauf aufmerksam.

Geometrische Quanten-GANs: Topologiegesteuerte Architekturen für Graphengenerierung

Betreuung: Tobias RoheAbgeschlossen am: 1. Oktober 2025

Die generative Modellierung komplex strukturierter Daten, wie beispielsweise Graphen mit eingebetteten geometrischen Beschränkungen, stellt für klassische Ansätze des maschinellen Lernens nach wie vor eine grundlegende Herausforderung dar. In dieser Studie untersuchen wir das Potenzial von Quantum Generative Adversarial Networks (QuGANs), diese Einschränkungen zu überwinden, indem wir uns auf eine repräsentative Benchmark-Aufgabe konzentrieren: die Generierung von vollständigen Graphen mit vier Knoten (K4), die plausible Flug-Routen / -Topologien widerspiegeln. Diese Graphen müssen wichtige geometrische Eigenschaften erfüllen, um innerhalb des euklidischen Raums als physikalisch gültig zu gelten, insbesondere die Dreiecksungleichung für alle Unterdreiecke und die Ptolemäische Ungleichung für jedes Vierer-Knotenpaar. Wir präsentieren eine strenge vergleichende Analyse zwischen einem klassischen Generative Adversarial Network (GAN) und mehreren hybriden QuGAN-Varianten, die jeweils eine unterschiedliche Quanten-Generatorarchitektur verwenden. Dazu gehören ein generischer und ein problemorientierter verschränkter Ansatz, der die strukturellen Prioren der Zielgraphen direkt in das Design des Quantenschaltkreises einbezieht.

Evolutionäre Optimierung von Variationellen Quantum Circuits mit Hoher Genauigkeit und Minimaler Anzahl an Parameterisierten Gattern

Autor/in: Tobias DaakeBetreuung: Leo Sünkel, Maximilian ZornAbgeschlossen am: 17. September 2025

Variational Quantum Circuits (VQCs) stellen einen der vielversprechendsten Ansätze dar, um die Fähigkeiten von Quantencomputern der nahen Zukunft zu nutzen. Obwohl sie ein hohes Maß an Flexibilität und Anpassungsfähigkeit bieten, stehen VQCs vor erheblichen Herausforderungen, insbesondere in Bezug auf Trainierbarkeit und Skalierbarkeit. Um diese Einschränkungen zu überwinden, untersucht diese Arbeit den Einsatz evolutionärer Algorithmen zur automatischen Generierung von VQCs mit einer minimalen Anzahl parametrisierter Gatter. Dieser Ansatz ermöglicht eine systematische Untersuchung der Rolle, die solche Gatter bei der Optimierung von VQCs für gängige Benchmark-Probleme spielen. Die vorgeschlagene Methode wird im Zusammenhang mit einer Klassifizierungsaufgabe bewertet, wobei besonderes Augenmerk auf die Klassifizierungsgenauigkeit und die Anzahl der erforderlichen parametrisierten Gatter gelegt wird. Die Experimente wurden an zufälligen Schaltungen mit 4 und 6 Qubits mit variabler Schaltungstiefe durchgeführt. Die Ergebnisse zeigen, dass die Reduzierung der Anzahl der Parameter den Optimierungsprozess verbessert, was zu Klassifikatoren führt, die eine größere Robustheit und eine verbesserte Genauigkeit aufweisen.