News
Forschungsaufenthalt und Oberseminarvortrag „A Data-Driven Tensor Train Gradient Cross Approximation for Hamilton-Jacobi-Bellman Equations“ von Luca Saluzzi
Dienstag, den 29. November 2022 um 16:00 Uhr
Am Dienstag, dem 29. November 2022 um 16:00 Uhr spricht im Seminarraum S 82, Gebäude NW II.
Herr M.Sc. Luca Saluzzi
Section „Applied Mathematics and Mathematical Physics“
Research group „Mathematical Physics“
Department of Mathematics
Faculty of Natural Sciences
Imperial College London, Great Britain
im Rahmen des
Oberseminars "Numerische Mathematik, Optimierung und Dynamische Systeme"
über das Thema
„A Data-Driven Tensor Train Gradient Cross Approximation for Hamilton-Jacobi-Bellman Equations“.
Luca Saluzzi ist vom 28. November-2. Dezember 2022 Gast des Lehrstuhls für einen Forschungsaufenthalt. In dieser Zeit ist er im Büro 3.2.01.530 erreichbar. Seine wissenschaftlichen Arbeitsfelder liegen im Bereich numerische Optimalsteuerungsprobleme, Hamilton-Jacobi-Bellman-Gleichung, Techniken zur Modellordnungsreduktion und Methoden zur Tensorzerlegung.
Die Einladung die Zusammenfassung des Vortrags finden Sie in der PDF-Datei.
ABSTRACT:
Hamilton-Jacobi-Bellman (HJB) equation plays a central role in optimal control and differential games,
enabling the computation of robust controls in feedback form. The main disadvantage of this approach
depends on the so-called curse of dimensionality, since the HJB equation and the dynamical system
live in the same, possibly high dimensional, space. In this talk, I will present a data-driven method for
approximating high-dimensional HJB equations based on tensor decompositions. The approach
presented in this talk is based on the knowledge of the value function and its gradient on sample
points and on a tensor train decomposition of the value function. The collection of the data will be
derived by two possible techniques: Pontryagin Maximum Principle and State-Dependent Riccati
Equation. The numerical experiments will demonstrate linear complexity in the dimension and a better
stability in presence of noise. Finally, I will present an application to an agent-based model and a
comparison with a Deep Learning technique.