Druckansicht der Internetadresse:

Mathematisches Institut

Lehrstuhl für Angewandte Mathematik Prof. Dr. L. Grüne / Prof. Dr. A. Schiela

Seite drucken

News

zur Übersicht


Forschungsaufenthalt und Oberseminarvortrag „A Data-Driven Tensor Train Gradient Cross Approximation for Hamilton-Jacobi-Bellman Equations“ von Luca Saluzzi

Dienstag, den 29. November 2022 um 16:00 Uhr

Am Dienstag, dem 29. November 2022 um 16:00 Uhr spricht im Seminarraum S 82, Gebäude NW II.

Herr M.Sc. Luca Saluzzi
Section „Applied Mathematics and Mathematical Physics“
Research group „Mathematical Physics“
Department of Mathematics
Faculty of Natural Sciences
Imperial College London, Great Britain

im Rahmen des

Oberseminars "Numerische Mathematik, Optimierung und Dynamische Systeme"

über das Thema

„A Data-Driven Tensor Train Gradient Cross Approximation for Hamilton-Jacobi-Bellman Equations“.

Luca Saluzzi ist vom 28. November-2. Dezember 2022 Gast des Lehrstuhls für einen Forschungsaufenthalt. In dieser Zeit ist er im Büro 3.2.01.530 erreichbar. Seine wissenschaftlichen Arbeitsfelder liegen im Bereich numerische Optimalsteuerungsprobleme, Hamilton-Jacobi-Bellman-Gleichung, Techniken zur Modellordnungsreduktion und Methoden zur Tensorzerlegung.

Die Einladung die Zusammenfassung des Vortrags finden Sie in der PDF-Datei.

ABSTRACT:

Hamilton-Jacobi-Bellman (HJB) equation plays a central role in optimal control and differential games, enabling the computation of robust controls in feedback form. The main disadvantage of this approach depends on the so-called curse of dimensionality, since the HJB equation and the dynamical system live in the same, possibly high dimensional, space. In this talk, I will present a data-driven method for approximating high-dimensional HJB equations based on tensor decompositions. The approach presented in this talk is based on the knowledge of the value function and its gradient on sample points and on a tensor train decomposition of the value function. The collection of the data will be derived by two possible techniques: Pontryagin Maximum Principle and State-Dependent Riccati Equation. The numerical experiments will demonstrate linear complexity in the dimension and a better stability in presence of noise. Finally, I will present an application to an agent-based model and a comparison with a Deep Learning technique.
Facebook Twitter Youtube-Kanal Instagram UBT-A Kontakt