2024
LPGD: A General Framework for Backpropagation through Embedded Optimization Layers
PAULUS, Anselm; Georg MARTIUS a Vít MUSILZákladní údaje
Originální název
LPGD: A General Framework for Backpropagation through Embedded Optimization Layers
Autoři
PAULUS, Anselm (276 Německo); Georg MARTIUS (276 Německo) a Vít MUSIL (203 Česká republika, garant, domácí)
Vydání
235. vyd. Neuveden, Proceedings of Machine Learning Research, od s. 39989-40014, 26 s. 2024
Nakladatel
ML Research Press
Další údaje
Jazyk
angličtina
Typ výsledku
Stať ve sborníku
Obor
10101 Pure mathematics
Utajení
není předmětem státního či obchodního tajemství
Forma vydání
elektronická verze "online"
Kód RIV
RIV/00216224:14330/24:00139577
Organizační jednotka
Fakulta informatiky
ISSN
EID Scopus
2-s2.0-85203794108
Klíčová slova anglicky
Machine learning; combinatorial optimization
Příznaky
Mezinárodní význam, Recenzováno
Změněno: 7. 11. 2024 09:30, RNDr. Vít Musil, Ph.D.
Anotace
V originále
Embedding parameterized optimization problems as layers into machine learning architectures serves as a powerful inductive bias. Training such architectures with stochastic gradient descent requires care, as degenerate derivatives of the embedded optimization problem often render the gradients uninformative. We propose Lagrangian Proximal Gradient Descent (LPGD), a flexible framework for training architectures with embedded optimization layers that seamlessly integrates into automatic differentiation libraries. LPGD efficiently computes meaningful replacements of the degenerate optimization layer derivatives by re-running the forward solver oracle on a perturbed input. LPGD captures various previously proposed methods as special cases, while fostering deep links to traditional optimization methods. We theoretically analyze our method and demonstrate on historical and synthetic data that LPGD converges faster than gradient descent even in a differentiable setup.
Návaznosti
GA23-06963S, projekt VaV |
|