1. Обучение решению задач оптимизации с жесткими линейными ограничениями (arXiv)

Автор: Мейи Ли, Сохейл Колоури, Джавад Мохаммади.

Аннотация: Задачи оптимизации с ограничениями возникают в самых разных сложных задачах реального мира, где ограничения часто охватывают физику базовой системы. Классические методы решения этих задач основаны на итерационных алгоритмах, которые исследуют допустимую область в поисках наилучшего решения. Эти итерационные методы часто являются вычислительным узким местом в процессе принятия решений и отрицательно сказываются на приложениях, чувствительных ко времени. В последнее время нейронные аппроксиматоры продемонстрировали многообещающую замену итеративным решателям, которые могут выводить оптимальное решение за одну прямую связь, обеспечивая быстрое решение задач оптимизации. Однако обеспечение соблюдения ограничений с помощью нейронных сетей остается открытой проблемой. В этой статье разрабатывается нейронный аппроксиматор, который преобразует входные данные задачи оптимизации с жесткими линейными ограничениями в допустимое решение, близкое к оптимальному. Предлагаемый нами подход состоит из четырех основных шагов: 1) сведение исходной задачи к оптимизации на множестве независимых переменных, 2) нахождение калибровочной функции, которая отображает единичный шар бесконечной нормы в допустимое множество редуцированной задачи, 3) обучение нейронный аппроксиматор, который сопоставляет входные данные оптимизации с оптимальной точкой в ​​единичном шаре бесконечной нормы, и 4) находит значения зависимых переменных по независимой переменной и восстанавливает решение исходной задачи. Мы можем гарантировать трудную осуществимость с помощью этой последовательности шагов. В отличие от текущих решений с помощью обучения, наш метод свободен от настройки параметров и полностью исключает итерации. Мы демонстрируем эффективность предложенного нами метода в квадратичном программировании в контексте оптимальной диспетчеризации мощности (критичной для устойчивости нашей электрической сети) и ограниченной невыпуклой оптимизации в контексте задач регистрации изображений.

2. Изучение дифференцируемых решателей для систем с жесткими ограничениями

(архив)

Автор: Джеффри Негиар, Майкл В. Махони, Адити С. Кришнаприян.

Аннотация: Мы представляем практический метод для применения ограничений уравнения в частных производных (PDE) для функций, определяемых нейронными сетями (NN), с высокой степенью точности и до желаемого допуска. Мы разрабатываем дифференцируемый слой с ограничениями PDE, который может быть включен в любую архитектуру NN. Наш метод использует дифференцируемую оптимизацию и теорему о неявной функции для эффективного применения физических ограничений. Вдохновленная изучением словаря, наша модель изучает семейство функций, каждая из которых определяет отображение параметров PDE в решения PDE. Во время вывода модель находит оптимальную линейную комбинацию функций в изученном семействе, решая задачу оптимизации с ограничениями на УЧП. Наш метод обеспечивает непрерывные решения в интересующей области, которые точно удовлетворяют желаемым физическим ограничениям. Наши результаты показывают, что включение жестких ограничений непосредственно в архитектуру NN обеспечивает гораздо меньшую ошибку теста по сравнению с обучением на цели без ограничений.