Mathematical Programming



Yüklə 23,3 Mb.
Pdf görüntüsü
səhifə11/112
tarix19.07.2018
ölçüsü23,3 Mb.
#56656
1   ...   7   8   9   10   11   12   13   14   ...   112

Regina Burachik is an Associate Professor in Optimization at University of South Australia. She publishes extensively in
nonsmooth
/convex/nonconvex optimization, variational inequalities, and set-valued analysis. She co-authored the Springer
research-level book:”Set-Valued Analysis and Monotone Mappings”. Her interest is in both theoretical and practical aspects
of nonsmooth optimization and related areas, including variational inequalities, maximal monotone maps, convex analysis,
and duality theory for nonconvex optimization. She is part of editorial boards of around 10 international journals in the area
of optimization, including JOTA, SIOPT, SVVAN and Optimization Letters.
Lower bounds on the size of linear programs
by
Thomas Rothvoss
, University of Washington, US
KEYNOTE - Tu 11:00am-12:00am
Invited Session 545
Room: BROCA Building: W, 3rd floor , Zone: 0
Chair: Volker Kaibel, OVGU Magdeburg, DE
For half a century, proving that certain computational problems cannot be solved e
fficiently by a computer has turned out to be
one of the hardest mathematical questions, with very little to no progress at all. However, in many scenarios it is very natural to
consider restricted computational models, and here the situation is more promising. For example, a very standard approach in
Operations Research is to model a computational problem as a linear program; this has the natural geometric interpretation of
writing the solution space as projection of a higher dimensional polytope with few facets. There has been remarkable progress
in the last few years in understanding this model, leading to almost tight lower bounds that we will describe in this talk.
Thomas Rothvoss is Assistant Professor in the Department of Mathematics and the Department of Computer Science and
Engineering at the University of Washington. He is working in the intersection of theoretical computer science and discrete
optimization. He received a STOC 2010 Best Paper Award, a SODA 2014 Best Paper Award and a STOC 2014 Best Paper
Award. His research is supported by an Alfred P. Sloan Research Fellowship (2015), a David and Lucile Packard Foundation
Fellowship (2016) as well as an NSF CAREER Award (2016).
Adaptive Robust Optimization with Scenario-wise Ambiguity Sets
by
Melvyn Sim
, NUS, SG
SEMI - Tu 11:00am-12:00am
Invited Session 551
Room: Auditorium Building: Symphony Hall, Zone: 0
Chair: Daniel Kuhn, EPFL, CH
Co-Authors: Chen Zhi, Peng Xiong,
We present a tractable format for optimization under uncertainty based on the framework of adaptive robust optimization via a
new class of scenario-wise ambiguity sets. The new format naturally unifies classical stochastic programming and robust opti-
mization, and also incorporates the more recent distributionally robust optimization with ambiguity sets based on generalized
moments, mixture distribution, Wasserstein (or Kantorovich-Rubinstein) metric, φ-divergence, and new ones such as k-means
clustering, among others. We introduce a compatible scenario-wise a
ffine recourse approximation, which is developed on the
classical a
ffine recourse approximation (a.k.a. linear decision rule or affine policy), to provide tractable solutions to adaptive
robust optimization problems.
Dr. Melvyn Sim is Professor and Provost’s Chair at the Department of Analytics and Operations, NUS Business school. His
research interests fall broadly under the categories of decision making and optimization under uncertainty with applications
ranging from finance, supply chain management, healthcare to engineered systems. He is one of the active proponents of
Robust Optimization and has given invited talks in this field at international conferences.
32


Monotone Operator Theory in Convex Optimization
by
Patrick Combettes
, North Carolina State Univ., US
KEYNOTE - We 11:00am-12:00am
Invited Session 537
Room: BROCA Building: W, 3rd floor , Zone: 0
Chair: Samir Adly, Laboratoire XLIM, FR
Several aspects of the interplay between monotone operator theory and convex optimization are discussed. The crucial role
played by monotone operators in the analysis and the numerical solution of convex minimization problems is emphasized.
We review the properties of subdi
fferentials as maximally monotone operators and, in tandem, investigate those of proximity
operators as resolvents. In particular, we study transformations which map proximity operators to proximity operators, and
establish connections with self-dual classes of firmly nonexpansive operators. In addition, algorithmic considerations are dis-
cussed.
Online Competitive Algorithms for Resource Allocation
by
Maryam Fazel
, Univ. of Washington, US
KEYNOTE - We 11:00am-12:00am
Invited Session 539
Room: DENIGES Building: C, Ground Floor , Zone: 5
Chair: Frank Curtis, Lehigh University, US
In online optimization with budgets, the data in the optimization problem is revealed over time, and at each step a decision
variable needs to be set without knowing the future inputs, while there is a budget constraint that couples the decisions across
time. In this talk, we consider an online optimization setup that includes problems such as online (budgeted) resource alloca-
tion with a fixed inventory, and the ‘Adwords’ problem popular in online advertising. We examine two classes of primal-dual
algorithms, with a focus on the competitive ratio, i.e., the ratio of the objective achieved by the algorithm to that of the optimal
o
ffline sequence of decisions. We give a bound on this ratio and show how certain smoothing of the objective function can
improve the bound, and how to seek the optimal smoothing by solving a convex design problem. This approach allows us
to design e
ffective smoothing customized for a given cost function and problem structure. We will illustrate this approach in
several classical examples, as well as a few new ones.
Maryam Fazel is an Associate Professor of Electrical Engineering at the University of Washington, with adjunct appointments
in Computer Science and Engineering, Mathematics, and Statistics. Maryam received her MS and PhD from Stanford Uni-
versity, her BS from Sharif University of Technology in Iran, and was a postdoctoral scholar at Caltech before joining UW.
Her current research interests are in mathematical optimization and applications in machine learning. She is a recipient of
the NSF Career Award, the UWEE Outstanding Teaching Award, UAI conference Best Student Paper Award (with her stu-
dent), and coauthored a paper on low-rank matrix recovery selected as a Fast-Breaking paper by Science Watch (2011). She
co-leads the NSF Algorithmic Foundations for Data Science Institute at UW, and is an associate editor of SIAM journals on
Optimization and on Mathematics of Data Science.
Model-Based Methods, Sampling Models, and A New Second-Order Model-Based Method
by
Luis Nunes Vicente
, University of Coimbra, PT
KEYNOTE - We 11:00am-12:00am
Invited Session 546
Room: LEYTEIRE Building: E, 3rd floor , Zone: 1
Chair: Stefan Wild, Argonne National Laboratory, US
The use of modeling in numerical optimization is ubiquitous. The accuracy of a model depends on how much we know about
33


Yüklə 23,3 Mb.

Dostları ilə paylaş:
1   ...   7   8   9   10   11   12   13   14   ...   112




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə