Непрерывность и дифференцируемость траекторий по начальным данным: различия между версиями

Материал из sawiki
Перейти к навигации Перейти к поиску
 
(не показаны 24 промежуточные версии этого же участника)
Строка 6: Строка 6:
 
     \end{aligned}
 
     \end{aligned}
 
   \right.\end{aligned}</math> Решение системы обозначим <math>x[t] \stackrel{\text{def}}{=}x(t, t_0, x^0).</math>
 
   \right.\end{aligned}</math> Решение системы обозначим <math>x[t] \stackrel{\text{def}}{=}x(t, t_0, x^0).</math>
 +
Под квадратными скобками подразумевается, что \(x[t]\) зависит еще от чего-то, но в текущих выкладках оно не так важно, и будет короче и нагляднее писать \(x[t]\) вместо \(x(t, a, b, c).\)
  
= Непрерывность, частный случай =
+
== Непрерывность, частный случай ==
  
 
Будем предполагать, что <math>\begin{aligned}
 
Будем предполагать, что <math>\begin{aligned}
   g: [T_0, T_1] \times \mathbb{R}^n \to \mathbb{R}^n, -\infty \leqslant T_0 < T_1 \leqslant+\infty.\end{aligned}</math> Также наложим следующие ограничения '''(Restrictions)''':
+
   g: [T_0, T_1] \times \mathbb{R}^n \to \mathbb{R}^n, -\infty \leqslant T_0 < T_1 \leqslant+\infty.\end{aligned}</math> Также наложим следующие ограничения:
 +
 
 +
\begin{equation}\label{Restrictions}
 +
\end{equation}
  
 
# <math>\begin{aligned}[t]\label{technical}
 
# <math>\begin{aligned}[t]\label{technical}
Строка 25: Строка 29:
 
   \end{aligned}</math>
 
   \end{aligned}</math>
  
Под записью <math>\dot \forall t</math> подразумевается &quot;для почти всех <math>t</math>&quot;. Ограничения '''(1.)''' носят технический характер и необходимы для обеспечения существования решения. Ограничениe '''(2.)'''  —условие Липшица. Ограничениe '''(3.)''' называется условием сублинейного роста (в данных теоремах оно не потребуется, однако оно потребуется в дальнейшем для продолжимости решения).
+
Под записью <math>\dot \forall t</math> подразумевается &quot;для почти всех <math>t</math>&quot;. Ограничения '''1.''' носят технический характер и необходимы для обеспечения существования решения. Ограничениe '''2.'''  —условие Липшица. Ограничениe '''3.''' называется условием сублинейного роста (в данных теоремах оно не потребуется, однако оно потребуется в дальнейшем для продолжимости решения).
 +
 
 +
Далее введем введем переобозначения и будем рассматривать следующую систему:
  
Далее введем введем переобозначения и будем рассматривать следующую систему '''(System)''':
+
\begin{equation}\label{newSys}
 +
\begin{cases}
 +
      \dot x(t) = g(t, x(t)),\\
 +
      x(\tau) = \xi,\\
 +
      \tau \in (T_0, T_1).
 +
\end{cases}
 +
\end{equation}
  
<math>\begin{aligned}
 
\label{newSys}
 
  \left\{
 
    \begin{aligned}
 
      &\dot x(t) = g(t, x(t)),\\
 
      &x(\tau) = \xi,\\
 
      & \tau \in (T_0, T_1).
 
    \end{aligned}
 
  \right.\end{aligned}</math>
 
  
функция <math>y(t)</math> называется <math>\varepsilon-</math>решением системы '''(System)''', если
+
''Определение.''
 +
функция <math>y(t)</math> называется <math>\varepsilon-</math>решением системы \eqref{newSys}, если
  
<math>\begin{aligned}
+
\begin{equation*}
    &y(t) \in AC([\tau_0, \tau_1, \mathbb{R}^n]),\\
+
y(t) \in AC([\tau_0, \tau_1, \mathbb{R}^n]),
    &\left\lVert\dot y(t)- g(t, y(t)) \right\rVert \leqslant\varepsilon,\\
+
\end{equation*}
    &\dot \forall t \in [\tau_0, \tau_1].
+
\begin{equation*}
  \end{aligned}</math>
+
\left\lVert\dot y(t)- g(t, y(t)) \right\rVert \leqslant\varepsilon
 +
\end{equation*}
 +
\begin{equation*}
 +
\dot \forall t \in [\tau_0, \tau_1],
 +
\end{equation*}
  
 +
где \(AC\)  —множество абсолютно непрерывных функций, определенное [https://sawiki.cs.msu.ru/index.php/%D0%A0%D0%B5%D1%88%D0%B5%D0%BD%D0%B8%D1%8F_%D0%9E%D0%94%D0%A3_%D0%B2_%D1%81%D0%BC%D1%8B%D1%81%D0%BB%D0%B5_%D0%9A%D0%B0%D1%80%D0%B0%D1%82%D0%B5%D0%BE%D0%B4%D0%BE%D1%80%D0%B8 на этой странице].
 
То есть производная абсолютно непрерывной функции <math>y(t)</math> является решением уравнения <math>\dot y(t) = g(t, y(t))</math> с погрешностью не больше, чем <math>\varepsilon.</math>
 
То есть производная абсолютно непрерывной функции <math>y(t)</math> является решением уравнения <math>\dot y(t) = g(t, y(t))</math> с погрешностью не больше, чем <math>\varepsilon.</math>
  
Пусть <math>y_1(t)</math>  — <math>\varepsilon_1</math>-решение, а <math>y_2(t)</math>  — <math>\varepsilon_2</math>-решение задачи '''(System)''', <math>\varepsilon_1, \varepsilon_2 > 0, y_1(\tau), y_2(\tau)</math> определены на <math>[\tau_0, \tau_1],</math> <math>T_0 < \tau_0 < \tau  < \tau_1 < T_1</math> и <math>\left\lVert y_1(\tau) - y_2(\tau) \right\rVert \leqslant\delta.</math> Тогда <math>\begin{aligned}
+
'''Лемма'''.
 +
Пусть <math>y_1(t)</math>  — <math>\varepsilon_1</math>-решение, а <math>y_2(t)</math>  — <math>\varepsilon_2</math>-решение задачи \eqref{newSys}, <math>\varepsilon_1, \varepsilon_2 > 0, y_1(\tau), y_2(\tau)</math> определены на <math>[\tau_0, \tau_1],</math> <math>T_0 < \tau_0 < \tau  < \tau_1 < T_1</math> и <math>\left\lVert y_1(\tau) - y_2(\tau) \right\rVert \leqslant\delta.</math> Тогда \begin{equation*}
 
     \left\lVert y_1(t) - y_2(t) \right\rVert \leqslant\delta e^{L\left|t - \tau\right|} +  
 
     \left\lVert y_1(t) - y_2(t) \right\rVert \leqslant\delta e^{L\left|t - \tau\right|} +  
 
     \frac{\varepsilon}{L}\left(e^{L\left|t - \tau\right|} - 1\right),
 
     \frac{\varepsilon}{L}\left(e^{L\left|t - \tau\right|} - 1\right),
 
     \varepsilon= \varepsilon_1 + \varepsilon_2 \geqslant 0, \tau_0 < t < \tau_1.
 
     \varepsilon= \varepsilon_1 + \varepsilon_2 \geqslant 0, \tau_0 < t < \tau_1.
   \end{aligned}</math>
+
   \end{equation*}
  
Раз <math>y_j(t)</math>  — <math>\varepsilon</math>-решение, то справедливо <math>\left\lVert\dot y(t) - g(t, y(t)) \right\rVert \leqslant\varepsilon_j.</math> Обозначим <math> z_j (t) = \dot y_j(t) - g(t, y_j(t)).</math> Ясно, что <math>\left\lVert z{j} \right\rVert \leqslant\varepsilon_j.</math> Проинтегрируем <math>z_j(t):</math>
+
''Доказательство''.
 +
Раз <math>y_j(t)</math>  — <math>\varepsilon</math>-решение, то справедливо <math>\left\lVert\dot y(t) - g(t, y(t)) \right\rVert \leqslant\varepsilon_j.</math> Обозначим <math> z_j (t) = \dot y_j(t) - g(t, y_j(t)).</math> Ясно, что <math>\left\lVert z_j \right\rVert \leqslant\varepsilon_j.</math> Проинтегрируем <math>z_j(t):</math>
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \int \limits_{\tau}^{t}z_j(s)ds = y_j(t) - y_j(\tau)  
 
     \int \limits_{\tau}^{t}z_j(s)ds = y_j(t) - y_j(\tau)  
 
     - \int \limits_{\tau}^{t}g(s, y_j(s)ds.
 
     - \int \limits_{\tau}^{t}g(s, y_j(s)ds.
   \end{aligned}</math>
+
   \end{equation*}
  
 
Вычтем друг из друг равенства для <math>j = 1, 2:</math>
 
Вычтем друг из друг равенства для <math>j = 1, 2:</math>
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \int \limits_{\tau}^{t}\left[z_1(s) - z_2(s)ds\right] =  
 
     \int \limits_{\tau}^{t}\left[z_1(s) - z_2(s)ds\right] =  
     y_1(t) - y_1(\tau) - (y_2(t) - y_2(\tau) )-
+
     y_1(t) - y_1(\tau) - (y_2(t) - y_2(\tau) )
 
     - \int \limits_{\tau}^{t}\left[g(s, y_1(s) - g(s, y_2(s)) \right]ds.
 
     - \int \limits_{\tau}^{t}\left[g(s, y_1(s) - g(s, y_2(s)) \right]ds.
   \end{aligned}</math>
+
   \end{equation*}
  
Обозначим <math>\Delta y(t) = y_1(t) - y_2(t), r(t) = \left\lVert\Delta y(t) \right\rVert.</math> Воспользовавшись Липшицевостью функции <math>g(t, y_j(t))</math> и тем, что <math>\left\lVert z_j(t) \right\rVert < \varepsilon_j,</math> получим следующее равенство '''(Eq1)''':
+
Обозначим <math>\Delta y(t) = y_1(t) - y_2(t), r(t) = \left\lVert\Delta y(t) \right\rVert.</math> Воспользовавшись липшицевостью функции <math>g(t, y_j(t))</math>, и тем, что <math>\left\lVert z_j(t) \right\rVert < \varepsilon_j,</math> получим следующее равенство:
  
<math>\begin{aligned}
+
\begin{equation}\label{eq1}
\label{lem1:eq1}
 
 
     r(t) \leqslant r(\tau) +  
 
     r(t) \leqslant r(\tau) +  
 
     L \int \limits_{\min (t, \tau)}^{\max (t, \tau)}r(s)ds + \varepsilon\left|t - \tau\right|.
 
     L \int \limits_{\min (t, \tau)}^{\max (t, \tau)}r(s)ds + \varepsilon\left|t - \tau\right|.
  \end{aligned}</math>
+
\end{equation}  
  
Не ограничивая общности положим <math>t > \tau</math> (если не так, просто переобозначим <math>t = \tau, \tau = t</math>). Обозначим <math>r(t) = \dot R(t).</math> Тогда после того, как воспользуемся условием <math>r(\tau) < \delta</math>, '''(Eq1)''' примет вид:
+
Не ограничивая общности, положим <math>t > \tau</math> (если не так, просто переобозначим <math>t = \tau, \tau = t</math>). Введем функцию <math>R(t) : \dot R(t) = r(t).</math> Тогда после того, как воспользуемся условием <math>r(\tau) < \delta</math>, \eqref{eq1} примет вид:
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \dot R(t) - LR(t) \leqslant\delta + \varepsilon(t - \tau).
 
     \dot R(t) - LR(t) \leqslant\delta + \varepsilon(t - \tau).
   \end{aligned}</math>
+
   \end{equation*}
  
 
Домножим на интегрирующий множитель <math>e^{-Lt},</math> и получим:
 
Домножим на интегрирующий множитель <math>e^{-Lt},</math> и получим:
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \frac{d}{dt}(R e^{Lt}) \leqslant(\delta + \varepsilon(t - \tau))e^{-Lt}.
 
     \frac{d}{dt}(R e^{Lt}) \leqslant(\delta + \varepsilon(t - \tau))e^{-Lt}.
   \end{aligned}</math>
+
   \end{equation*}
  
 
Проинтегрировав на отрезке <math>[\tau, t]</math> и домножив на <math>e^{Lt}</math> получим:
 
Проинтегрировав на отрезке <math>[\tau, t]</math> и домножив на <math>e^{Lt}</math> получим:
  
<math>\begin{aligned}
+
\begin{equation*}
 
     R(t) = \frac{\delta}{L}\left(e^{-L(t - \tau)} -1 \right) -  
 
     R(t) = \frac{\delta}{L}\left(e^{-L(t - \tau)} -1 \right) -  
 
     \frac{\varepsilon}{L}(t - \tau) + \frac{\varepsilon}{L^2}\left(e^{L(t - \tau)} -1  \right).
 
     \frac{\varepsilon}{L}(t - \tau) + \frac{\varepsilon}{L^2}\left(e^{L(t - \tau)} -1  \right).
   \end{aligned}</math>
+
   \end{equation*}
  
Подставим получившийся результат в '''(Eq1)''' вместо интеграла, получим:
+
Подставим получившийся результат в \eqref{eq1} вместо интеграла, получим:
  
<math>\begin{aligned}
+
\begin{equation*}
 
     r(t) \leqslant\delta +  
 
     r(t) \leqslant\delta +  
 
     \delta \left(e^{l(t - \tau)} -1  \right) +  
 
     \delta \left(e^{l(t - \tau)} -1  \right) +  
 
     \varepsilon\left( \frac{e^{L(t - \tau)} - 1}{L}\right).
 
     \varepsilon\left( \frac{e^{L(t - \tau)} - 1}{L}\right).
   \end{aligned}</math>
+
   \end{equation*}
 
+
<math>\blacksquare</math>
Пусть <math>x(t, \tau, \xi)</math>  — решение задачи '''(System)''' и выполняются условия '''(Restrictions)'''. Тогда <math>x(t, \tau, \xi) \in C((T_0, T_1)^2 \times \mathbb{R}^n).</math>
 
  
 +
'''Теорема 1'''.
 +
Пусть <math>x(t, \tau, \xi)</math>  — решение задачи \eqref{newSys} и выполняются условия \eqref{Restrictions}. Тогда <math>x(t, \tau, \xi) \in C((T_0, T_1)^2 \times \mathbb{R}^n).</math><br>
 +
''Доказательство.''
 
Обозначим <math>V = (T_0, T_1)^2 \times \mathbb{R}^n.</math> Решение будем строить методом последовательных приближений. Положим
 
Обозначим <math>V = (T_0, T_1)^2 \times \mathbb{R}^n.</math> Решение будем строить методом последовательных приближений. Положим
  
<math>\begin{aligned}
+
\begin{equation*}
 
     x_0(t, \tau, \xi) = y[t] + \xi - y[\tau],
 
     x_0(t, \tau, \xi) = y[t] + \xi - y[\tau],
   \end{aligned}</math>
+
   \end{equation*}
 
 
 
где <math>y[t] = x(t, t_0, x_0)</math>  — решение для некоторого <math>T_0 < t_0 < T_1.</math> То есть
 
где <math>y[t] = x(t, t_0, x_0)</math>  — решение для некоторого <math>T_0 < t_0 < T_1.</math> То есть
  
<math>\begin{aligned}
+
\begin{equation*}
 
     y(t) = y(\tau) + \int \limits_{\tau}^{t}g(s, y(s))ds.
 
     y(t) = y(\tau) + \int \limits_{\tau}^{t}g(s, y(s))ds.
   \end{aligned}</math>
+
   \end{equation*}
  
 
Положим <math>k</math>-ое приближение:
 
Положим <math>k</math>-ое приближение:
  
<math>\begin{aligned}
+
\begin{equation*}
 
     x_k(t, \tau, \xi) = \xi +  
 
     x_k(t, \tau, \xi) = \xi +  
 
     \int \limits_{\tau}^{t}g(s, x_{k-1}(s, \tau, \xi))ds.
 
     \int \limits_{\tau}^{t}g(s, x_{k-1}(s, \tau, \xi))ds.
   \end{aligned}</math>
+
   \end{equation*}
  
 
Далее под индукции покажем оценку для <math>\left\lVert x_k(t, \tau, \xi) - x_{k-1}(t, \tau, \xi) \right\rVert.</math> База:
 
Далее под индукции покажем оценку для <math>\left\lVert x_k(t, \tau, \xi) - x_{k-1}(t, \tau, \xi) \right\rVert.</math> База:
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
     \left\lVert x_1(t, \tau, \xi) - x_{0}(t, \tau, \xi) \right\rVert =
+
     \left\lVert x_1(t, \tau, \xi) - x_{0}(t, \tau, \xi) \right\rVert  
     =\left\lVert\int \limits_{tau}^{t}
+
     =\left\lVert\int \limits_{\tau}^{t}
 
     \left[g(s, x_0(s, \tau, \xi)) -  g(s, y[s])ds\right] \right\rVert \leqslant
 
     \left[g(s, x_0(s, \tau, \xi)) -  g(s, y[s])ds\right] \right\rVert \leqslant
 
     L\left\lVert\xi - y[\tau] \right\rVert\left|t - \tau\right|.
 
     L\left\lVert\xi - y[\tau] \right\rVert\left|t - \tau\right|.
Строка 142: Строка 153:
 
   \end{aligned}</math>
 
   \end{aligned}</math>
  
Представим <math>x_k(t, \tau, \xi) = \sum \limits_{i = 0}^{k}x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi).</math> Тогда подставив полученные выше оценки получим:
+
Представим <math>x_k(t, \tau, \xi) = \sum \limits_{i = 0}^{k}x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi).</math> Тогда, подставив полученные выше оценки, получим:
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
Строка 148: Строка 159:
 
     \left\lVert\sum \limits_{i = 1}^{k}x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi) \right\rVert \leqslant
 
     \left\lVert\sum \limits_{i = 1}^{k}x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi) \right\rVert \leqslant
 
     \sum \limits_{i = 1}^{k}\left\lVert x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi) \right\rVert \leqslant
 
     \sum \limits_{i = 1}^{k}\left\lVert x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi) \right\rVert \leqslant
     \leqslant\sum \limits_{i = 1}^{k} L^{i+1}\frac{\left|t - \tau\right|^{i+1}}{(i+1)!}\left\lVert\xi -y[\tau] \right\rVert \leqslant
+
     \sum \limits_{i = 1}^{k} L^{i+1}\frac{\left|t - \tau\right|^{i+1}}{(i+1)!}\left\lVert\xi -y[\tau] \right\rVert \leqslant
 
     e^{L(t - \tau)}\left\lVert\xi - y[\tau] \right\rVert.
 
     e^{L(t - \tau)}\left\lVert\xi - y[\tau] \right\rVert.
 
   \end{aligned}</math>
 
   \end{aligned}</math>
  
Получили, что функциональный ряд ограничен сверху на любом компакте <math>K \subset V</math>, значит по признаку Даламбера он равномерно сходится. Из непрерывности <math>y[t]</math> '''(Restrictions)''' следует непрерывность <math>x_k(t, \tau, \xi).</math> При этом заметим, что <math>x</math>  — неподвижная точка сжимающего отображения <math>G(x) = \xi + \int \limits_{\tau}^{t}g(s, x(s, \tau, t)),</math> значит
+
Получили, что функциональный ряд ограничен сверху на любом компакте <math>K \subset V</math>, значит по признаку Даламбера он равномерно сходится. Из непрерывности <math>y[t]</math> \eqref{Restrictions} следует непрерывность <math>x_k(t, \tau, \xi).</math> При этом заметим, что <math>x</math>  — неподвижная точка сжимающего отображения <math>G(x) = \xi + \int \limits_{\tau}^{t}g(s, x(s, \tau, t)),</math> значит
  
<math>\begin{aligned}
+
\begin{equation*}
     x_k[t] \rightrightarrows x[t], k \to \infty
+
     x_k[t] \rightrightarrows x[t], k \to \infty.
   \end{aligned}</math>
+
   \end{equation*}
  
Тогда выполнив предельный переход, получаем, что
+
Тогда, выполнив предельный переход, получаем, что
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
Строка 164: Строка 175:
 
   \end{aligned}</math>
 
   \end{aligned}</math>
  
При этом в силу непрерывности <math>x_k[t]</math> и равномерной сходимости следует, что <math>x[t]</math> непрерывна.
+
При этом, в силу непрерывности <math>x_k[t]</math> и равномерной сходимости следует, что <math>x[t]</math> непрерывна.
 +
<math>\blacksquare</math>
 +
 
 +
'''Следствие 1.'''
 +
<math>x(t, \tau, \cdot)</math> является гомеоморфизмом, т. е. <math>x(t, \tau, \cdot): \mathbb{R}^n \to \mathbb{R}^n</math> взаимооднозначное непрерывное, и обратное также непрерывно.
  
<math>x(t, \tau, \cdot)</math> является гомеоморфизмом, т. е. <math>x(t, \tau, \cdot): \mathbb{R}^n \to \mathbb{R}^n</math> взаимооднозначное непрерывное, и обратное также непрерывно, при этом:
+
'''Следствие 2.'''
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
Строка 177: Строка 192:
 
   \right.\end{aligned}</math>
 
   \right.\end{aligned}</math>
  
<math>{\mathcal{X}}[t] = {\mathcal{X}}(t, t_0, x_0).</math> Тогда если <math>\xi \in \int {\mathcal{X}}[\tau],</math> <math>\forall t > \tau, \forall u(\cdot), s \in [t, \tau]</math>
+
<math>{\mathcal{X}}[t] = {\mathcal{X}}(t, t_0, x_0)</math> — множество достижимости. Тогда если <math>\xi \in int {\mathcal{X}}[\tau],</math> <math>\forall t > \tau, \forall u(\cdot), s \in [t, \tau]</math>
 +
 
 +
\begin{equation*}
 +
  x[s] = x(s, \tau, \xi | u(\cdot)) \in int {\mathcal{X}}[s] .
 +
\end{equation*}
 +
 
  
<math>\begin{aligned}
+
''Доказательство.''
  x[s] = x(s, \tau, \xi | u(\cdot)).\end{aligned}</math>
 
  
Если <math>\xi \in \int {\mathcal{X}}[\tau],</math> то некоторая окрестность <math>U(\xi) \subset {\mathcal{X}}[\tau].</math> Тогда возьмем <math>x \in U(\xi)</math> и рассмотрим <math>y[s] = x(s, \tau, x|u(\cdot)):</math> <math>\begin{aligned}
+
Если <math>\xi \in int {\mathcal{X}}[\tau],</math> то некоторая окрестность <math>U(\xi) \subset {\mathcal{X}}[\tau].</math> Тогда возьмем <math>x \in U(\xi)</math> и рассмотрим <math>y[s] = x(s, \tau, x|u(\cdot)):</math> <math>\begin{aligned}
 
     \bigcup \limits_{x \in U(\xi)}\{y[s]\} \subset {\mathcal{X}}[s]  
 
     \bigcup \limits_{x \in U(\xi)}\{y[s]\} \subset {\mathcal{X}}[s]  
     \Rightarrow x[s] \in \int \bigcup \limits_{x \in U(\xi)} \{y[s]\}.
+
     \Rightarrow x[s] \in int \bigcup \limits_{x \in U(\xi)} \{y[s]\}.
 
   \end{aligned}</math>
 
   \end{aligned}</math>
 +
<math>\blacksquare</math>
  
 
То есть если в какой-то момент времени траектория провалилась внутрь трубки достижимости, то обратно на границу она вернуться не может. В линейных система траектория движется вдоль границы постоянно.
 
То есть если в какой-то момент времени траектория провалилась внутрь трубки достижимости, то обратно на границу она вернуться не может. В линейных система траектория движется вдоль границы постоянно.
  
 
== Дифференцируемость ==
 
== Дифференцируемость ==
 
+
'''Теорема 2'''.
Пусть выполнены условия '''(Restrictions)''' и, кроме того, производная <math>\frac{\partial g}{\partial x}</math> существует <math>\forall x \in \mathbb{R}^n, \dot \forall t \in [T_0, T_1],</math> измерима по <math>t</math> непрерывна по <math>x</math> а также удовлетворяет следующему условию регулярности: пусть <math>\forall \tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1,  
+
Пусть выполнены условия \eqref{Restrictions} и, кроме того, производная <math>\frac{\partial g}{\partial x}</math> существует <math>\forall x \in \mathbb{R}^n, \dot \forall t \in [T_0, T_1],</math> измерима по <math>t</math> непрерывна по <math>x</math>, а также удовлетворяет следующему условию регулярности: пусть <math>\forall \tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1,  
 
   \forall \varepsilon> 0, \forall D \subset \mathbb{R}^n, D</math>  — непустой компакт, <math>\exists \delta(\varepsilon, \tau_0, \tau_1, D) > 0:</math>
 
   \forall \varepsilon> 0, \forall D \subset \mathbb{R}^n, D</math>  — непустой компакт, <math>\exists \delta(\varepsilon, \tau_0, \tau_1, D) > 0:</math>
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \forall x_1, x_2 \in D: \left\lVert x_1 - x_2 \right\rVert \leqslant\delta \Rightarrow  
 
     \forall x_1, x_2 \in D: \left\lVert x_1 - x_2 \right\rVert \leqslant\delta \Rightarrow  
    \Rightarrow \left\lVert\frac{\partial g}{\partial x}(t, x_1) - \frac{\partial g}{\partial x}(t, x_2) \right\rVert \leqslant\varepsilon
+
    \left\lVert\frac{\partial g}{\partial x}(t, x_1) - \frac{\partial g}{\partial x}(t, x_2) \right\rVert \leqslant\varepsilon
 
     \forall t \in [\tau_0, \tau_1].
 
     \forall t \in [\tau_0, \tau_1].
   \end{aligned}</math>
+
   \end{equation*}
  
 
Тогда <math>\exists \frac{\partial x(t, \tau, \xi)}{\partial \xi} \left|_{(t, t_0, x_0)} \right.
 
Тогда <math>\exists \frac{\partial x(t, \tau, \xi)}{\partial \xi} \left|_{(t, t_0, x_0)} \right.
Строка 212: Строка 232:
 
   \end{aligned}</math>
 
   \end{aligned}</math>
  
Обозначим <math>y[t] = x(t, \tau, \xi),</math> зафиксируем <math>\forall h \in \mathbb{R}^n</math> и рассмотрим <math>x_h(t)  = x(t, \tau, \xi + \alpha h).</math> Обозначим <math>\nu_h(t, \tau, \xi, \alpha) = x_h[t] - y[t].</math> Применим Лемму (1) для оценки нормы этой величины:
+
''Доказательство.''
 +
 
 +
Обозначим <math>y[t] = x(t, \tau, \xi),</math> зафиксируем <math>\forall h \in \mathbb{R}^n</math> и рассмотрим <math>x_h(t)  = x(t, \tau, \xi + \alpha h), \alpha \in \mathbb{R}, \alpha > 0.</math> Обозначим <math>\nu_h(t, \tau, \xi, \alpha) = x_h[t] - y[t].</math> Применим доказанную лемму для оценки нормы этой величины:
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
Строка 221: Строка 243:
 
При этом сходимость равномерная по <math>(t, \tau, \xi)</math> на произвольном компакте. Продифференцируем <math>\nu_h</math> по времени:
 
При этом сходимость равномерная по <math>(t, \tau, \xi)</math> на произвольном компакте. Продифференцируем <math>\nu_h</math> по времени:
  
<math>\begin{aligned}
+
\begin{equation}\label{eq2}
 
     \frac{d \nu_h(t, \tau, \xi, \alpha)}{dt} = g(t, x_h[t]) - g(t, y[t])
 
     \frac{d \nu_h(t, \tau, \xi, \alpha)}{dt} = g(t, x_h[t]) - g(t, y[t])
     =\{\text{формула конечных приращений}\} =
+
     =\{\text{формула конечных приращений}\}
 
     =\left[ \frac{\partial g}{\partial x} (t, y[t] + \beta(t)(x_h[t] - y[t])
 
     =\left[ \frac{\partial g}{\partial x} (t, y[t] + \beta(t)(x_h[t] - y[t])
     \right]\nu_h(t, \tau, \xi, \alpha) = **,
+
     \right]\nu_h(t, \tau, \xi, \alpha) = \dots
  \end{aligned}</math>
+
\end{equation}
  
 
где <math>\beta(t) \in (0, 1)</math>  — множитель из формулы конечных приращений. Выберем <math>\tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1</math> и <math>D \subset \mathbb{R}^n</math>  — компакт такой, что
 
где <math>\beta(t) \in (0, 1)</math>  — множитель из формулы конечных приращений. Выберем <math>\tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1</math> и <math>D \subset \mathbb{R}^n</math>  — компакт такой, что
Строка 245: Строка 267:
 
Такое сделать возможно ввиду ограниченности <math>y[t]</math> и оценки на <math>\nu_h.</math> Из условий регулярности на <math>g:</math>
 
Такое сделать возможно ввиду ограниченности <math>y[t]</math> и оценки на <math>\nu_h.</math> Из условий регулярности на <math>g:</math>
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \forall \varepsilon> 0  
 
     \forall \varepsilon> 0  
 
     \exists \delta = \delta(\varepsilon, \tau_0, \tau_1, D) > 0:
 
     \exists \delta = \delta(\varepsilon, \tau_0, \tau_1, D) > 0:
Строка 251: Строка 273:
 
     \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x} \right\rVert \leqslant\varepsilon,
 
     \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x} \right\rVert \leqslant\varepsilon,
 
     \quad \left\lVert\nu_h \right\rVert \leqslant\delta.
 
     \quad \left\lVert\nu_h \right\rVert \leqslant\delta.
   \end{aligned}</math>
+
   \end{equation*}
  
 
Введем обозначение: <math>\Gamma \stackrel{\text{def}}{=}-\frac{\partial g(t, y[t])}{\partial x} -  
 
Введем обозначение: <math>\Gamma \stackrel{\text{def}}{=}-\frac{\partial g(t, y[t])}{\partial x} -  
     \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x}.</math> Тогда продолжая равенство <math>**</math> получим:
+
     \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x}.</math> Тогда продолжая равенство \eqref{eq2} получим:
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
     ** = \left[  \frac{\partial g}{\partial x}(t, y[t]) + \Gamma \right]
+
     \dots = \left[  \frac{\partial g}{\partial x}(t, y[t]) + \Gamma \right]
 
     \nu_h(t, \tau, \xi, \alpha) =  
 
     \nu_h(t, \tau, \xi, \alpha) =  
 
     \{\gamma: \alpha \gamma = \Gamma \nu_h  
 
     \{\gamma: \alpha \gamma = \Gamma \nu_h  
     \Rightarrow \left\lVert\gamma \right\rVert \leqslant\left\lVert\Gamma \right\rVert\left\lVert h \right\rVert e^{L\left|t - \tau\right|}  \} =
+
     \Rightarrow \left\lVert\gamma \right\rVert \leqslant\left\lVert\Gamma \right\rVert\left\lVert h \right\rVert e^{L\left|t - \tau\right|}  \}  
 
     = \frac{\partial g}{\partial x}(t, y[t])\nu_h(t, \tau, \xi, \alpha) + \gamma \alpha.
 
     = \frac{\partial g}{\partial x}(t, y[t])\nu_h(t, \tau, \xi, \alpha) + \gamma \alpha.
 
   \end{aligned}</math>
 
   \end{aligned}</math>
Строка 273: Строка 295:
 
То есть <math>\varphi_h</math>  — <math>\tilde \varepsilon</math>-решение уравнения в вариациях.
 
То есть <math>\varphi_h</math>  — <math>\tilde \varepsilon</math>-решение уравнения в вариациях.
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \dot z[t] = \frac{\partial g}{\partial x}(t, y[t])z[t],
 
     \dot z[t] = \frac{\partial g}{\partial x}(t, y[t])z[t],
   \end{aligned}</math>
+
   \end{equation*}
  
 
где в качестве <math>\tilde \varepsilon</math> выступает <math>\gamma: \left\lVert\gamma \right\rVert \leqslant\tilde \varepsilon.</math> Пусть <math>\psi_h[\cdot] = \psi_h(\cdot, \tau)</math>  — решение уравнения в вариациях из условия теоремы c начальный условием <math>\psi_h[\tau] = h.</math> Тогда верно, что
 
где в качестве <math>\tilde \varepsilon</math> выступает <math>\gamma: \left\lVert\gamma \right\rVert \leqslant\tilde \varepsilon.</math> Пусть <math>\psi_h[\cdot] = \psi_h(\cdot, \tau)</math>  — решение уравнения в вариациях из условия теоремы c начальный условием <math>\psi_h[\tau] = h.</math> Тогда верно, что
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \varphi_h(\tau, \tau, \xi, \alpha) =  
 
     \varphi_h(\tau, \tau, \xi, \alpha) =  
 
     \frac{x_h[\tau] - y[\tau]}{\alpha} = \frac{\xi + \alpha h - \xi}{\alpha} = h.
 
     \frac{x_h[\tau] - y[\tau]}{\alpha} = \frac{\xi + \alpha h - \xi}{\alpha} = h.
   \end{aligned}</math>
+
   \end{equation*}
  
 
Значит верно, что
 
Значит верно, что
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \left\lVert\varphi_h(\tau, \tau, \xi, \alpha) - \psi_h(\tau, \tau) \right\rVert = 0.
 
     \left\lVert\varphi_h(\tau, \tau, \xi, \alpha) - \psi_h(\tau, \tau) \right\rVert = 0.
   \end{aligned}</math>
+
   \end{equation*}
  
Применим лемму 1: при <math>\delta = 0, \varepsilon_1 = \tilde \varepsilon, \varepsilon_2 = 0</math> верно:
+
Применим доказанную лемму: при <math>\delta = 0, \varepsilon_1 = \tilde \varepsilon, \varepsilon_2 = 0</math> верно:
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
Строка 297: Строка 319:
 
   \end{aligned}</math>
 
   \end{aligned}</math>
  
где <math>\varepsilon^*</math>  — требуемая на этом шаге оценка. Она выполняется при <math>\left|alpha\right| \leqslant\alpha_0.</math> Далее раскручивая цепочку замен для <math>\varepsilon^* \to \tilde \varepsilon\to \varepsilon\to \delta,</math> воспользуемся ранее полученной оценкой
+
где <math>\varepsilon^*</math>  — требуемая на этом шаге оценка. Она выполняется при <math>\left|\alpha\right| \leqslant\alpha_0.</math> Далее, раскручивая цепочку замен для <math>\varepsilon^* \to \tilde \varepsilon\to \varepsilon\to \delta,</math> воспользуемся ранее полученной оценкой
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \left\lVert\nu_h \right\rVert \leqslant\left|\alpha\right|\left\lVert h \right\rVert e^{L\left|t - \tau\right|}.
 
     \left\lVert\nu_h \right\rVert \leqslant\left|\alpha\right|\left\lVert h \right\rVert e^{L\left|t - \tau\right|}.
   \end{aligned}</math>
+
   \end{equation*}
  
 
Из нее можно очевидным образом
 
Из нее можно очевидным образом
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \forall \varepsilon^* > 0 \exists \tilde \alpha > 0:  
 
     \forall \varepsilon^* > 0 \exists \tilde \alpha > 0:  
 
     \left|\alpha\right| \leqslant\tilde \alpha \Rightarrow \left\lVert\nu_h \right\rVert \leqslant\delta.
 
     \left|\alpha\right| \leqslant\tilde \alpha \Rightarrow \left\lVert\nu_h \right\rVert \leqslant\delta.
   \end{aligned}</math>
+
   \end{equation*}
  
 
То есть
 
То есть
 
+
\begin{equation*}
<math>\begin{aligned}
 
 
     \varphi_h \rightrightarrows \psi_h, \quad \alpha \to 0,
 
     \varphi_h \rightrightarrows \psi_h, \quad \alpha \to 0,
   \end{aligned}</math>
+
   \end{equation*}
  
на компакте <math>K = [\tau_0, \tau_1]^2.</math> То есть искомый предел существует, и теперь можно вычислять <math>\frac{\partial x}{\partial h}</math>  — производная по направлению <math>h.</math> В силу того, что <math>h</math> произвольный, можем вместо него подставить по очереди произвольный ортонормированный базис <math>e_1, \dots, e_n.</math> Чтобы получить итоговое <math>Y[\cdot],</math> найдем <math>\frac{\partial x}{\partial e_1}, \dots, \frac{\partial x}{\partial e_n},</math> и результаты запишем в матрицу. Тогда получим <math>Y[\cdot],</math> которое удовлетворяем уравнению в вариациях и начальному условию <math>Y[\tau] = I.</math>
+
на компакте <math>K = [\tau_0, \tau_1] \times [\tau_0, \tau_1].</math> То есть искомый предел существует, и теперь можно вычислять <math>\frac{\partial x}{\partial h}</math>  — производная по направлению <math>h.</math> В силу того, что <math>h</math> произвольный, можем вместо него подставить по очереди произвольный ортонормированный базис <math>e_1, \dots, e_n.</math> Чтобы получить итоговое <math>Y[\cdot],</math> найдем <math>\frac{\partial x}{\partial e_1}, \dots, \frac{\partial x}{\partial e_n},</math> и результаты запишем в матрицу. Тогда получим <math>Y[\cdot],</math> которое удовлетворяет уравнению в вариациях и начальному условию <math>Y[\tau] = I.</math>
 +
<math>\blacksquare</math>  
  
Чувствительность к вариации в начале:
+
'''Следствие'''
 +
(Чувствительность к вариации в начале).:
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
Строка 324: Строка 347:
 
     + o(\left\lVert\xi - \xi_0 \right\rVert).
 
     + o(\left\lVert\xi - \xi_0 \right\rVert).
 
   \end{aligned}</math>
 
   \end{aligned}</math>
 +
'''Замечание.'''
 +
Условие регулярности из предыдущей теоремы выполнено тогда,
 +
когда \(\frac{\partial f}{\partial x}(t, x, u)\) непрерывна по \((t, x, u)\).
  
Ограничим <math>u</math> замкнутым шаром радиуса <math>C > 0: B_C(0),</math> выберем <math>\forall D \subset \mathbb{R}^n</math>  — компакт. Тогда <math>\forall [\tau_0, \tau_1] \Rightarrow  
+
''Доказательство.'' Ограничим <math>u</math> замкнутым шаром радиуса <math>C > 0: B_C(0),</math> выберем <math>\forall D \subset \mathbb{R}^n</math>  — компакт. Тогда <math>\forall [\tau_0, \tau_1] \Rightarrow  
 
   K = [\tau_0, \tau_1] \times D \times B_C(0)</math>  — компакт. А значит из непрерывности <math>\frac{\partial f}{\partial x}(t, x, u)</math> следует равномерная непрерывность на <math>K.</math> Тогда
 
   K = [\tau_0, \tau_1] \times D \times B_C(0)</math>  — компакт. А значит из непрерывности <math>\frac{\partial f}{\partial x}(t, x, u)</math> следует равномерная непрерывность на <math>K.</math> Тогда
  
<math>\begin{aligned}
+
\begin{equation*}
 
     \left\lVert\frac{\partial f}{\partial x}(t, x_1, u) -  
 
     \left\lVert\frac{\partial f}{\partial x}(t, x_1, u) -  
 
     \frac{\partial f}{\partial x}(t, x_2, u) \right\rVert \leqslant\varepsilon\quad \forall  
 
     \frac{\partial f}{\partial x}(t, x_2, u) \right\rVert \leqslant\varepsilon\quad \forall  
 
     x_1, x_2 \in K, \tau \in [\tau_0, \tau_1], u \in B_C(0).
 
     x_1, x_2 \in K, \tau \in [\tau_0, \tau_1], u \in B_C(0).
   \end{aligned}</math>
+
   \end{equation*}
  
 
В силу произвольности <math>K</math> получаем требуемое утверждение.
 
В силу произвольности <math>K</math> получаем требуемое утверждение.
 +
<math>\blacksquare</math>
  
 
== Список литературы ==
 
== Список литературы ==
1) Комаров Ю. Лекции по курсу "Оптимальное управление", 2020/2021.
+
1) Комаров Ю.A. Лекции по курсу "Оптимальное управление", 2020/2021.
  
 
2) Понтрягин Л.С., Болтянский В.Г., Гамкрелидзе Р.В., Мищенко Е.Ф. "Математическая теория оптимальных процессов", М.: Наука, 1983.
 
2) Понтрягин Л.С., Болтянский В.Г., Гамкрелидзе Р.В., Мищенко Е.Ф. "Математическая теория оптимальных процессов", М.: Наука, 1983.

Текущая версия на 06:39, 22 декабря 2021

Рассмотрим следующую задачу Коши\[\begin{aligned} \left\{ \begin{aligned} &\dot x(t) = g(t, x(t)),\\ &x(t_0) = x^0. \end{aligned} \right.\end{aligned}\] Решение системы обозначим \(x[t] \stackrel{\text{def}}{=}x(t, t_0, x^0).\) Под квадратными скобками подразумевается, что \(x[t]\) зависит еще от чего-то, но в текущих выкладках оно не так важно, и будет короче и нагляднее писать \(x[t]\) вместо \(x(t, a, b, c).\)

Непрерывность, частный случай

Будем предполагать, что \(\begin{aligned} g: [T_0, T_1] \times \mathbb{R}^n \to \mathbb{R}^n, -\infty \leqslant T_0 < T_1 \leqslant+\infty.\end{aligned}\) Также наложим следующие ограничения:

\begin{equation}\label{Restrictions} \end{equation}

  1. \(\begin{aligned}[t]\label{technical} &g(t) \text{ измерима по } t \in [T_0, T_1] \forall x \in \mathbb{R}^n, \\ &g(t) \text { непрерывна по } x \text{ для почти всех } \dot \forall t \in [T_0, T_1], \end{aligned}\)
  2. \(\begin{aligned}[t]\label{Lipsh} \exists L = const > 0: \left\lVert g(t, x_1) - g(t, x_2) \right\rVert \leqslant L\left\lVert x_1 - x_2 \right\rVert \quad \forall x_1, x_2 \in \mathbb{R}^n, \dot \forall t \in [T_0, T_1], \end{aligned}\)
  3. \(\begin{aligned}[t]\label{sublinear} \exists A, B = const: A, B > 0: \left\lVert g(t, x) \right\rVert \leqslant A\left\lVert x \right\rVert + B \quad \forall x \in \mathbb{R}^n,\dot \forall t \in [T_0, T_1]. \end{aligned}\)

Под записью \(\dot \forall t\) подразумевается "для почти всех \(t\)". Ограничения 1. носят технический характер и необходимы для обеспечения существования решения. Ограничениe 2.  —условие Липшица. Ограничениe 3. называется условием сублинейного роста (в данных теоремах оно не потребуется, однако оно потребуется в дальнейшем для продолжимости решения).

Далее введем введем переобозначения и будем рассматривать следующую систему:

\begin{equation}\label{newSys} \begin{cases} \dot x(t) = g(t, x(t)),\\ x(\tau) = \xi,\\ \tau \in (T_0, T_1). \end{cases} \end{equation}


Определение. функция \(y(t)\) называется \(\varepsilon-\)решением системы \eqref{newSys}, если

\begin{equation*} y(t) \in AC([\tau_0, \tau_1, \mathbb{R}^n]), \end{equation*} \begin{equation*} \left\lVert\dot y(t)- g(t, y(t)) \right\rVert \leqslant\varepsilon \end{equation*} \begin{equation*} \dot \forall t \in [\tau_0, \tau_1], \end{equation*}

где \(AC\) —множество абсолютно непрерывных функций, определенное на этой странице. То есть производная абсолютно непрерывной функции \(y(t)\) является решением уравнения \(\dot y(t) = g(t, y(t))\) с погрешностью не больше, чем \(\varepsilon.\)

Лемма. Пусть \(y_1(t)\)  — \(\varepsilon_1\)-решение, а \(y_2(t)\)  — \(\varepsilon_2\)-решение задачи \eqref{newSys}, \(\varepsilon_1, \varepsilon_2 > 0, y_1(\tau), y_2(\tau)\) определены на \([\tau_0, \tau_1],\) \(T_0 < \tau_0 < \tau < \tau_1 < T_1\) и \(\left\lVert y_1(\tau) - y_2(\tau) \right\rVert \leqslant\delta.\) Тогда \begin{equation*} \left\lVert y_1(t) - y_2(t) \right\rVert \leqslant\delta e^{L\left|t - \tau\right|} + \frac{\varepsilon}{L}\left(e^{L\left|t - \tau\right|} - 1\right), \varepsilon= \varepsilon_1 + \varepsilon_2 \geqslant 0, \tau_0 < t < \tau_1. \end{equation*}

Доказательство. Раз \(y_j(t)\)  — \(\varepsilon\)-решение, то справедливо \(\left\lVert\dot y(t) - g(t, y(t)) \right\rVert \leqslant\varepsilon_j.\) Обозначим \( z_j (t) = \dot y_j(t) - g(t, y_j(t)).\) Ясно, что \(\left\lVert z_j \right\rVert \leqslant\varepsilon_j.\) Проинтегрируем \(z_j(t):\)

\begin{equation*} \int \limits_{\tau}^{t}z_j(s)ds = y_j(t) - y_j(\tau) - \int \limits_{\tau}^{t}g(s, y_j(s)ds. \end{equation*}

Вычтем друг из друг равенства для \(j = 1, 2:\)

\begin{equation*} \int \limits_{\tau}^{t}\left[z_1(s) - z_2(s)ds\right] = y_1(t) - y_1(\tau) - (y_2(t) - y_2(\tau) ) - \int \limits_{\tau}^{t}\left[g(s, y_1(s) - g(s, y_2(s)) \right]ds. \end{equation*}

Обозначим \(\Delta y(t) = y_1(t) - y_2(t), r(t) = \left\lVert\Delta y(t) \right\rVert.\) Воспользовавшись липшицевостью функции \(g(t, y_j(t))\), и тем, что \(\left\lVert z_j(t) \right\rVert < \varepsilon_j,\) получим следующее равенство:

\begin{equation}\label{eq1} r(t) \leqslant r(\tau) + L \int \limits_{\min (t, \tau)}^{\max (t, \tau)}r(s)ds + \varepsilon\left|t - \tau\right|. \end{equation}

Не ограничивая общности, положим \(t > \tau\) (если не так, просто переобозначим \(t = \tau, \tau = t\)). Введем функцию \(R(t) : \dot R(t) = r(t).\) Тогда после того, как воспользуемся условием \(r(\tau) < \delta\), \eqref{eq1} примет вид:

\begin{equation*} \dot R(t) - LR(t) \leqslant\delta + \varepsilon(t - \tau). \end{equation*}

Домножим на интегрирующий множитель \(e^{-Lt},\) и получим:

\begin{equation*} \frac{d}{dt}(R e^{Lt}) \leqslant(\delta + \varepsilon(t - \tau))e^{-Lt}. \end{equation*}

Проинтегрировав на отрезке \([\tau, t]\) и домножив на \(e^{Lt}\) получим:

\begin{equation*} R(t) = \frac{\delta}{L}\left(e^{-L(t - \tau)} -1 \right) - \frac{\varepsilon}{L}(t - \tau) + \frac{\varepsilon}{L^2}\left(e^{L(t - \tau)} -1 \right). \end{equation*}

Подставим получившийся результат в \eqref{eq1} вместо интеграла, получим:

\begin{equation*} r(t) \leqslant\delta + \delta \left(e^{l(t - \tau)} -1 \right) + \varepsilon\left( \frac{e^{L(t - \tau)} - 1}{L}\right). \end{equation*} \(\blacksquare\)

Теорема 1. Пусть \(x(t, \tau, \xi)\)  — решение задачи \eqref{newSys} и выполняются условия \eqref{Restrictions}. Тогда \(x(t, \tau, \xi) \in C((T_0, T_1)^2 \times \mathbb{R}^n).\)
Доказательство. Обозначим \(V = (T_0, T_1)^2 \times \mathbb{R}^n.\) Решение будем строить методом последовательных приближений. Положим

\begin{equation*} x_0(t, \tau, \xi) = y[t] + \xi - y[\tau], \end{equation*} где \(y[t] = x(t, t_0, x_0)\)  — решение для некоторого \(T_0 < t_0 < T_1.\) То есть

\begin{equation*} y(t) = y(\tau) + \int \limits_{\tau}^{t}g(s, y(s))ds. \end{equation*}

Положим \(k\)-ое приближение:

\begin{equation*} x_k(t, \tau, \xi) = \xi + \int \limits_{\tau}^{t}g(s, x_{k-1}(s, \tau, \xi))ds. \end{equation*}

Далее под индукции покажем оценку для \(\left\lVert x_k(t, \tau, \xi) - x_{k-1}(t, \tau, \xi) \right\rVert.\) База\[\begin{aligned} \left\lVert x_1(t, \tau, \xi) - x_{0}(t, \tau, \xi) \right\rVert =\left\lVert\int \limits_{\tau}^{t} \left[g(s, x_0(s, \tau, \xi)) - g(s, y[s])ds\right] \right\rVert \leqslant L\left\lVert\xi - y[\tau] \right\rVert\left|t - \tau\right|. \end{aligned}\]

Аналогично для произвольного \(k\) имеем

\(\begin{aligned} \left\lVert x_k(t, \tau, \xi) - x_{k-1}(t, \tau, \xi) \right\rVert \leqslant L^{k+1}\frac{\left|t - \tau\right|^{k+1}}{(k+1)!}\left\lVert\xi -y[\tau] \right\rVert \to 0, k \to +\infty. \end{aligned}\)

Представим \(x_k(t, \tau, \xi) = \sum \limits_{i = 0}^{k}x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi).\) Тогда, подставив полученные выше оценки, получим\[\begin{aligned} \left\lVert x_k(t, \tau, \xi) - y[t] \right\rVert = \left\lVert\sum \limits_{i = 1}^{k}x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi) \right\rVert \leqslant \sum \limits_{i = 1}^{k}\left\lVert x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi) \right\rVert \leqslant \sum \limits_{i = 1}^{k} L^{i+1}\frac{\left|t - \tau\right|^{i+1}}{(i+1)!}\left\lVert\xi -y[\tau] \right\rVert \leqslant e^{L(t - \tau)}\left\lVert\xi - y[\tau] \right\rVert. \end{aligned}\]

Получили, что функциональный ряд ограничен сверху на любом компакте \(K \subset V\), значит по признаку Даламбера он равномерно сходится. Из непрерывности \(y[t]\) \eqref{Restrictions} следует непрерывность \(x_k(t, \tau, \xi).\) При этом заметим, что \(x\)  — неподвижная точка сжимающего отображения \(G(x) = \xi + \int \limits_{\tau}^{t}g(s, x(s, \tau, t)),\) значит

\begin{equation*} x_k[t] \rightrightarrows x[t], k \to \infty. \end{equation*}

Тогда, выполнив предельный переход, получаем, что

\(\begin{aligned} \left\lVert x(t, \tau, \xi) - y[t] \right\rVert \leqslant e^{L(t - \tau)}\left\lVert\xi - y[\tau] \right\rVert. \end{aligned}\)

При этом, в силу непрерывности \(x_k[t]\) и равномерной сходимости следует, что \(x[t]\) непрерывна. \(\blacksquare\)

Следствие 1. \(x(t, \tau, \cdot)\) является гомеоморфизмом, т. е. \(x(t, \tau, \cdot): \mathbb{R}^n \to \mathbb{R}^n\) взаимооднозначное непрерывное, и обратное также непрерывно.

Следствие 2.

\(\begin{aligned} \left\{ \begin{aligned} &\dot x(t) = f(t, x(t), u(t)),\\ &x(t_0) = x_0,\\ & u(t) \in {\mathcal{P}}(t). \end{aligned} \right.\end{aligned}\)

\({\mathcal{X}}[t] = {\mathcal{X}}(t, t_0, x_0)\) — множество достижимости. Тогда если \(\xi \in int {\mathcal{X}}[\tau],\) \(\forall t > \tau, \forall u(\cdot), s \in [t, \tau]\)

\begin{equation*} x[s] = x(s, \tau, \xi | u(\cdot)) \in int {\mathcal{X}}[s] . \end{equation*}


Доказательство.

Если \(\xi \in int {\mathcal{X}}[\tau],\) то некоторая окрестность \(U(\xi) \subset {\mathcal{X}}[\tau].\) Тогда возьмем \(x \in U(\xi)\) и рассмотрим \(y[s] = x(s, \tau, x|u(\cdot)):\) \(\begin{aligned} \bigcup \limits_{x \in U(\xi)}\{y[s]\} \subset {\mathcal{X}}[s] \Rightarrow x[s] \in int \bigcup \limits_{x \in U(\xi)} \{y[s]\}. \end{aligned}\) \(\blacksquare\)

То есть если в какой-то момент времени траектория провалилась внутрь трубки достижимости, то обратно на границу она вернуться не может. В линейных система траектория движется вдоль границы постоянно.

Дифференцируемость

Теорема 2. Пусть выполнены условия \eqref{Restrictions} и, кроме того, производная \(\frac{\partial g}{\partial x}\) существует \(\forall x \in \mathbb{R}^n, \dot \forall t \in [T_0, T_1],\) измерима по \(t\) непрерывна по \(x\), а также удовлетворяет следующему условию регулярности: пусть \(\forall \tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1, \forall \varepsilon> 0, \forall D \subset \mathbb{R}^n, D\)  — непустой компакт, \(\exists \delta(\varepsilon, \tau_0, \tau_1, D) > 0:\)

\begin{equation*} \forall x_1, x_2 \in D: \left\lVert x_1 - x_2 \right\rVert \leqslant\delta \Rightarrow \left\lVert\frac{\partial g}{\partial x}(t, x_1) - \frac{\partial g}{\partial x}(t, x_2) \right\rVert \leqslant\varepsilon \forall t \in [\tau_0, \tau_1]. \end{equation*}

Тогда \(\exists \frac{\partial x(t, \tau, \xi)}{\partial \xi} \left|_{(t, t_0, x_0)} \right. = Y(t, \tau, \xi), Y[\cdot] \in AC,\) удовлетворяет уравнению в вариациях\[\begin{aligned} \left\{ \begin{aligned} &\dot Y[t] = \frac{\partial g(t, x(t, \tau, \xi))}{\partial x}Y[t],\\ &Y[\tau] = E. \end{aligned} \right. \end{aligned}\]

Доказательство.

Обозначим \(y[t] = x(t, \tau, \xi),\) зафиксируем \(\forall h \in \mathbb{R}^n\) и рассмотрим \(x_h(t) = x(t, \tau, \xi + \alpha h), \alpha \in \mathbb{R}, \alpha > 0.\) Обозначим \(\nu_h(t, \tau, \xi, \alpha) = x_h[t] - y[t].\) Применим доказанную лемму для оценки нормы этой величины\[\begin{aligned} \left\lVert\nu_h(t, \tau, \xi, \alpha) \right\rVert \leqslant\left|\alpha\right| \left\lVert h \right\rVert e^{L(t - \tau)} \xrightarrow{\alpha \to 0}0, \end{aligned}\]

При этом сходимость равномерная по \((t, \tau, \xi)\) на произвольном компакте. Продифференцируем \(\nu_h\) по времени:

\begin{equation}\label{eq2} \frac{d \nu_h(t, \tau, \xi, \alpha)}{dt} = g(t, x_h[t]) - g(t, y[t]) =\{\text{формула конечных приращений}\} =\left[ \frac{\partial g}{\partial x} (t, y[t] + \beta(t)(x_h[t] - y[t]) \right]\nu_h(t, \tau, \xi, \alpha) = \dots \end{equation}

где \(\beta(t) \in (0, 1)\)  — множитель из формулы конечных приращений. Выберем \(\tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1\) и \(D \subset \mathbb{R}^n\)  — компакт такой, что

\(\begin{aligned} \forall \left\{ \begin{aligned} &t \in [\tau_0, \tau_1], \\ &\beta \in [0, 1], \\ &\tau \in [\tau_0, \tau_1], \\ &\alpha: \left|\alpha\right| < \alpha_0,\\ \end{aligned} \right| \Rightarrow y[t] + \beta \nu_h(t, \tau, \xi, \alpha) \in D. \end{aligned}\)

Такое сделать возможно ввиду ограниченности \(y[t]\) и оценки на \(\nu_h.\) Из условий регулярности на \(g:\)

\begin{equation*} \forall \varepsilon> 0 \exists \delta = \delta(\varepsilon, \tau_0, \tau_1, D) > 0: \left\lVert\frac{\partial g(t, y[t])}{\partial x} - \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x} \right\rVert \leqslant\varepsilon, \quad \left\lVert\nu_h \right\rVert \leqslant\delta. \end{equation*}

Введем обозначение\[\Gamma \stackrel{\text{def}}{=}-\frac{\partial g(t, y[t])}{\partial x} - \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x}.\] Тогда продолжая равенство \eqref{eq2} получим\[\begin{aligned} \dots = \left[ \frac{\partial g}{\partial x}(t, y[t]) + \Gamma \right] \nu_h(t, \tau, \xi, \alpha) = \{\gamma: \alpha \gamma = \Gamma \nu_h \Rightarrow \left\lVert\gamma \right\rVert \leqslant\left\lVert\Gamma \right\rVert\left\lVert h \right\rVert e^{L\left|t - \tau\right|} \} = \frac{\partial g}{\partial x}(t, y[t])\nu_h(t, \tau, \xi, \alpha) + \gamma \alpha. \end{aligned}\]

Введем еще одну функцию \(\varphi_h(t, \tau, \xi, \alpha) \stackrel{\text{def}}{=}\frac{\nu_h(t, \tau, \xi, \alpha)}{\alpha}.\) Для нее справедливо\[\begin{aligned} \frac{\partial \varphi_h}{\partial t}(t, \tau, \xi, \alpha) = \frac{\partial g}{\partial x}(t, y[t])\varphi_h(t, \tau, \xi, \alpha) + \gamma. \end{aligned}\]

То есть \(\varphi_h\)  — \(\tilde \varepsilon\)-решение уравнения в вариациях.

\begin{equation*} \dot z[t] = \frac{\partial g}{\partial x}(t, y[t])z[t], \end{equation*}

где в качестве \(\tilde \varepsilon\) выступает \(\gamma: \left\lVert\gamma \right\rVert \leqslant\tilde \varepsilon.\) Пусть \(\psi_h[\cdot] = \psi_h(\cdot, \tau)\)  — решение уравнения в вариациях из условия теоремы c начальный условием \(\psi_h[\tau] = h.\) Тогда верно, что

\begin{equation*} \varphi_h(\tau, \tau, \xi, \alpha) = \frac{x_h[\tau] - y[\tau]}{\alpha} = \frac{\xi + \alpha h - \xi}{\alpha} = h. \end{equation*}

Значит верно, что

\begin{equation*} \left\lVert\varphi_h(\tau, \tau, \xi, \alpha) - \psi_h(\tau, \tau) \right\rVert = 0. \end{equation*}

Применим доказанную лемму: при \(\delta = 0, \varepsilon_1 = \tilde \varepsilon, \varepsilon_2 = 0\) верно\[\begin{aligned} \left\lVert\varphi_h(t, \tau, \xi, \alpha) - \psi_h(t, \tau) \right\rVert \leqslant \frac{\varepsilon}{L}(e^{L\left|t - \tau\right|} - 1) < \varepsilon^*, \end{aligned}\]

где \(\varepsilon^*\)  — требуемая на этом шаге оценка. Она выполняется при \(\left|\alpha\right| \leqslant\alpha_0.\) Далее, раскручивая цепочку замен для \(\varepsilon^* \to \tilde \varepsilon\to \varepsilon\to \delta,\) воспользуемся ранее полученной оценкой

\begin{equation*} \left\lVert\nu_h \right\rVert \leqslant\left|\alpha\right|\left\lVert h \right\rVert e^{L\left|t - \tau\right|}. \end{equation*}

Из нее можно очевидным образом

\begin{equation*} \forall \varepsilon^* > 0 \exists \tilde \alpha > 0: \left|\alpha\right| \leqslant\tilde \alpha \Rightarrow \left\lVert\nu_h \right\rVert \leqslant\delta. \end{equation*}

То есть \begin{equation*} \varphi_h \rightrightarrows \psi_h, \quad \alpha \to 0, \end{equation*}

на компакте \(K = [\tau_0, \tau_1] \times [\tau_0, \tau_1].\) То есть искомый предел существует, и теперь можно вычислять \(\frac{\partial x}{\partial h}\)  — производная по направлению \(h.\) В силу того, что \(h\) произвольный, можем вместо него подставить по очереди произвольный ортонормированный базис \(e_1, \dots, e_n.\) Чтобы получить итоговое \(Y[\cdot],\) найдем \(\frac{\partial x}{\partial e_1}, \dots, \frac{\partial x}{\partial e_n},\) и результаты запишем в матрицу. Тогда получим \(Y[\cdot],\) которое удовлетворяет уравнению в вариациях и начальному условию \(Y[\tau] = I.\) \(\blacksquare\)

Следствие (Чувствительность к вариации в начале).\[\begin{aligned} x(t, \tau, \xi) = x(t, \tau, \xi_0) + Y[t, \tau, \xi_0](\xi - \xi_0) + o(\left\lVert\xi - \xi_0 \right\rVert). \end{aligned}\] Замечание. Условие регулярности из предыдущей теоремы выполнено тогда, когда \(\frac{\partial f}{\partial x}(t, x, u)\) непрерывна по \((t, x, u)\).

Доказательство. Ограничим \(u\) замкнутым шаром радиуса \(C > 0: B_C(0),\) выберем \(\forall D \subset \mathbb{R}^n\)  — компакт. Тогда \(\forall [\tau_0, \tau_1] \Rightarrow K = [\tau_0, \tau_1] \times D \times B_C(0)\)  — компакт. А значит из непрерывности \(\frac{\partial f}{\partial x}(t, x, u)\) следует равномерная непрерывность на \(K.\) Тогда

\begin{equation*} \left\lVert\frac{\partial f}{\partial x}(t, x_1, u) - \frac{\partial f}{\partial x}(t, x_2, u) \right\rVert \leqslant\varepsilon\quad \forall x_1, x_2 \in K, \tau \in [\tau_0, \tau_1], u \in B_C(0). \end{equation*}

В силу произвольности \(K\) получаем требуемое утверждение. \(\blacksquare\)

Список литературы

1) Комаров Ю.A. Лекции по курсу "Оптимальное управление", 2020/2021.

2) Понтрягин Л.С., Болтянский В.Г., Гамкрелидзе Р.В., Мищенко Е.Ф. "Математическая теория оптимальных процессов", М.: Наука, 1983.