Непрерывность и дифференцируемость траекторий по начальным данным: различия между версиями

Материал из sawiki
Перейти к навигации Перейти к поиску
 
(не показана 1 промежуточная версия этого же участника)
Строка 6: Строка 6:
 
     \end{aligned}
 
     \end{aligned}
 
   \right.\end{aligned}</math> Решение системы обозначим <math>x[t] \stackrel{\text{def}}{=}x(t, t_0, x^0).</math>
 
   \right.\end{aligned}</math> Решение системы обозначим <math>x[t] \stackrel{\text{def}}{=}x(t, t_0, x^0).</math>
 +
Под квадратными скобками подразумевается, что \(x[t]\) зависит еще от чего-то, но в текущих выкладках оно не так важно, и будет короче и нагляднее писать \(x[t]\) вместо \(x(t, a, b, c).\)
  
 
== Непрерывность, частный случай ==
 
== Непрерывность, частный случай ==
Строка 87: Строка 88:
 
\end{equation}  
 
\end{equation}  
  
Не ограничивая общности, положим <math>t > \tau</math> (если не так, просто переобозначим <math>t = \tau, \tau = t</math>). Обозначим <math>r(t) = \dot R(t).</math> Тогда после того, как воспользуемся условием <math>r(\tau) < \delta</math>, \eqref{eq1} примет вид:
+
Не ограничивая общности, положим <math>t > \tau</math> (если не так, просто переобозначим <math>t = \tau, \tau = t</math>). Введем функцию <math>R(t) : \dot R(t) = r(t).</math> Тогда после того, как воспользуемся условием <math>r(\tau) < \delta</math>, \eqref{eq1} примет вид:
  
 
\begin{equation*}
 
\begin{equation*}
Строка 177: Строка 178:
 
<math>\blacksquare</math>
 
<math>\blacksquare</math>
  
'''Следствие.'''
+
'''Следствие 1.'''
<math>x(t, \tau, \cdot)</math> является гомеоморфизмом, т. е. <math>x(t, \tau, \cdot): \mathbb{R}^n \to \mathbb{R}^n</math> взаимооднозначное непрерывное, и обратное также непрерывно, при этом:
+
<math>x(t, \tau, \cdot)</math> является гомеоморфизмом, т. е. <math>x(t, \tau, \cdot): \mathbb{R}^n \to \mathbb{R}^n</math> взаимооднозначное непрерывное, и обратное также непрерывно.
 +
 
 +
'''Следствие 2.'''
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
Строка 189: Строка 192:
 
   \right.\end{aligned}</math>
 
   \right.\end{aligned}</math>
  
<math>{\mathcal{X}}[t] = {\mathcal{X}}(t, t_0, x_0).</math> Тогда если <math>\xi \in int {\mathcal{X}}[\tau],</math> <math>\forall t > \tau, \forall u(\cdot), s \in [t, \tau]</math>
+
<math>{\mathcal{X}}[t] = {\mathcal{X}}(t, t_0, x_0)</math> — множество достижимости. Тогда если <math>\xi \in int {\mathcal{X}}[\tau],</math> <math>\forall t > \tau, \forall u(\cdot), s \in [t, \tau]</math>
 +
 
 +
\begin{equation*}
 +
  x[s] = x(s, \tau, \xi | u(\cdot)) \in int {\mathcal{X}}[s] .
 +
\end{equation*}
 +
 
  
 
''Доказательство.''
 
''Доказательство.''
<math>\begin{aligned}
 
  x[s] = x(s, \tau, \xi | u(\cdot)).\end{aligned}</math>
 
  
Если <math>\xi \in \int {\mathcal{X}}[\tau],</math> то некоторая окрестность <math>U(\xi) \subset {\mathcal{X}}[\tau].</math> Тогда возьмем <math>x \in U(\xi)</math> и рассмотрим <math>y[s] = x(s, \tau, x|u(\cdot)):</math> <math>\begin{aligned}
+
Если <math>\xi \in int {\mathcal{X}}[\tau],</math> то некоторая окрестность <math>U(\xi) \subset {\mathcal{X}}[\tau].</math> Тогда возьмем <math>x \in U(\xi)</math> и рассмотрим <math>y[s] = x(s, \tau, x|u(\cdot)):</math> <math>\begin{aligned}
 
     \bigcup \limits_{x \in U(\xi)}\{y[s]\} \subset {\mathcal{X}}[s]  
 
     \bigcup \limits_{x \in U(\xi)}\{y[s]\} \subset {\mathcal{X}}[s]  
     \Rightarrow x[s] \in \int \bigcup \limits_{x \in U(\xi)} \{y[s]\}.
+
     \Rightarrow x[s] \in int \bigcup \limits_{x \in U(\xi)} \{y[s]\}.
 
   \end{aligned}</math>
 
   \end{aligned}</math>
 
<math>\blacksquare</math>  
 
<math>\blacksquare</math>  
Строка 228: Строка 234:
 
''Доказательство.''
 
''Доказательство.''
  
Обозначим <math>y[t] = x(t, \tau, \xi),</math> зафиксируем <math>\forall h \in \mathbb{R}^n</math> и рассмотрим <math>x_h(t)  = x(t, \tau, \xi + \alpha h), \alpha \in \mathbb{R}^n, \alpha > 0.</math> Обозначим <math>\nu_h(t, \tau, \xi, \alpha) = x_h[t] - y[t].</math> Применим доказанную лемму для оценки нормы этой величины:
+
Обозначим <math>y[t] = x(t, \tau, \xi),</math> зафиксируем <math>\forall h \in \mathbb{R}^n</math> и рассмотрим <math>x_h(t)  = x(t, \tau, \xi + \alpha h), \alpha \in \mathbb{R}, \alpha > 0.</math> Обозначим <math>\nu_h(t, \tau, \xi, \alpha) = x_h[t] - y[t].</math> Применим доказанную лемму для оценки нормы этой величины:
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
Строка 237: Строка 243:
 
При этом сходимость равномерная по <math>(t, \tau, \xi)</math> на произвольном компакте. Продифференцируем <math>\nu_h</math> по времени:
 
При этом сходимость равномерная по <math>(t, \tau, \xi)</math> на произвольном компакте. Продифференцируем <math>\nu_h</math> по времени:
  
<math>\begin{aligned}
+
\begin{equation}\label{eq2}
 
     \frac{d \nu_h(t, \tau, \xi, \alpha)}{dt} = g(t, x_h[t]) - g(t, y[t])
 
     \frac{d \nu_h(t, \tau, \xi, \alpha)}{dt} = g(t, x_h[t]) - g(t, y[t])
 
     =\{\text{формула конечных приращений}\}
 
     =\{\text{формула конечных приращений}\}
 
     =\left[ \frac{\partial g}{\partial x} (t, y[t] + \beta(t)(x_h[t] - y[t])
 
     =\left[ \frac{\partial g}{\partial x} (t, y[t] + \beta(t)(x_h[t] - y[t])
     \right]\nu_h(t, \tau, \xi, \alpha) = **,
+
     \right]\nu_h(t, \tau, \xi, \alpha) = \dots
  \end{aligned}</math>
+
\end{equation}
  
 
где <math>\beta(t) \in (0, 1)</math>  — множитель из формулы конечных приращений. Выберем <math>\tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1</math> и <math>D \subset \mathbb{R}^n</math>  — компакт такой, что
 
где <math>\beta(t) \in (0, 1)</math>  — множитель из формулы конечных приращений. Выберем <math>\tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1</math> и <math>D \subset \mathbb{R}^n</math>  — компакт такой, что
Строка 270: Строка 276:
  
 
Введем обозначение: <math>\Gamma \stackrel{\text{def}}{=}-\frac{\partial g(t, y[t])}{\partial x} -  
 
Введем обозначение: <math>\Gamma \stackrel{\text{def}}{=}-\frac{\partial g(t, y[t])}{\partial x} -  
     \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x}.</math> Тогда продолжая равенство <math>**</math> получим:
+
     \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x}.</math> Тогда продолжая равенство \eqref{eq2} получим:
  
 
<math>\begin{aligned}
 
<math>\begin{aligned}
     ** = \left[  \frac{\partial g}{\partial x}(t, y[t]) + \Gamma \right]
+
     \dots = \left[  \frac{\partial g}{\partial x}(t, y[t]) + \Gamma \right]
 
     \nu_h(t, \tau, \xi, \alpha) =  
 
     \nu_h(t, \tau, \xi, \alpha) =  
 
     \{\gamma: \alpha \gamma = \Gamma \nu_h  
 
     \{\gamma: \alpha \gamma = \Gamma \nu_h  
Строка 331: Строка 337:
 
   \end{equation*}
 
   \end{equation*}
  
на компакте <math>K = [\tau_0, \tau_1] \times [\tau_0, \tau_1].</math> То есть искомый предел существует, и теперь можно вычислять <math>\frac{\partial x}{\partial h}</math>  — производная по направлению <math>h.</math> В силу того, что <math>h</math> произвольный, можем вместо него подставить по очереди произвольный ортонормированный базис <math>e_1, \dots, e_n.</math> Чтобы получить итоговое <math>Y[\cdot],</math> найдем <math>\frac{\partial x}{\partial e_1}, \dots, \frac{\partial x}{\partial e_n},</math> и результаты запишем в матрицу. Тогда получим <math>Y[\cdot],</math> которое удовлетворяем уравнению в вариациях и начальному условию <math>Y[\tau] = I.</math>
+
на компакте <math>K = [\tau_0, \tau_1] \times [\tau_0, \tau_1].</math> То есть искомый предел существует, и теперь можно вычислять <math>\frac{\partial x}{\partial h}</math>  — производная по направлению <math>h.</math> В силу того, что <math>h</math> произвольный, можем вместо него подставить по очереди произвольный ортонормированный базис <math>e_1, \dots, e_n.</math> Чтобы получить итоговое <math>Y[\cdot],</math> найдем <math>\frac{\partial x}{\partial e_1}, \dots, \frac{\partial x}{\partial e_n},</math> и результаты запишем в матрицу. Тогда получим <math>Y[\cdot],</math> которое удовлетворяет уравнению в вариациях и начальному условию <math>Y[\tau] = I.</math>
 
<math>\blacksquare</math>  
 
<math>\blacksquare</math>  
  

Текущая версия на 06:39, 22 декабря 2021

Рассмотрим следующую задачу Коши\[\begin{aligned} \left\{ \begin{aligned} &\dot x(t) = g(t, x(t)),\\ &x(t_0) = x^0. \end{aligned} \right.\end{aligned}\] Решение системы обозначим \(x[t] \stackrel{\text{def}}{=}x(t, t_0, x^0).\) Под квадратными скобками подразумевается, что \(x[t]\) зависит еще от чего-то, но в текущих выкладках оно не так важно, и будет короче и нагляднее писать \(x[t]\) вместо \(x(t, a, b, c).\)

Непрерывность, частный случай

Будем предполагать, что \(\begin{aligned} g: [T_0, T_1] \times \mathbb{R}^n \to \mathbb{R}^n, -\infty \leqslant T_0 < T_1 \leqslant+\infty.\end{aligned}\) Также наложим следующие ограничения:

\begin{equation}\label{Restrictions} \end{equation}

  1. \(\begin{aligned}[t]\label{technical} &g(t) \text{ измерима по } t \in [T_0, T_1] \forall x \in \mathbb{R}^n, \\ &g(t) \text { непрерывна по } x \text{ для почти всех } \dot \forall t \in [T_0, T_1], \end{aligned}\)
  2. \(\begin{aligned}[t]\label{Lipsh} \exists L = const > 0: \left\lVert g(t, x_1) - g(t, x_2) \right\rVert \leqslant L\left\lVert x_1 - x_2 \right\rVert \quad \forall x_1, x_2 \in \mathbb{R}^n, \dot \forall t \in [T_0, T_1], \end{aligned}\)
  3. \(\begin{aligned}[t]\label{sublinear} \exists A, B = const: A, B > 0: \left\lVert g(t, x) \right\rVert \leqslant A\left\lVert x \right\rVert + B \quad \forall x \in \mathbb{R}^n,\dot \forall t \in [T_0, T_1]. \end{aligned}\)

Под записью \(\dot \forall t\) подразумевается "для почти всех \(t\)". Ограничения 1. носят технический характер и необходимы для обеспечения существования решения. Ограничениe 2.  —условие Липшица. Ограничениe 3. называется условием сублинейного роста (в данных теоремах оно не потребуется, однако оно потребуется в дальнейшем для продолжимости решения).

Далее введем введем переобозначения и будем рассматривать следующую систему:

\begin{equation}\label{newSys} \begin{cases} \dot x(t) = g(t, x(t)),\\ x(\tau) = \xi,\\ \tau \in (T_0, T_1). \end{cases} \end{equation}


Определение. функция \(y(t)\) называется \(\varepsilon-\)решением системы \eqref{newSys}, если

\begin{equation*} y(t) \in AC([\tau_0, \tau_1, \mathbb{R}^n]), \end{equation*} \begin{equation*} \left\lVert\dot y(t)- g(t, y(t)) \right\rVert \leqslant\varepsilon \end{equation*} \begin{equation*} \dot \forall t \in [\tau_0, \tau_1], \end{equation*}

где \(AC\) —множество абсолютно непрерывных функций, определенное на этой странице. То есть производная абсолютно непрерывной функции \(y(t)\) является решением уравнения \(\dot y(t) = g(t, y(t))\) с погрешностью не больше, чем \(\varepsilon.\)

Лемма. Пусть \(y_1(t)\)  — \(\varepsilon_1\)-решение, а \(y_2(t)\)  — \(\varepsilon_2\)-решение задачи \eqref{newSys}, \(\varepsilon_1, \varepsilon_2 > 0, y_1(\tau), y_2(\tau)\) определены на \([\tau_0, \tau_1],\) \(T_0 < \tau_0 < \tau < \tau_1 < T_1\) и \(\left\lVert y_1(\tau) - y_2(\tau) \right\rVert \leqslant\delta.\) Тогда \begin{equation*} \left\lVert y_1(t) - y_2(t) \right\rVert \leqslant\delta e^{L\left|t - \tau\right|} + \frac{\varepsilon}{L}\left(e^{L\left|t - \tau\right|} - 1\right), \varepsilon= \varepsilon_1 + \varepsilon_2 \geqslant 0, \tau_0 < t < \tau_1. \end{equation*}

Доказательство. Раз \(y_j(t)\)  — \(\varepsilon\)-решение, то справедливо \(\left\lVert\dot y(t) - g(t, y(t)) \right\rVert \leqslant\varepsilon_j.\) Обозначим \( z_j (t) = \dot y_j(t) - g(t, y_j(t)).\) Ясно, что \(\left\lVert z_j \right\rVert \leqslant\varepsilon_j.\) Проинтегрируем \(z_j(t):\)

\begin{equation*} \int \limits_{\tau}^{t}z_j(s)ds = y_j(t) - y_j(\tau) - \int \limits_{\tau}^{t}g(s, y_j(s)ds. \end{equation*}

Вычтем друг из друг равенства для \(j = 1, 2:\)

\begin{equation*} \int \limits_{\tau}^{t}\left[z_1(s) - z_2(s)ds\right] = y_1(t) - y_1(\tau) - (y_2(t) - y_2(\tau) ) - \int \limits_{\tau}^{t}\left[g(s, y_1(s) - g(s, y_2(s)) \right]ds. \end{equation*}

Обозначим \(\Delta y(t) = y_1(t) - y_2(t), r(t) = \left\lVert\Delta y(t) \right\rVert.\) Воспользовавшись липшицевостью функции \(g(t, y_j(t))\), и тем, что \(\left\lVert z_j(t) \right\rVert < \varepsilon_j,\) получим следующее равенство:

\begin{equation}\label{eq1} r(t) \leqslant r(\tau) + L \int \limits_{\min (t, \tau)}^{\max (t, \tau)}r(s)ds + \varepsilon\left|t - \tau\right|. \end{equation}

Не ограничивая общности, положим \(t > \tau\) (если не так, просто переобозначим \(t = \tau, \tau = t\)). Введем функцию \(R(t) : \dot R(t) = r(t).\) Тогда после того, как воспользуемся условием \(r(\tau) < \delta\), \eqref{eq1} примет вид:

\begin{equation*} \dot R(t) - LR(t) \leqslant\delta + \varepsilon(t - \tau). \end{equation*}

Домножим на интегрирующий множитель \(e^{-Lt},\) и получим:

\begin{equation*} \frac{d}{dt}(R e^{Lt}) \leqslant(\delta + \varepsilon(t - \tau))e^{-Lt}. \end{equation*}

Проинтегрировав на отрезке \([\tau, t]\) и домножив на \(e^{Lt}\) получим:

\begin{equation*} R(t) = \frac{\delta}{L}\left(e^{-L(t - \tau)} -1 \right) - \frac{\varepsilon}{L}(t - \tau) + \frac{\varepsilon}{L^2}\left(e^{L(t - \tau)} -1 \right). \end{equation*}

Подставим получившийся результат в \eqref{eq1} вместо интеграла, получим:

\begin{equation*} r(t) \leqslant\delta + \delta \left(e^{l(t - \tau)} -1 \right) + \varepsilon\left( \frac{e^{L(t - \tau)} - 1}{L}\right). \end{equation*} \(\blacksquare\)

Теорема 1. Пусть \(x(t, \tau, \xi)\)  — решение задачи \eqref{newSys} и выполняются условия \eqref{Restrictions}. Тогда \(x(t, \tau, \xi) \in C((T_0, T_1)^2 \times \mathbb{R}^n).\)
Доказательство. Обозначим \(V = (T_0, T_1)^2 \times \mathbb{R}^n.\) Решение будем строить методом последовательных приближений. Положим

\begin{equation*} x_0(t, \tau, \xi) = y[t] + \xi - y[\tau], \end{equation*} где \(y[t] = x(t, t_0, x_0)\)  — решение для некоторого \(T_0 < t_0 < T_1.\) То есть

\begin{equation*} y(t) = y(\tau) + \int \limits_{\tau}^{t}g(s, y(s))ds. \end{equation*}

Положим \(k\)-ое приближение:

\begin{equation*} x_k(t, \tau, \xi) = \xi + \int \limits_{\tau}^{t}g(s, x_{k-1}(s, \tau, \xi))ds. \end{equation*}

Далее под индукции покажем оценку для \(\left\lVert x_k(t, \tau, \xi) - x_{k-1}(t, \tau, \xi) \right\rVert.\) База\[\begin{aligned} \left\lVert x_1(t, \tau, \xi) - x_{0}(t, \tau, \xi) \right\rVert =\left\lVert\int \limits_{\tau}^{t} \left[g(s, x_0(s, \tau, \xi)) - g(s, y[s])ds\right] \right\rVert \leqslant L\left\lVert\xi - y[\tau] \right\rVert\left|t - \tau\right|. \end{aligned}\]

Аналогично для произвольного \(k\) имеем

\(\begin{aligned} \left\lVert x_k(t, \tau, \xi) - x_{k-1}(t, \tau, \xi) \right\rVert \leqslant L^{k+1}\frac{\left|t - \tau\right|^{k+1}}{(k+1)!}\left\lVert\xi -y[\tau] \right\rVert \to 0, k \to +\infty. \end{aligned}\)

Представим \(x_k(t, \tau, \xi) = \sum \limits_{i = 0}^{k}x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi).\) Тогда, подставив полученные выше оценки, получим\[\begin{aligned} \left\lVert x_k(t, \tau, \xi) - y[t] \right\rVert = \left\lVert\sum \limits_{i = 1}^{k}x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi) \right\rVert \leqslant \sum \limits_{i = 1}^{k}\left\lVert x_{i}(t, \tau, \xi) - x_{i-1}(t, \tau, \xi) \right\rVert \leqslant \sum \limits_{i = 1}^{k} L^{i+1}\frac{\left|t - \tau\right|^{i+1}}{(i+1)!}\left\lVert\xi -y[\tau] \right\rVert \leqslant e^{L(t - \tau)}\left\lVert\xi - y[\tau] \right\rVert. \end{aligned}\]

Получили, что функциональный ряд ограничен сверху на любом компакте \(K \subset V\), значит по признаку Даламбера он равномерно сходится. Из непрерывности \(y[t]\) \eqref{Restrictions} следует непрерывность \(x_k(t, \tau, \xi).\) При этом заметим, что \(x\)  — неподвижная точка сжимающего отображения \(G(x) = \xi + \int \limits_{\tau}^{t}g(s, x(s, \tau, t)),\) значит

\begin{equation*} x_k[t] \rightrightarrows x[t], k \to \infty. \end{equation*}

Тогда, выполнив предельный переход, получаем, что

\(\begin{aligned} \left\lVert x(t, \tau, \xi) - y[t] \right\rVert \leqslant e^{L(t - \tau)}\left\lVert\xi - y[\tau] \right\rVert. \end{aligned}\)

При этом, в силу непрерывности \(x_k[t]\) и равномерной сходимости следует, что \(x[t]\) непрерывна. \(\blacksquare\)

Следствие 1. \(x(t, \tau, \cdot)\) является гомеоморфизмом, т. е. \(x(t, \tau, \cdot): \mathbb{R}^n \to \mathbb{R}^n\) взаимооднозначное непрерывное, и обратное также непрерывно.

Следствие 2.

\(\begin{aligned} \left\{ \begin{aligned} &\dot x(t) = f(t, x(t), u(t)),\\ &x(t_0) = x_0,\\ & u(t) \in {\mathcal{P}}(t). \end{aligned} \right.\end{aligned}\)

\({\mathcal{X}}[t] = {\mathcal{X}}(t, t_0, x_0)\) — множество достижимости. Тогда если \(\xi \in int {\mathcal{X}}[\tau],\) \(\forall t > \tau, \forall u(\cdot), s \in [t, \tau]\)

\begin{equation*} x[s] = x(s, \tau, \xi | u(\cdot)) \in int {\mathcal{X}}[s] . \end{equation*}


Доказательство.

Если \(\xi \in int {\mathcal{X}}[\tau],\) то некоторая окрестность \(U(\xi) \subset {\mathcal{X}}[\tau].\) Тогда возьмем \(x \in U(\xi)\) и рассмотрим \(y[s] = x(s, \tau, x|u(\cdot)):\) \(\begin{aligned} \bigcup \limits_{x \in U(\xi)}\{y[s]\} \subset {\mathcal{X}}[s] \Rightarrow x[s] \in int \bigcup \limits_{x \in U(\xi)} \{y[s]\}. \end{aligned}\) \(\blacksquare\)

То есть если в какой-то момент времени траектория провалилась внутрь трубки достижимости, то обратно на границу она вернуться не может. В линейных система траектория движется вдоль границы постоянно.

Дифференцируемость

Теорема 2. Пусть выполнены условия \eqref{Restrictions} и, кроме того, производная \(\frac{\partial g}{\partial x}\) существует \(\forall x \in \mathbb{R}^n, \dot \forall t \in [T_0, T_1],\) измерима по \(t\) непрерывна по \(x\), а также удовлетворяет следующему условию регулярности: пусть \(\forall \tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1, \forall \varepsilon> 0, \forall D \subset \mathbb{R}^n, D\)  — непустой компакт, \(\exists \delta(\varepsilon, \tau_0, \tau_1, D) > 0:\)

\begin{equation*} \forall x_1, x_2 \in D: \left\lVert x_1 - x_2 \right\rVert \leqslant\delta \Rightarrow \left\lVert\frac{\partial g}{\partial x}(t, x_1) - \frac{\partial g}{\partial x}(t, x_2) \right\rVert \leqslant\varepsilon \forall t \in [\tau_0, \tau_1]. \end{equation*}

Тогда \(\exists \frac{\partial x(t, \tau, \xi)}{\partial \xi} \left|_{(t, t_0, x_0)} \right. = Y(t, \tau, \xi), Y[\cdot] \in AC,\) удовлетворяет уравнению в вариациях\[\begin{aligned} \left\{ \begin{aligned} &\dot Y[t] = \frac{\partial g(t, x(t, \tau, \xi))}{\partial x}Y[t],\\ &Y[\tau] = E. \end{aligned} \right. \end{aligned}\]

Доказательство.

Обозначим \(y[t] = x(t, \tau, \xi),\) зафиксируем \(\forall h \in \mathbb{R}^n\) и рассмотрим \(x_h(t) = x(t, \tau, \xi + \alpha h), \alpha \in \mathbb{R}, \alpha > 0.\) Обозначим \(\nu_h(t, \tau, \xi, \alpha) = x_h[t] - y[t].\) Применим доказанную лемму для оценки нормы этой величины\[\begin{aligned} \left\lVert\nu_h(t, \tau, \xi, \alpha) \right\rVert \leqslant\left|\alpha\right| \left\lVert h \right\rVert e^{L(t - \tau)} \xrightarrow{\alpha \to 0}0, \end{aligned}\]

При этом сходимость равномерная по \((t, \tau, \xi)\) на произвольном компакте. Продифференцируем \(\nu_h\) по времени:

\begin{equation}\label{eq2} \frac{d \nu_h(t, \tau, \xi, \alpha)}{dt} = g(t, x_h[t]) - g(t, y[t]) =\{\text{формула конечных приращений}\} =\left[ \frac{\partial g}{\partial x} (t, y[t] + \beta(t)(x_h[t] - y[t]) \right]\nu_h(t, \tau, \xi, \alpha) = \dots \end{equation}

где \(\beta(t) \in (0, 1)\)  — множитель из формулы конечных приращений. Выберем \(\tau_0, \tau_1: T_0 < \tau_0 < \tau_1 < T_1\) и \(D \subset \mathbb{R}^n\)  — компакт такой, что

\(\begin{aligned} \forall \left\{ \begin{aligned} &t \in [\tau_0, \tau_1], \\ &\beta \in [0, 1], \\ &\tau \in [\tau_0, \tau_1], \\ &\alpha: \left|\alpha\right| < \alpha_0,\\ \end{aligned} \right| \Rightarrow y[t] + \beta \nu_h(t, \tau, \xi, \alpha) \in D. \end{aligned}\)

Такое сделать возможно ввиду ограниченности \(y[t]\) и оценки на \(\nu_h.\) Из условий регулярности на \(g:\)

\begin{equation*} \forall \varepsilon> 0 \exists \delta = \delta(\varepsilon, \tau_0, \tau_1, D) > 0: \left\lVert\frac{\partial g(t, y[t])}{\partial x} - \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x} \right\rVert \leqslant\varepsilon, \quad \left\lVert\nu_h \right\rVert \leqslant\delta. \end{equation*}

Введем обозначение\[\Gamma \stackrel{\text{def}}{=}-\frac{\partial g(t, y[t])}{\partial x} - \frac{\partial g(t, y[t] + \beta[t]\nu_h)}{\partial x}.\] Тогда продолжая равенство \eqref{eq2} получим\[\begin{aligned} \dots = \left[ \frac{\partial g}{\partial x}(t, y[t]) + \Gamma \right] \nu_h(t, \tau, \xi, \alpha) = \{\gamma: \alpha \gamma = \Gamma \nu_h \Rightarrow \left\lVert\gamma \right\rVert \leqslant\left\lVert\Gamma \right\rVert\left\lVert h \right\rVert e^{L\left|t - \tau\right|} \} = \frac{\partial g}{\partial x}(t, y[t])\nu_h(t, \tau, \xi, \alpha) + \gamma \alpha. \end{aligned}\]

Введем еще одну функцию \(\varphi_h(t, \tau, \xi, \alpha) \stackrel{\text{def}}{=}\frac{\nu_h(t, \tau, \xi, \alpha)}{\alpha}.\) Для нее справедливо\[\begin{aligned} \frac{\partial \varphi_h}{\partial t}(t, \tau, \xi, \alpha) = \frac{\partial g}{\partial x}(t, y[t])\varphi_h(t, \tau, \xi, \alpha) + \gamma. \end{aligned}\]

То есть \(\varphi_h\)  — \(\tilde \varepsilon\)-решение уравнения в вариациях.

\begin{equation*} \dot z[t] = \frac{\partial g}{\partial x}(t, y[t])z[t], \end{equation*}

где в качестве \(\tilde \varepsilon\) выступает \(\gamma: \left\lVert\gamma \right\rVert \leqslant\tilde \varepsilon.\) Пусть \(\psi_h[\cdot] = \psi_h(\cdot, \tau)\)  — решение уравнения в вариациях из условия теоремы c начальный условием \(\psi_h[\tau] = h.\) Тогда верно, что

\begin{equation*} \varphi_h(\tau, \tau, \xi, \alpha) = \frac{x_h[\tau] - y[\tau]}{\alpha} = \frac{\xi + \alpha h - \xi}{\alpha} = h. \end{equation*}

Значит верно, что

\begin{equation*} \left\lVert\varphi_h(\tau, \tau, \xi, \alpha) - \psi_h(\tau, \tau) \right\rVert = 0. \end{equation*}

Применим доказанную лемму: при \(\delta = 0, \varepsilon_1 = \tilde \varepsilon, \varepsilon_2 = 0\) верно\[\begin{aligned} \left\lVert\varphi_h(t, \tau, \xi, \alpha) - \psi_h(t, \tau) \right\rVert \leqslant \frac{\varepsilon}{L}(e^{L\left|t - \tau\right|} - 1) < \varepsilon^*, \end{aligned}\]

где \(\varepsilon^*\)  — требуемая на этом шаге оценка. Она выполняется при \(\left|\alpha\right| \leqslant\alpha_0.\) Далее, раскручивая цепочку замен для \(\varepsilon^* \to \tilde \varepsilon\to \varepsilon\to \delta,\) воспользуемся ранее полученной оценкой

\begin{equation*} \left\lVert\nu_h \right\rVert \leqslant\left|\alpha\right|\left\lVert h \right\rVert e^{L\left|t - \tau\right|}. \end{equation*}

Из нее можно очевидным образом

\begin{equation*} \forall \varepsilon^* > 0 \exists \tilde \alpha > 0: \left|\alpha\right| \leqslant\tilde \alpha \Rightarrow \left\lVert\nu_h \right\rVert \leqslant\delta. \end{equation*}

То есть \begin{equation*} \varphi_h \rightrightarrows \psi_h, \quad \alpha \to 0, \end{equation*}

на компакте \(K = [\tau_0, \tau_1] \times [\tau_0, \tau_1].\) То есть искомый предел существует, и теперь можно вычислять \(\frac{\partial x}{\partial h}\)  — производная по направлению \(h.\) В силу того, что \(h\) произвольный, можем вместо него подставить по очереди произвольный ортонормированный базис \(e_1, \dots, e_n.\) Чтобы получить итоговое \(Y[\cdot],\) найдем \(\frac{\partial x}{\partial e_1}, \dots, \frac{\partial x}{\partial e_n},\) и результаты запишем в матрицу. Тогда получим \(Y[\cdot],\) которое удовлетворяет уравнению в вариациях и начальному условию \(Y[\tau] = I.\) \(\blacksquare\)

Следствие (Чувствительность к вариации в начале).\[\begin{aligned} x(t, \tau, \xi) = x(t, \tau, \xi_0) + Y[t, \tau, \xi_0](\xi - \xi_0) + o(\left\lVert\xi - \xi_0 \right\rVert). \end{aligned}\] Замечание. Условие регулярности из предыдущей теоремы выполнено тогда, когда \(\frac{\partial f}{\partial x}(t, x, u)\) непрерывна по \((t, x, u)\).

Доказательство. Ограничим \(u\) замкнутым шаром радиуса \(C > 0: B_C(0),\) выберем \(\forall D \subset \mathbb{R}^n\)  — компакт. Тогда \(\forall [\tau_0, \tau_1] \Rightarrow K = [\tau_0, \tau_1] \times D \times B_C(0)\)  — компакт. А значит из непрерывности \(\frac{\partial f}{\partial x}(t, x, u)\) следует равномерная непрерывность на \(K.\) Тогда

\begin{equation*} \left\lVert\frac{\partial f}{\partial x}(t, x_1, u) - \frac{\partial f}{\partial x}(t, x_2, u) \right\rVert \leqslant\varepsilon\quad \forall x_1, x_2 \in K, \tau \in [\tau_0, \tau_1], u \in B_C(0). \end{equation*}

В силу произвольности \(K\) получаем требуемое утверждение. \(\blacksquare\)

Список литературы

1) Комаров Ю.A. Лекции по курсу "Оптимальное управление", 2020/2021.

2) Понтрягин Л.С., Болтянский В.Г., Гамкрелидзе Р.В., Мищенко Е.Ф. "Математическая теория оптимальных процессов", М.: Наука, 1983.