Дискретная задача оптимального управления

Содержание:

Введение……………………………………

1. Введение

Дискретные динамические модели управляемых систем – это до­вольно важный в теоретическом и практическом отношении класс ма­тематических моделей, позволяющий охватить очень широкий круг реальных объектов и соответствующих им задач управления. Они возникают как вполне естественные при моделировании дискретных процессов, таких как задачи распределения ресурсов, обработка и пе­редача информации цифровыми электронными устройствами, либо опосредованно – при дискретизации непрерывных моделей для прак­тических расчетов или с целью учета неоднородности их поведения, либо чисто искусственным путем при организации различных итера­ционных вычислительных процедур.

К настоящему времени разработаны многочисленные точные и приближенные методы решения задач оптимального управления. Од­нако подавляющее их большинство относится к системам с непрерыв­ным временем. Для систем с дискретным временем, в особенности нелинейных, их арсенал оказывается значительно беднее. Основная причина – отсутствие в общем случае дискретного аналога принци­па максимума Понтрягина для непрерывных систем, вокруг которого

Долгое время группировались в основном теоретические работы в об­ласти оптимального управления, основанные на методе вариаций и необходимых условиях оптимальности. Об этом свидетельствуют из­вестные работы по дискретным системам [1-3] и др.

Значительно более продвинутыми оказываются результаты, осно­ванные на принципе оптимальности Беллмана и общих достаточ­ных условиях оптимальности Кротова [4]. К ним относятся усло­вия локальной оптимальности и итерационные методы улучшения В. И. Гурмана [5]. В то же время разработано мало эффективных методов синтеза оптимального управления для нелинейных дискрет­ных систем.

Данная работа посвящена приближенным методам синтеза за­конов оптимального управления на основе принципа оптимальности Кротова и глобальных оценок, которые не требуют априори хороших аналитических свойств исследуемых моделей.

Конкретно речь идет о следующих новых методах приближенно­го синтеза оптимального управления:

– метода полиномиальной аппроксимации решения уравнения Беллмана;

– метода траекторного восстановления функции цены.

В первом разделе описывается дискретная модель управляемой системы, рассматриваются ее методические преобразования, дается постановка общей задачи оптимального управления, в том числе, в форме синтеза.

Во втором разделе дается метод приближенного синтеза опти­мального управления, как одного из способов задания функции Кро – това на основе аппроксимации решения уравнения Беллмана степен­ным полиномом, в том числе точечную интерполяцию и аппроксима­цию по методу наименьших квадратов.

В третьем разделе предлагается метод приближенного синтеза, основанный на восстановлении так называемой функции цены.

Обсуждаются их приложения к практическим задачам, в част­ности к задаче оптимизации пространственного маневра вертолета и задаче об оптимальной стратегии устойчивого развития.

2. Постановка задачи

Рассматривается дискретная задача оптимального управления [4] о минимуме функционала

N-1

I(x(i),u(i)) = F(x(N)) + ^ /0 (i, x(i),u(i))

I=0

На множестве D, определенном следующими условиями:

(1) x(i + 1) = / (i, x(i),u(i)), i = 0,1 ,…,N – 1,

X(i) e Vx (i) С Rn, u(i) e Vu (i, x(i)) С Rr,

X(0) e V x(0), x(N ) e Vx(N).

В соответствии с теорией Кротова, с помощью произвольной функ­ции p ( i, x ), строятся следующие конструкции:

R(i, x, u) = p(i + 1, /(i, x, u)) – p(i, x) – / о (i, x, u), G(x(0),x(N)) = F(x(N)) + p(N, x(N)) – p(0, x(0)),

P(i, x)= sup R(i, x, u), p(i) = sup P(i, x),

UЈV”(i, x(i)) x(i)eVx (i)

M = inf G(x(0),x(N )) : x(0) e V( x)(0),x(N) e V( x)(N).

Задача сводится к поиску такой последовательности пар

{( x ( i ), u ( i )) s } c D

И такой функции p (разрешающей, или функции Кротова), что вы­полняются достаточные условия оптимальности:

R(i, xs (i),us (i)) ^ i), G(xs (0),xs (N)) ^ m.

3. Аппроксимации степенным полиномом

Здесь рассматривается метод приближенного синтеза оптималь­ного управления, как одного из способов задания функции Кротова на основе аппроксимации решения уравнения Беллмана интерполя­ционным полиномом.

Предполагается, что Vx (0) = {x(0)} , Vx ( i ) = Rn, i = 0,1,… , N. В данном случае функция G ( x (0), x ( N )) зависит только от x ( N ), так как левый конец траектории закреплен.

Функция p ( i, x ) выбирается так, чтобы P ( i, x ) не зависела от x, а функция G ( x ( N )) не зависела от x ( N ) , конкретно посредством из­вестных соотношений типа Беллмана относительно p ( i, x ):

– P (i, x(i)) =0,i = 0,1,…,N – 1, G(x(N)) = 0.

В общем случае их точное решение найти не удается, и приходится ограничиваться приближенными вычислениями.

Предлагаемый метод основан на аппроксимации разрешающей функции p ( i, x ) некоторым многомерным интерполяционным поли­номом

– p(i, x) = J2 ^a(i)ga (x),

A

Где { ga (x)} – некоторый набор заданных базисных функций, {^a (i)} –соответствующий набор коэффициентов, подлежащих определению из условий интерполяции равенств (1):

[ ф a(i) ]=[g a(x p W)]- ^

SU PueU (i, x(i))( Ea ф а (i + 1) ga(/(i, x(i),u)) – x(i), u)) в

– [Ф a ( N )] = [ ga ( xe ( N ))]-1 [ F ( xp ( N ))], а, в = 1, 2,…, M,

Где в – номер узловой точки, [(-)a ] ,[(^)в],[(^)a e] – матрицы размером (слева направо) M х 1, M х 1, M х M.

Однако в многомерных задачах при интерполяции необходимо согласование формы интерполяционного полинома и сетки узлов ин­терполяции, обеспечивающее обратимость матрицы [ ga ( xp (i))]. Вы­бор этих двух элементов, в конечном счете, и определяет метод при­ближенного решения поставленной задачи синтеза.

В качестве интерполяционного полинома использована следую­щая известная в теории интерполяции конструкция:

(5)

P(i, x(i))= Ј ji = 1mi (xi(i)j X

(j (x2 (i)j ( — Ј jn=1mn j (i)(xn(ij)),

Здесь 1 j 1 , j 2 ,…, jn ( i ) – неизвестные коэффициенты интерполяционного полинома, которые подлежат вычислению и которые, в конечном сче­те, определяют приближенно-оптимальный синтез управления. Чис­ло этих коэффициентов совпадает на регулярной решетке с числом узловых точек и равно произведению количества узловых точек по каждой из фазовых координат M = mi – m-2 mn.

При решении практических задач, как правило, диапазоны изме­нения фазовых координат либо заданы, исходя из физического смыс­ла задачи, либо могут быть определены с помощью методов оценок множеств достижимости. Поэтому узловые линии (дискретные) для рассматриваемого интерполяционного полинома могут быть постро­ены следующим образом. В некоторый момент времени i = i * диапа­зоны изменения фазовых координат разбиваются точками на mi – 1 отрезков по оси xi, на (m-2 – 1) отрезков по оси x2, и т. д. Через эти точки на каждой оси проводятся ( n – 1)-мерные гиперплоскости, ор­тогональные этой оси. Взаимное пересечение этих гиперплоскостей определяет M = mi – m-2 mn узловых точек. Через них про­водится регулярное семейство узловых линий x p (г),в = 1, 2,…, M выбранного вида, например, семейство прямых: x p ( i ) = const, линей­ных функций: x p ( i ) = Kii + Ко, парабол: x p ( i ) = K 212 + Kii + Ко, и т. д. В этом случае коэффициенты 1 &; j 1 , j 2 ,…j( i ) интерполяционно­го полинома (5) будут либо константами, либо простыми функциями времени.

При постановке рассматриваемой задачи учитывалось только од­но фазовое ограничение — ограничение на левый конец траектории, которое в данном случае представляет собой заданную точку xo(0). Другие фазовые ограничения (или их совокупности) могут быть учте­ны с помощью известного метода штрафов.

Близость полученного нами приближенного синтеза оптималь­ного управления u ( i, x ( i )) к строгому оптимуму можно определить с помощью следующей верхней оценки, доставляемой достаточными

N – i

Ј

I =0

+

Найденное управление тем ближе к оптимальному, чем меньше эта оценка. Возможность вычисления оценки-это важное преимущество перед “чистым” методом Беллмана. Она позволяет организовать ре­гулярную процедуру уточнения приближенного решения за счет уве­личения числа узлов интерполяции и их расположения в фазовом пространстве, а также дает критерий ее остановки.

Алгоритм описанного метода состоит из следующих этапов:

– в рассматриваемой области задаются узловые линии, и со­ответствующая конструкция полинома (5);

– в моменты времени i решается система уравнений (4) с на­чальными условиями. В результате определяются коэффи­циенты интерполяционного полинома и приближенный син­тез оптимального управления;

– вычисляется оценка точности приближенного синтеза опти­мального управления (6). Если эта оценка неудовлетвори­тельна, то следует повторить шаги 1) и 2) с увеличением числа узловых линий;

– для найденного синтеза управления и заданных начальных условий решается система

X(i + 1) = /(i, x(i),u(i, x)), i = 0,1,. .., N – 1, x(0) = xo

В направлении от 0 к N. В результате определяются при­ближенные оптимальные траектория и управление – пара ( x ( i ), u ( i )), на которой функционал I достигает приближен­ного абсолютного минимума в рассматриваемой области.

Разработана также модификация данного метода, основанная на аппроксимации заданного набора узловых значений правой части уравнения Беллмана по методу наименьших квадратов. В этой мо­дификации равенства (4) заменяются минимизацией относительно неизвестных коэффициентов интерполяционного полинома (3) сум­мы квадратов отклонений этого полинома от соответствующих уз­ловых значений. Преимущество такого подхода в том, что отпадаетнеобходимость строгого согласования конструкции полинома и кон­фигурации узловых точек, требуется лишь избыточность числа узлов относительно числа неизвестных, чтобы задача аппроксимации име­ла единственное решение.

4. Метод восстановления функции цены

Здесь рассматривается другой метод приближенного синтеза, осно­ванный на восстановлении так называемой функции цены. Под этим понимается зависимость функционала I ( i, x ), подсчитанного на неко­тором семействе решений системы (1), от значений i, x, рассматрива­емых как начальные для траекторий этого семейства. Если решения оптимальны, то, как известно, функция цены становится функцией Беллмана, иначе – функцией Кротова, удовлетворяющей соотноше­ниям (2), взятой с обратным знаком и порождающей оптимальный синтез управления. Если траектории семейства приближенно-опти­мальные, то и полученный с их помощью синтез также будет при­ближенно-оптимальным. На этом основана предлагаемая процедура приближенно-оптимального синтеза, называемая методом восстанов­ления функции цены, состоящая из следующих шагов:

– в рассматриваемой области фазового пространства при каж­дом i задается дискретный набор точек, от которых как от начальных строится семейство решений системы (1), прини­маемых за исходные приближения в каком-либо известном итерационном алгоритме улучшения (градиентном, второго порядка и т. п.);

– каждое решение улучшается до достижения оптимума, вы­числяются значения функции цены в узловых точках;

– задается приближенная функция Кротова-Беллмана посред­ством аппроксимации по найденному дискретному набору;

– вычисляется приближенно-оптимальный синтез с одновре­менной верхней оценкой;

– при удовлетворительном значении оценки процедура закан­чивается, иначе меняется схема аппроксимации и повторя­ются шаги 3) и 4) до окончания по оценке или до установ­ления;

– в последнем случае повторяются шаги 1)-5).

– Данный метод специфичен именно для дискретных систем, для которых конструкции Кротова, используемые на шагах 4) и 5), не требуют непрерывности и гладкости от функции р, и поэтому допус­кают произвольные аппроксимации, в том числе наиболее простые – кусочно-гладкие и даже кусочно-постоянные, что существенно упро­щает шаг 5).

– Возможна модификация данного метода, применимая и к непре­рывным системам, когда по дискретной схеме лишь задается функ­ция р и подсчитывается оценка.

– Другая модификация эффективна в широком классе задач, для которых среди оптимальных траекторий может быть выделена неко­торая опорная, “притягивающая” другие траектории выбранного се­мейства. Роль таких опорных траекторий могут играть магистрали в вырожденных задачах оптимального управления, исследуемых по методу кратных максимумов Гурмана, и программные оптимали в задачах локально оптимального синтеза в окрестности программной траектории с целью ее реализации управлением с обратной связью при малых возмущениях.

– 5. Некоторые приложения

– Приближенный синтез оптимального управления по дискретным схемам на основе глобальных методов и априорных оценок – это эф­фективный путь практического решения сложной проблемы опти­мального синтеза. Это подтверждают разнообразные приложения к версиям разработанных методов.

– Так, в работах [6-8] описываются приложения рассматриваемых методов к задачам улучшения и локально-оптимального синтеза уп­равлений, реализующих характерные маневры вертолета. Прибли­женный синтез в окрестности неоптимальной траектории с помощью полиномов первого – второго порядка приводит к улучшению управ­лений, а после серии итераций — к локальному оптимуму и прибли­женному локально-оптимальному синтезу управления.

В работе [9] описывается приложение данного метода к актуаль­ной задаче оптимизации стратегии устойчивого развития на агреги­рованной эколого-экономической модели — типичной задаче с маги­стральным решением. Специфика этой задачи позволяет построить методом восстановления функции цены глобальный приближенный синтез оптимального управления с хорошей априорной оценкой, поз­воляющей судить о высокой точности решения. Выясняется такжевозможность приложений к аналогичным задачам любой размерно­сти, что невозможно в рамках классической схемы Беллмана из-за “проклятия размерности”.

Методы синтеза и определения состояния обьекта

При диагностировании объектов обычно рассматриваются и учитываются только два характерных состояния:

– объект функционирует;

– объект не функционирует.

Однако с учетом комплектующих объекта (блоков, агрегатов, деталей) фак­тическое число состояний может быть существенно больше, например:

– первый блок объекта функционирует;

– второй блок объекта не функционирует;

– третий блок объекта функционирует и т. д.

В этой связи задача определения числа состояний объекта по существу сво­дится к задаче определения числа таких блоков или агрегатов, отказ которых при­водит к отказу всего объекта в целом.

В общем случае, когда объект состоит из N комплектующих, возможное число состояний может быть определено по формуле

S = 2 n.

Число состояний, когда объект не функционирует (объект отказал), равно

S 0 = S – 1.

Например, пусть рассматриваемый объект состоит из двух последовательно соединенных комплектующих (агрегатов).

1

2

Рис. 10. Схема объекта из двух агрегатов

Тогда можно выделить четыре возможные состояния объекта:

– отказал первый агрегат;

– отказал второй агрегат;

– отказали первый и второй агрегаты;

– объект функционирует (не отказали ни первый, ни второй агрегаты).

Из общего числа состояний S число неработоспособных состояний SN может быть определено по формуле

SN = 2 N – 1.

Очевидно, что при последовательном соединении элементов в рассматри­ваемом примере состояния 1,2,3 свидетельствуют о неработоспособности всей системы. Число состояний, соответствующих отказу всего объекта, 4 – 1= 3.

При контроле реальных технических систем, состоящих из большого числа элементов, даже при учете для каждого элемента только двух состояний общее количество возможных состояний оказывается чрезвычайно большим. Например, у объекта, состоящего из 200 деталей, общее число возможных состояний S = 2200 , а число состояний неправильного функционирования SN = 2200 -1

Для уменьшения числа учитываемых состояний объекта принимают следующие допущения:

– Вероятность одновременного возникновения в системе отказов двух и более элементов пренебрежимо мала по сравнению с вероятностью отказа только одного элемента. Фактически это означает, что число неработоспособных состоя­ний системы может быть определена по формуле

S n = N,

Где N – количество элементов в системе (в объекте контроля).

– Можно исключить из рассмотрения отказы тех элементов, вероятность отказа которых мала, или их отказы не имеют опасных последствий. В этой связи число возможных состояний, практически приводящих к отказу всего объекта, равна

S n < N.

Перечисленные допущения позволяют существенно (на несколько поряд­ков) снизить размерность числа рассматриваемых состояний у контролируемых объектов.

Последовательность выбора контролируемых состояний и их признаков рассмотрим на примере упрощенной схемы системы, которая представлена на рис.11.

Cледует, что рассматриваемая система состоит из девяти эле­ментов. При этом общее количество ее возможных неработоспособных состояний S n =29 -1 = 511.

4.2. Определение контролируемых параметров

Если допустить, что одновременно может отказать только один блок, то число неработоспособных состояний составит SN = N =9. Отбросив маловероятные отказы (блоки 6, 7, 8, 9), получим, что наиболее вероятное количество неработо­способных состояний системы SN равно всего лишь 5. Такими состояниями яв­ляются:

– – отказ блока №1;

– – отказ блока №2;

– – отказ блока №3;

– – отказ блока №4;

– – отказ блока №5.

В качестве признаков перечисленных состояний будем использовать откло­нение от установленной нормы значений тех или иных параметров. В рассматри­ваемом примере такими признаками могут быть: 1 – повышение уровня шума, 2 – повышение давления, 3 – повышение температуры, 4 – величина напряжения, 5 – величина силы тока, 6 – величина сопротивления обмоток, 7 – величина сопро­тивления контакта, 8 – величина сопротивления изоляции.

В общем случае между состояниями S j и их признаками X j могут встречать­ся виды взаимосвязи, представленные на рис.12.

– между признаком X и состоянием S i имеется взаимосвязь

(иначе – признак Xi реагирует на состояние S)

– несколько признаков Xj…Х+” реагируют на одно

Состояние S;

Один признак Xi реагирует на несколько состояний

( S i..- S i + n

Xi si – признак Xi и состояние Si не связаны друг с другом (иначе – ——- признак Xi не реагирует на состояние S )

Минимизация набора контролируемых параметров

– Для определения минимального и достаточного количества признаков вна­чале из всех предварительно отобранных необходимо исключить явно нерацио­нальные (табл. 2) (например, с точки зрения сложности их выявления и контро­ля или которые дублируют другие признаки и т. д.). Затем из оставшихся призна­ков в минимально необходимую и достаточную группу отбирают такие, которые несут максимум информации при каждой очередной проверке. Процесс отбора в минимально необходимую и достаточную группу прекращают, как только ото­бранные признаки в сумме окажутся способными нести информацию обо всех со­стояниях контролируемого объекта. Описанный подход к определению мини­мального количества контролируемых параметров (признаков состояния) нашел наибольшее распространение, именно поэтому ниже он рассматривается деталь­но.

– Таблица 2

Параметры

Состояния

Информативность

Si

S2

S3

S4

S5

1Х.

Zx i

Xi

2

1

0

0

0

0

0,72

4

X2

4

0

1

0

0

0

0,72

4

X

5

0

0

0

0

072

4

X4

8

1

1

0

1

1

0,72

4

X

1

1

1

1

0

0

X,

7

0

1

0

1

1

0,97

6

X7

6

0

1

0

1

1

097

6

X,

1

0

0

0

1

0

0,72

4

– Для наглядности решать задачу определения минимального количества при­знаков будем поэтапно, иллюстрируя практическим примером.

– На первом этапе анализируются данные предварительно составленной таблицы взаимосвязей состояний и признаков (см. табл. 4.1 лекция 5), а также информативности признаков. При этом зачеркиваются строки, соответствующие следующим признакам (см. табл. 2):

– признакам, которые не реагируют ни на одно из состояний, (то есть призна­кам, содержащим в строке одни нули). В таблице таких признаков нет;

– признакам, которые реагируют на все состояния, (то есть признакам, содер­жащим в строке одни единицы). В таблице таким признаком является х5 (повышение температуры);

– признакам, которые дублируют другой признак, (то есть имеют одинаковое расположение единиц и нулей). Из двух и более одинаковых по информа­тивности признаков вычеркивают тот (те), которые сложнее контролировать в эксплуатационной практике.

В таблице одинаковыми по информативности являются признаки х2 и х3 , а также признаки х6 и Х7. В первой группе более сложно контролируемым является признак х3 , а во второй – признак х7 . Именно эти два признака и должны быть вы­черкнуты.

Вычеркнутые строки (а соответственно – вычеркнутые признаки) из даль­нейшего рассмотрения исключаются. По результатам первого этапа формируется сокращенная таблица (табл. 4.3).

Таблица 4.3

Параметры

Состояния

Информативность

Si

S2

S3

S4

S5

Ixi

Zx i

Xi

1

0

0

0

0

0,72

4

X2

0

1

0

0

0

0,72

4

X4

1

1

0

1

1

0,72

4

X6

0

1

0

1

1

0,97

6

X8

0

0

0

1

0

0,72

4

На втором этапе путем последовательного условного разбиения сокращен­ной таблицы (матрицы) на ряд более мелких таблиц (подматриц) выполняется от­бор необходимого и достаточного количества признаков. Речь идет о последова­тельном условном разбиении предыдущей таблицы. При каждом разбиении опре­деляется самый информативный признак, включаемый в искомую группу мини­мально необходимых и достаточных признаков.

Условное разбиение исходной матрицы на подматрицы осуществляется в следующей последовательности:

– В исходной матрице устанавливается и фиксируется наиболее информа­тивный признак (в нашем примере это x 6 ) (см. таблицу 4.3).

– Рассматривая строку наиболее информативного и зафиксированного при­знака, выявляют состояния, на которые данный признак реагирует (в нашем при­мере это S 2 , S 4 и S5), а также на какие не реагирует (в нашем примере это S 1 и S3 ) (см. таблицу 4.3).

– Состояния, на которые наиболее информативный признак реагирует (в нашем примере это S 2 , S 4 и S5), образуют столбцы правой подматрицы (табл. 4.4). Строки правой подматрицы образуют те признаки, которые реагируют хотя бы на одно из указанных в столбце состояний (в нашем примере это x 2 , x 4 и x8 ). Эле­ментами правой подматрицы являются единицы или нули, переписываемые из

Исходной матрицы (см. табл. 4.3) и стоящие в ней на пересечении соответствую­щих строк и столбцов.

Таблица 4.4

Параметры

Состояния

Информативность

S,

S4

S5

Zx i

X,

1

0

0

2

X4

1

1

1

0

X”

0

1

0

2

– Состояния, на которые выделенный ранее параметр не реагирует (в на­шем примере это S i и S 3), образуют столбцы левой подматрицы (табл. 4.5). Строки левой подматрицы образуют те параметры, которые реагируют хотя бы на одно из указанных в столбцах состояния (в нашем примере это X 1 и X 4 ). Элементами ле­вой подматрицы являются единицы или нули, переписываемые из соответствую­щих мест исходной матрицы (см. табл. 4.3).

– Для каждого параметра в левой и правой подматрицах рассчитываются показатели информативности параметров (отдельно для каждой подматрицы):

Где l – количество... подматриц, в которые включен рассматриваемый признак xi ; mi – количество единиц в каждой i-й подматрице по рассматриваемому признаку xi ; ni – количество нулей в каждой i-й подматрице по рассматриваемому признаку

Параметры

Состояния

Информативность

Si

S3

Zx i

1

0

1

X4

1

0

1

Рассчитанные значения Ixi и Zxt по каждому признаку вписываются в соот­ветствующие строки и столбцы подматриц, так как это показано в таблицах 4.4 и 4.5.

– Условно считая каждую ранее полученную подматрицу за исходную мат­рицу, повторяются (для каждой подматрицы отдельно) все действия по пунктам 1…5. Итеративное (повторяющееся) дробление на подматрицы повторяется до тех пор, пока реагирование или не реагирование того или иного признака однозначно не укажет на строго определенное состояние контролируемого объекта. Пример такого “ветвящегося” от исходной матрицы процесса дробления представлен на рисунке 14.

– Решение задачи прекращается, как только путем выделения и фиксирова­ния наиболее информативных признаков будут однозначно указаны все состояния контролируемого объекта.

Третий этап является завершающим. На этом этапе анализируются и оформляются результаты выполнения первых двух этапов. Оформление результатов аключается в заполнении итоговой таблицы. Все состояния контролируемого объекта образуют столбцы (в нашем примере это Si, S 2 , S 3 , S 4 , S5 ). Все наиболее информативные признаки, выявленные на втором этапе, образуют строки итого­вой таблицы (табл. 4.6) (в нашем примере это х1г х2 , х6 , х8 ). Элементами итоговой таблицы, проставляемыми на пересечении столбцов и строк, являются символы “+” или “-“. Эти символы могут быть легко проставлены, если воспользоваться рис.14.

Параметры

Состояния

Si

S2

S3

S4

S5

Xi

+

X2

+

Хб

+

+

Х8

+

+

Si

S2

S3

S4

S5

Xi

1

0

0

0

0

X2

0

1

0

0

0

X4

1

1

0

1

1

Хб

0

1

0

1

1

X8

0

0

0

1

0

S2

S4

S5

X2

1

0

0

X4

1

1

1

Х8

0

1

0

S1

S3

Xi

1

0

X4

1

0

+

S4

S3

Si

Х 2

S2 1

S5 0

X4

1

1

+

S2

Примечание: “+” – если при проверке параметра он в норме; “-” – не в норме Рис. Схема выявления состояний

На завершающем этапе оформляют матрицу кодов, которую можно пони­мать и как искомую группу контролируемых параметров и как алгоритм (в мат­ричном виде) поиска места отказа в объекте диагностирования (табл.4.7).

Рассмотренные процедуры формирования достаточного набора контроли­руемых параметров позволяют заключить:

– подход И. М. Синдеева позволяет уменьшить до минимума число контро­лируемых параметров (с 7 до 4);

Параметры

Состояния

Sj

S2

S3

S4

S5

Xj

+

+

+

+

X2

+

+

+

+

Хб

+

+

X8

+

+

+

+

– достаточное число контролируемых параметров оказалось меньше числа состояний объекта, что возможно благодаря комплексному использованию ре­зультатов замера параметров при диагностировании объекта;

– таблица кодов представляет эффективный алгоритм поиска места отказа в системе. Так, при наличии отказа в системе необходимо замерить четыре пара­метра ( Xj, X 2 , X 6 и X8 ). Если параметр X ] окажется не в норме, а три другие пара­метра ( X 2 , X 6 и X 8 ) – в норме, то произошло событие S ] (отказ блока №1). Если по­сле замеров четырех параметров параметры X] и X 8 окажутся в норме, а парамет­ры X 2 и X 6 – не в норме, то произошло событие S 2 – отказ блока №2 и т. д.

Необходимо отметить, что в соответствии с ГОСТ алгоритмы поиска места отказа обычно оформляют в виде графической схемы.

Г – проверяемый параметр “годен” (соответствует требованиям документации); НГ – проверяемый параметр “не годен”; Xj – i-ый проверяемый параметр; Sj – отказ j-ой сборочной единицы (агрегата).

– подход И. М. Синдеева позволяет уменьшить до минимума число контро­лируемых параметров (с 7 до 4);

Параметры

Состояния

Sj

S2

S3

S4

S5

Xj

+

+

+

+

X2

+

+

+

+

Хб

+

+

X8

+

+

+

+

– достаточное число контролируемых параметров оказалось меньше числа состояний объекта, что возможно благодаря комплексному использованию ре­зультатов замера параметров при диагностировании объекта;

– таблица кодов представляет эффективный алгоритм поиска места отказа в системе. Так, при наличии отказа в системе необходимо замерить четыре пара­метра ( Xj, X 2 , X 6 и X8 ). Если параметр X ] окажется не в норме, а три другие пара­метра ( X 2 , X 6 и X 8 ) – в норме, то произошло событие S ] (отказ блока №1). Если по­сле замеров четырех параметров параметры X] и X 8 окажутся в норме, а парамет­ры X 2 и X 6 – не в норме, то произошло событие S 2 – отказ блока №2 и т. д.

Необходимо отметить, что в соответствии с ГОСТ алгоритмы поиска места отказа обычно оформляют в виде графической схемы.

S3

Отказ системы

НГ S4

Рис. Схема алгоритма поиска места отказа:

Г – проверяемый параметр “годен” (соответствует требованиям документации); НГ – проверяемый параметр “не годен”; Xj – i-ый проверяемый параметр; Sj – отказ j-ой сборочной единицы (агрегата).

Программы поиска места отказа Если контроль работоспособности объекта дает отрицательный результат, то возникает задача определения места отказа с заданной подробностью (точно­стью) до съемного блока, съемной платы в блоке, отдельного элемента в схеме. Как правило, процесс поиска места отказа имеет большую длительность и трудо­емкость, требует специальных средств диагностирования. Они зависят от того, насколько хорошо построен сам этот процесс, каким выбран алгоритм диагности­рования.

Алгоритмом диагностирования называется совокупность предписаний о порядке проведения диагностирования (ГОСТ 20911-75). Он задает совокупность элементарных проверок, их последовательность, правила их реализации и правила обработки результатов контроля.

Программы поиска места отказа

1. Общие понятия и классификация программ

Если при эксплуатации оборудования сетей железных дорог или при про­верке их работоспособности установлен факт неработоспособности, то чаще всего возникает необходимость в поиске места отказа и выявлении последствий отказа. Опыт эксплуатации свидетельствует, что из перечисленных мероприятий наибо­лее трудоемким и интеллектоемким является поиск места отказа. Так, на поиск места отказа в среднем затрачивается до 90 % времени, связанного с проведением всего комплекса мероприятий по отказу. В этой связи особое значение приобрета­ет формирование у специалистов системы знаний и навыков по научно обоснованным методам программирования процес­сов поиска мест отказов.

Под программой поиска места отказа понимают заранее составленную и документально оформленную последовательность элементарных проверок (заме­ров контролируемых параметров) и последовательность анализа результатов эле­ментарных проверок, выполняемых с целью установления причины отказа и отка­завших агрегатов (узлов, систем, элементов и т. д. – в зависимости от степени де­тальности поиска мест отказа).

Из всех возможных вариантов программ всегда имеется такой, который яв­ляется оптимальным с точки зрения используемого критерия. В качестве критерия оптимальности программы поиска места отказа могут быть использованы:

– суммарное время выполнения необходимых проверок;

– суммарное количество необходимых проверок;

– суммарная стоимость проверок (например, в денежном выражении);

– суммарная стоимость (или суммарная масса) контрольно-поверочной аппаратуры, задействованной для выполнения необходимых проверок.

Необходимо отметить, что в практике специалистов АТС и ЭНС наиболь­шее распространение получил такой критерий оптимальности программ поиска места отказа, как суммарное время выполнения необходимых проверок t^. В соот­ветствии с этим критерием программа строится таким образом, чтобы обеспечить

Минимальное суммарное время на выявление места отказа, то есть

K

T z = min(^ ti ^

I =1

Где ti – время выполнения i-ой элементарной проверки; K – максимальное число элементарных проверок для выявления места отказа в объекте.

Понятно, что при наличии нескольких вариантов программ поиска места отказа выбирается тот, который обеспечивает меньшую величину критерию t^. Если же и таких вариантов несколько, то предпочтение отдается такой программе, которая обеспечивает лучшие значения другим критериям (например, суммарно­му количеству необходимых элементарных проверок).

В связи с разнообразием видов оборудования железных дорог, располагае­мых контрольно-проверочных средств, а также эксплуатационных условий, в практике АТС и ЭНС применяются несколько разновидностей программ поиска места отказа.

Классификация программ. Один из возможных вариантов классификации программ поиска места отказа представлен на рисунке 16. В соответствии с ри­сунком все типы программ по способу выбора контролируемых параметров и по­следовательности элементарных проверок условно разграничиваются на две группы: жесткие программы и гибкие программы.

В жестких программах последовательность элементарных проверок опре­деляется заранее, и в ходе поиска места отказа не изменяется. Кроме того, заранее должен быть определен и перечень параметров, контролируемых в каждой эле­ментарной проверке.

Жесткие программы получили наибольшее распространение в автоматиче­ских и в автоматизированных системах контроля.

В гибких программах последовательность элементарных проверок опреде­ляется в ходе поиска места отказа на основе определенных правил. Кроме того, перечень параметров, контролируемых в каждой элементарной проверке, форми­руется только после анализа результатов предыдущей элементарной проверки. Таким образом, программа (алгоритм) формируется “гибко”, максимально при­спосабливаясь к специфике каждого конкретного отказа АТ.

Гибкие программы наибольшее распространение получили при поиске мес­та отказа способом технического осмотра (т. е. визуально-инструментально, груп­пой специалистов АТС и ЭНС).

Все типы программ по частоте анализа результатов элементарных проверок условно разграничивают на две группы: последовательные программы и комби­национные программы.

В последовательных программах анализ результатов проводится после каждой элементарной проверки. В комбинационных программах – только после

Завершения всех элементарных проверок, когда проводится единственный обоб­щающий анализ. Необходимо отметить, что в практике АТС и ЭНС наибольшее распространение получили последовательные программы. Что касается комбина­ционных программ, то они представлены одним типом прикладной программы – “программой на основе метода Синдеева”, рассмотренного ранее, где она исполь­зовалась не как инструмент для поиска места отказа, а как инструмент выбора минимально необходимого набора контролируемых параметров.

Наиболее распространенные программы поиска места отказа условно раз­граничивают на две группы:

C учетом сказанного выше, выполнив подстановку Q j в конечное выраже­ние I j и продифференцировав полученное уравнение по Q j, приравняв дифферен­циальное уравнение нулю и решив его относительно Q j, получим, что максимум информации при j-й элементарной проверке можно получить только тогда, когда Q j (по существу это Q i ) будет равно 0,5.

Аналогичным образом можно получить, что в интересах максимизации ин­формативности элементарных проверок Q 2 = 0.25, Q 3 = 0.125 и т. д.

Представим возможную схему элементарных проверок в соответствии с рассмотренной программой по максимуму информации

Следует, что лишь первая и вторая элементар­ные проверки проведены в строгом соответствии с правилами программы по мак­симуму информации (когда Q 1 = 0,5, а Q 2 = 0,25). Остальные проверки выполне­ны, исходя из единственно возможной в данной системе логики.

На практике программы поиска места отказа часто изображают графически (в виде ветвящегося “дерева”). Применительно к только что рассматриваемому примеру представлена такая графическая форма программы

Существенным достоинством программы по максимуму информации явля­ется ее оптимальность с точки зрения времени поиска места отказа и минималь­ности потребного количества элементарных проверок.

В то же время такая программа требует наличия количественных исходных данных (численных значений вероятности отказа каждого элемента), что не все­гда можно обеспечить при реальной эксплуатации АТ.

Гибко-последовательные (к ним относят: “программу по максимуму ин­формации” и “программу половинного разбиения”);

Жестко-последовательные (к ним относят: “программу по функциональ­ной схеме” и “программу время-вероятность”).

2. Жестко-последовательные программы

2.1. Программы по функциональной схеме Программа по функциональной схеме основана на поиске места отказа пу­тем выполнения в “жестком” порядке (строго по функциональной схеме отказав­шей системы, например, в порядке передачи от элемента к элементу механиче­ской нагрузки или в направлении движения жидкости) последовательных элемен­тарных проверок. Результаты каждой элементарной проверки сразу же анализи­руются.

Элементарной проверке подлежит диагностический параметр (параметры) каждого отдельного элемента системы. Поиск места отказа прекращается, как только при анализе результатов очередной элементарной проверки окажется най­денным отказавший элемент системы. Очевидно, что в самом неблагоприятном случае (когда отказал последний из проверяемых элемент системы) число элемен­тарных проверок будет максимальным и равным числу элементов в системе. Достоинствами рассмотренной программы являются:

– возможность использования для новой техники, когда не накоплен опыт ее эксплуатации, и тем более – когда не накоплены статистические данные по поиску мест ее отказов;

– простота, доступность для широкого круга специалистов АТС и ЭНС.

– К недостаткам программы следует отнести:

– необходимость выполнения большого количества элементарных проверок, что требует больших затрат времени и материальных ресурсов;

– необходимость использования при поиске мест отказов помимо специали­стов и КПА еще и эксплуатационной документации (технического описания, инструкции по технической эксплуатации, альбома формулярных схем и т. д.).

Несмотря на отмеченные недостатки, “программа по функциональной схе­ме” нашла у специалистов ЭНС и АТС, пожалуй, самое широкое распространение прежде всего из-за своей простоты, доступности широкому кругу специалистов(независимо от их опыта эксплуатации, в определенной степени, – от их квалифи­кации).

2.2. Программы “вероятность-время”

Программа “вероятность – время” может быть использована лишь тогда, ко­гда по отказам данного типа обрудования уже накоплен и систематизирован дос­таточно большой опыт ее эксплуатации, и, в частности, опыт поиска места отказа. Прежде всего, по каждому элементу системы должны быть известны:

– вероятность отказа i-го элемента qi;

– время, необходимое для элементарной проверки i-го элемента Ti.

Программа время-вероятность основана на поиске места отказа путем вы­полнения в “жестком” порядке (строго в порядке убывания численных значений отношения qi/ii) последовательных элементарных проверок элементов. Элемен­тарной проверке подлежит диагностический параметр (параметры) каждого от­дельного элемента системы. Результаты каждой элементарной проверки сразу же анализируются. Поиск места отказа прекращается, как только при анализе резуль­татов очередной элементарной проверки окажется найденным отказавший эле­мент системы.

Очевидно, что такая программа позволяет в первую очередь проверять те элементы отказавшей системы, вероятность отказа которых наибольшая, а время на элементарную проверку – наименьшее. В результате этого общее время на вы­явление места отказа системы оказывается существенно меньше, чем при исполь­зовании ранее рассмотренной программы по функциональной схеме.

Покажем это на примере системы, изображенной на рис.17, и содержащей N последовательно соединенных элементов. Один из элементов отказал, что приве­ло к отказу всей системы.

1

2

I

Рис. 17. Схема системы из последовательно соединенных элементов

Пусть по каждому i-му элементу системы известны численные значения ве­роятности его отказа qi и времени на его элементарную проверку Ti. Для начала назначим произвольную программу поиска места отказа, (то есть произвольный порядок выполнения элементарных проверок), например, в соответствии с нуме­рацией элементов на рисунке.

В этом случае математическое ожидание времени поиска места отказа со­ставит

M ( t z )i = q \ Т 1 + q2 ■ ( т + т 2) +… + qN ■ ( т + т +… + т ) . (51)

Теперь назначим второй вариант программы поиска места отказа, отли­чающийся от первого варианта тем, что вначале проверяется второй элемент, за­тем первый, а последующие элементарные проверки выполняются в такой же по­следовательности, как и в первом варианте (в порядке нумерации).

Для второго варианта программы математическое ожидание времени поис­ка места отказа составит

M ( t Z ) II = 42 т 2 + 4i ■ (т 2 + т 0 + — + 4м ■ (т 2 + т 1 + — + T N )- (5 -2 )

Если вычесть из M ( t ^) I величину M ( t ^)n, то после выполнения арифметиче­ских действий получим

M (tz )i – M (tz )ii = 42 – Т -4i – тг.

Из анализа полученной разности следует, что первый вариант программы будет эффективнее (исходя из затрат времени на поиск места отказа) второго ва­рианта лишь в том случае, когда

Q 2 – т1 – 41 – т2 < 0, то есть 42 – т1 > 41 – т2 , или иначе – > – – (54)

Таким образом, упорядочив элементарные проверки элементов в соответст­вии с выражением мы получим оптимальную программу поиска места отказа, обеспечивающую ми­нимальную величину математического ожидания времени поиска места отказа^ Правило (5^5) положено в основу программ ” время-вероятность “-

После расчета (для всех элементов) отношений 4 i /ri устанавливают порядок проверки элементов – Этот порядок соответствует порядку ранжирования отноше­ния 4 i /ri (в порядке убывания) Программа этого типа выглядит как последова­тельность порядковых номеров элементов объекта в порядке их проверки –

Рассмотрим пример практического составления и использования програм­мы “время-вероятность” Пусть требуется составить программу поиска места от­каза в системе, состоящей из пяти элементов (рисЛ8) То есть требуется указать оптимальный порядок проведения элементарных проверок элементов –

1

2

3

4

5

Рис.8 Пример пятиэлементной системы

Таблица 1

Наименование исходного данного или рассчитываемой величины

Числовые значения

Порядковый номер элемента в соответ­ствии с рисунком

1

2

3

4

5

Число применений системы

23

23

23

23

23

Число отказов элемента системы ni

2

4

7

1

9

Среднее время выполнения элементар­ной проверки элемента Ti, мин

15

5

8

50

6

Вероятность отказа элемента 4 i = ni / N

0,09

0,17

0,3

0,05

0,39

Величина 4 i /T i

0,006

0,034

0,038

0,001

0,065

Оптимальная очередность выполнения элементарных проверок

4

3

2

5

1

Из опыта эксплуатации известно, что за 23 случая применения данной сис­темы происходили отказы элементов, указанные в таблице 1

Решение задачи начинается с расчета для каждого элемента величины qi (она определяется как отношение числа отказов элемента n к числу применения системы). Затем для каждого элемента рассчитывается величина qi / z i.

По численным значениям qi / zi проводим новую нумерацию элементов системы (в порядке убывания значений qi / Ti ). Эта новая нумерация указана в последней строке таблицы, и она определяет искомый порядок выполнения элементарных проверок элементов в рассматриваемой системе.

Достоинствами программы “время-вероятность” являются:

– высокая вероятность обнаружения места отказа при выполнении первых эле­ментарных проверок, что позволяет существенно уменьшить как время по­иска места отказа, так и затраты материальных средств;

– достаточная простота реализации для исполнителей, когда известны необхо­димые статистические данные.

К недостаткам данной программы следует отнести необходимость владения информацией о статистических данных по отказам и времени их проведения из опыта предыдущей эксплуатации. Данное обстоятельство ограничивает возмож­ность широкого использования данной программы в практике ИАС, особенно при эксплуатации новой АТ.

3. Гибко-последовательные программы

3.1. Программы половинного разбиения

Программа половинного разбиения является упрощенным аналогом про­граммы по максимуму информации. Если принять допущение о равновероятности отказа каждого элемента системы (то есть q 1 = q 2 =…= qi =…= qN ), то максимально информативной первой элементарной проверкой будет проверка N /2 (половины) элементов. Во второй элементарной проверке должно быть проверено N /4 элемен­тов, в третьей – N /8 элементов, в четвертой – N /16 элементов и т. д. Таким образом, при каждой очередной элементарной проверке проверяется половина смежных элементов от того количества, которое проверялось в предыдущей элементарной проверке.

После каждой элементарной проверки проводится анализ полученных ре­зультатов. По результатам такого анализа принимается решение о месте проведе­ния второй и последующих элементарных проверок. Поиск места отказа прекра­щается, как только при анализе результатов очередной элементарной проверки окажется найденным отказавший элемент.

Пример практического применения программы половинного разбиения применительно к четырехэлементной системе из равнонадежных элементов пред­ставлен на рис.19.

На данном рисунке вертикальные линии, обозначающие элементарные про­верки, расставлены над и под схемой. Это необходимо для разграничения элемен­тарных проверок, выполняемых непосредственно после проверок с соответствен­но положительным и отрицательным исходом (элементарной проверкой, давшей положительный исход, условно будем считать такую, если при ней обнаружен от­каз, а отрицательной – если отказ не обнаружен).

Программа половинного разбиения при сохранении достоинств программы “по максимуму информации” имеет еще одно существенное достоинство – для ее реализации не требуются количественные исходные данные (численные значения вероятности отказа каждого элемента q ). Это обусловило возможность самого широкого практического применения данного вида программ при поиске неис­правностей.

Фактором, ограничивающим область применения программы половинного разбиения, является то, что она применима далеко не ко всем техническим систе­мам. Такую программу (равно как и программу по максимуму информации) мож­но применить лишь для систем с последовательным соединением элементов.

В заключение необходимо отметить, что все рассмотренные программы по­иска места отказа обеспечивают проведение системного упорядоченного поиска места отказа. Это позволяет на один-два порядка сократить общее время поиска по сравнению с бессистемными, неупорядоченными методами (методами “тыка”).

3.2. Программы по максимуму информации

Программа по максимуму информации может быть использована лишь то­гда, когда по отказам оборудования АТС и ЭНС данного типа уже накоплен и сис­тематизирован определенный опыт ее эксплуатации, в частности, когда для каж­дого элемента системы известны величина вероятности его отказа qi.

Программа по максимуму информации основана на поиске места отказа пу­тем выполнения в “гибком” порядке последовательных элементарных проверок групп элементов. В ряде случаев в группе может быть и один элемент. В первой элементарной проверке проверяется такая группа смежных элементов, сумма ве­роятностей отказов которых равна примерно 0.5, 0.25 – для второй, 0.125 – для третьей, 0.0625 – для четвертой и т. д.

Гибкость программы заключается в том, что решение о месте проведения второй и последующих элементарных проверок не известно заранее, а принимает­ся с использованием правила: “в проверяемой группе должен быть отказавший элемент “.

Поиск места отказа прекращается, как только при анализе результатов оче­редной элементарной проверки окажется найденным отказавший элемент. Такая программа позволяет выполнять максимально информативные элементарные про­верки, в результате существенно уменьшается как число элементарных проверок, так и общее время поиска места отказа.

– фиксация отказа j-го элемента;

– вывод о положительном результате элементарной проверки;

– вывод об отрицательном результате элементарной проверки.


Зараз ви читаєте: Дискретная задача оптимального управления