Текст
                    Ф.БАЙХЕЛЬТ
П. ФРАНКЕН
НАДЕЖНОСТЬ
И ТЕХНИЧЕСКОЕ
ОБСЛУЖИВАНИЕ
МАТЕМАТИЧЕСКИЙ
ПОДХОД

НАДЕЖНОСТЬ И ТЕХНИЧЕСКОЕ ОБСЛУЖИВАНИЕ МАТЕМАТИЧЕСКИЙ ПОДХОД
ZUVERLASSIGKEIT UND INSTANDHALTUNG MATHEMATISCHE METHODEN Prof. Dr. sc. techn. Dr. rer. nat. Frank BEICHELT Prof. Dr. rer. nat. habil. Peter FRANKEN t VEB VERLAG TECHNIK BERLIN
, Ф.БАЙХЕЛЬТ П. ФРАНКЕН НАДЕЖНОСТЬ И ТЕХНИЧЕСКОЕ ОБСЛУЖИВАНИЕ МАТЕМАТИЧЕСКИЙ ПОДХОД Перевод с немецкого М. Г. Коновалова Под редакцией И. А.Ушакова МОСКВА «РАДИО И СВЯЗЬ» 1988
УДК 62-192:52(031) Байхельт Ф., Франкен П. Надежность и техническое обслуживание. Мате- матический подход: Пер. с нем. — М.: Радио и связь, 1988. — 392 с.: ил.— ISBN 5-256-00053-5. В книге известных специалистов из ГДР достаточно полно представлено большинство разделов современной теории надежности: анализ и статистиче- ское оценивание распределений наработки, используемых в теории и практике, надежность монотонных и сетевых структур, теория случайных помеченных то- чечных процессов и ее приложения к расчету показателей надежности восста- навливаемых систем, математические модели постепенных отказов. Одно из центральных мест занимают главы, посвященные оптимизации технического обслуживания. Столь подробное изложение этой темы дается впервые. Удачно сочетаются математическая строгость и хорошая наглядность, которая дости- гается многочисленными содержательными примерами. Для научных работников, инженеров, желающих овладеть математическими методами изучения надежности, математиков, которые ищут полезные области применения теории, студентов и аспирантов, которые могут использовать ее в качестве учебника по теории надежности. Табл. 25. Ил. 98. Библиогр. 434 назв. Редакция переводной литературы Б 2107000000-137 046(01)-88 50-88 ISBN 5-256-00053-5 © 1983, VEB Verlag Technik, Berlin. © Перевод на русский язык, предисловие к русскому изданию, примечания редактора, список литературы, добавленный редактором перевода. Издательство «Радио и связь», 1988.
ПРЕДИСЛОВИЕ к РУССКОМУ ИЗДАНИЮ Предлагаемая читателю книга Ф. Байхельта и П. Франкена «Надежность и техническое обслуживание» является весьма за- метной в достаточно обширном списке книг по надежности. Важ- ность этой проблемы — ключевой для современного научно-тех- нического прогресса — не оставляет ни у кого сомнений: обеспече- ние высокой надежности вновь создаваемой техники самого раз- личного назначения, постоянное повышение эксплуатационной надежности уже существующих изделий являются естественными и едва ли не единственными гарантами успешного решения зада- чи ускорения технико-экономического развития стран социалисти- ческого содружества. Надежность и качество — это не лозунги, а насущная потребность сегодняшнего дня. Именно этим и вызван интерес к многочисленным публикаци- ям по различным вопросам надежности. Признаемся, что среди них далеко не все равноценны, и, несмотря на обилие постоянно издаваемых книг по этой тематике, лишь немногие можно реко- мендовать специалистам по надежности в качестве руководства к действию, а заинтересованным лицам для ознакомления и «по- гружения» в проблему. Долгое время настольными книгами, из которых можно было черпать разработанные методы решения различных практических задач надежности, а также находить но- вые конструктивные идеи для самостоятельного творчества, были книги Б. В. Гнеденко, Ю. К. Беляева и А. Д. Соловьева [156] и Р. Барлоу и Ф. Прошана [28]. Конечно, нельзя сбрасывать со сче- тов и другие удачные монографии, например [Р1, Р5, Р7—РЮ], однако справедливости ради следует отметить, что они являются «вторым эшелоном». Видимо, определенную роль сыграли и спра- вочники по надежности [РЗ, Р4, Р6], о чем, в частности, говорит их перевод в ГДР, ЧССР, США и ФРГ. В последние годы появились обновленные версии [Р2, 31] книг [156, 28]. Они быстро завоевали признание читателей и до обидного быстро стали библиографической редкостью. Хочется надеяться, что предлагаемая книга Ф. Байхельта и П. Франкена хоть на некоторое время утолит «голод» на хорошие книги по на- дежности. Чем же отличается данная книга от вышедших ранее? Каковы ее достоинства? На кого она рассчитана? Именно обоснованный 5
ответ на эти вопросы потребовал того небольшого вступления, ко- торое было сделано выше. Прежде всего, эта книга охватывает очень широкий спектр вопросов теории надежности: детальный аналитический обзор основных распределений вероятностей, ис- пользуемых в современной теории и практике надежности; доста- точно полное представление статистических задач надежности; методов теории восстановления и задач профилактического (ре- гламентного) обслуживания, интересных математических моделей постепенных отказов, очень глубокое и всестороннее исследование систем с монотонной и сетевой структурами; обсуждение новых результатов исследования восстанавливаемых систем. Такого ох- вата вопросов надежности, пожалуй, нельзя найти ни в одной из- вестной монографии, если не считать справочника [Р6], в автор- ский коллектив которого, кстати, входят и авторы этой книги. Можно отметить, что в данной книге не освещены лишь вопросы оптимального резервирования и оптимального поиска неисправно- стей и отказов. Книга написана профессиональными математиками, что, безу- словно, наложило отпечаток на стиль и форму изложения. Чтение такой книги — труд, а не «легкая прогулка». Усвоение отдельных разделов (об этом пишут и сами авторы) требует некоторых спе- циальных знаний по высшей математике. Однако в целом матери- ал изложен доступно, выводы даны обстоятельно, почти всюду приведены постановки задач и полученные результаты. Несколько слов о контингенте будущих читателей книги. В первую очередь, книга должна заинтересовать математиков- прикладников, занимающихся задачами надежности, а также ин- женеров-практиков, которым по роду работы приходится сталки* ваться с расчетами и экспериментальными оценками различных показателей надежности, а также заниматься вопросами органи- зации рационального технического обслуживания сложных си- стем. Безусловно, эта книга найдет широкий спрос и среди препо- давателей технических вузов и университетов, читающих специ- альные курсы непосредственно по надежности либо по приклад- ным математическим дисциплинам. Хотелось бы заметить, что сегодня советский инженер — это специалист, хорошо владеющий современными математическими методами, поэтому подобная прикладная математическая книга найдет читателей и вне круга «чистых» специалистов по надежности. Хочется надеяться, что книга Ф. Байхельта и П. Франкена сы- грает свою положительную роль в решении важной проблемы обеспечения надежности современной техники. И. Ушаков
ПРЕДИСЛОВИЕ Достоинства технических устройств и изделий решающим об- разом определяются надежностью и возможностью поддерживать их в исправном состоянии. Возрастающая степень автоматизации производства придает этим критериям все большую значимость, что и объясняет рост числа работ по надежности и техническому обслуживанию. Математическая теория надежности сильно раз- вилась в предшествующие два десятилетия и продолжает быстро прогрессировать. Так, с 1977 г. только на немецком языке опуб- ликованы книги [140, 173, 31, 195, 287, 189]. В них вопросы техни- ческого обслуживания трактуются как часть теории надежности. Предлагаемая книга значительно отличается от перечислен- ных. Это относится, прежде всего, к материалам, которые в лите- ратуре на немецком языке до сих пор не рассматривались или были представлены не столь детально. Таковыми являются: во- просы технического обслуживания, изучение постепенных отказов, анализ надежности сетевых структур, применение теории поме- ченных точечных процессов к теории надежности (общая теория восстановления). Следует отметить и критерии важности в тео- рии монотонных систем, а также статистическое оценивание на- работки и времени восстановления. Чтение книги требует знания основ математики, особенно тео- рии вероятностей, в объеме, который предлагается студентам тех- нических и экономических специальностей. Однако для понима- ния гл. 10 и 11, необходимо владеть элементами теории стохасти- ческих процессов. Таким образом, книга предназначена преиму- щественно для инженеров, экономистов и экспериментаторов, но ее с пользой прочтут также математики и специалисты по теории надежности. Оба автора разделяют ответственность за содержание всей книги. Тем не менее, их усилия при написании отдельных глав разделились. Главы 1, 2, а также 5—9 подготовил Ф. Байхельт, а гл. 3, 4, 10 и 11 — П. Франкен. Над рядом разделов совместно с авторами работали Б.-М. Кирштайн (разд. 3.1, 3.2, гл. 4, разд. 8.5, 8.6, 11.3), Б. Герлах (разд. 3.3) и А. Штреллер (разд. 8.7, а также гл. 10 и 11). Помощь коллег дала возможность привести книгу к настоящему виду. Хочется выразить им сердечную благодар- ность. Выражаем благодарность также рецензенту д-ру К. Райншке за его компетентные советы. Мы благодарим Ю. Рейхенбаха за большой труд по редактированию книги. Авторы 7
ОБЩИЙ СПИСОК ОБОЗНАЧЕНИЙ Р(Е) вероятность наступления случайного события Е X случайная величина (чаще всего наработка) F(t) P(X^t); функция распределения X (чаще всего вероят- ___ ность отказа) F(t) 1—F(t) (чаще всего вероятность безотказной работы); это обозначение переносится на произвольные функции распределения Fx(t) функция распределения остаточной наработки системы, которая проработала время х Е(Х) математическое ожидание D2(X) дисперсия X(t) интенсивность отказов A(t) накопленная интенсивность отказов, функция ресурса L длина цикла т интервал восстановления R(t) интенсивность затрат (математическое ожидание за- трат в единицу времени, средние затраты в единицу времени) при использовании интервала восстановле- ния т К (стационарный) коэффициент готовности K(t) нестационарный коэффициент готовности Кх (стационарный) коэффициент оперативной готовности для интервала безотказной работы х Kx(t) нестационарный коэффициент оперативной готовности для интервала безотказной работы х К(т) коэффициент готовности при использовании интервала восстановления т (Fi*F2) (t) свертка двух функций распределения Fi и F2 F*k(t) k-кратная свертка F (fi*f2) (t) свертка двух произвольных функций fi и f2 (не являю- щихся функциями распределения) f(s) преобразование Лапласа функции f(t) f*(s) преобразование Лапласа — Стилтьеса функции f(t) Ф (t) стандартное нормальное распределение cp(t) плотность стандартного нормального распределения и8 е-квантиль стандартного нормального распределения % множество всех функций распределения наработки подмножество % ехр(х) ех ср структурная функция h,ps Е (ср); коэффициент готовности системы конец доказательства 8
ГЛАВА 1. ВВЕДЕНИЕ Формальным объектом изучения в теории надежности являют- ся технические изделия, которые мы можем представлять себе как сложные технические системы, устройства, а также их эле- менты— структурно неделимые составные части. Простые систе- мы— это составные части, которые в рамках данного исследова- ния не имеет смысла дальше дифференцировать с точки зрения возникновения, наступления и локализации отказов, а также пла- нирования и проведения мероприятий по техническому обслужи- ванию. Напротив, системы, имеющие структуру, следует рассмат- ривать с точки зрения только что названных критериев как со- ставленные из подсистем. Если структурная детализация системы проведена так глубоко, что подсистемы имеют характер простых систем, то эти подсистемы мы называем элементами. Теория надежности занимается вопросами расчетов, экспери- ментальных оценок, обеспечения и оптимизации надежности тех- нических систем. Под надежностью мы понимаем свойство систе- мы выполнять заданные функции на определенном интервале времени и при этом поддерживать значения установленных про- изводственных характеристик в заданных границах при соответ- ствующих условиях эксплуатации, ремонта, хранения и транспор- тировки. Такое определение надежности слишком общо, чтобы служить рабочей основой для большинства прикладных исследований. По- этому оценка надежности осуществляется в зависимости от систе- мы и ее назначения на основе количественных показателей, кото- рые отражают ту или иную существенную сторону явления. Пере- числим некоторые важные показатели надежности (их точные формулировки, а также другие определения приводятся в соот- ветствующих разделах). 1. Вероятность безотказной работы—вероятность того, что система проработает без отказов на заданном интервале вре- мени. 2. Коэффициент готовности — вероятность того, что система находится в данный момент в работоспособном состоянии. 3. Средняя наработка до отказа системы. 9
4. Средняя наработка между отказами, 5. Средняя интенсивность затрат, необходимых для поддержа- ния работоспособности системы. Приведенные показатели уже позволяют оценить, сколь слож- ны проблемы, рассматриваемые в теории надежности. Чтобы их решить, нужны сведения из самых различных технических и есте- ственно-научных дисциплин, особенно математики. Точные мате- матические определения показателей надежности делают возмож- ным и необходимым применение математических методов, глав- ным образом вероятностных и оптимизационных. Использование этого математического аппарата привело, преимущественно в по- следние три десятилетия, к развитию математической теории на- дежности, которой мы обязаны решением ряда таких основных проблем, как 1) моделирование динамики износа и отказов; 2) оценка показателей надежности; 3) решение задач оптимизации, связанных с поддержанием и восстановлением работоспособности; 4) исследование показателей надежности и их зависимости от структурно-функциональных связей. Будем заниматься каждой из них. Особое внимание уделим 3 и 4. Изучение проблемы, названной в третьем из перечисленных пунктов, привело к выделению важной и отчасти самостоятельной ветви теории надежности — технического обслуживания систем. При этом под техническим обслуживанием мы понимаем совокуп- ность мероприятий, которые служат поддержанию и восстановле- нию рабочих свойств технических систем: текущее обслуживание; контроль работоспособности и диагностика отказов; ремонтно-восстановительные работы. Мероприятия по восстановлению являются главными, прежде всего когда системы сильно подвержены износу. Правда, для электронных систем диагностика ошибок может иметь, по край- ней мере, такое же значение, как и ремонт. Предупредительные (регламентные) работы проводятся в системах, которые еще функционируют. Напротив, действия, необходимые для восста- новления работоспособности после того, как система отказала, относятся к ремонтно-восстановительным работам. Вместо слов «предупредительные» и «восстановительные» работы в этой книге мы обычно говорим о профилактическом и аварийном восстанов- лениях, Мероприятия по ремонту мы называем полным восстанов- лением, если по его окончании система по своим качествам экви- валентна новой. Стратегии технического обслуживания предписы- вают вид, объем и расписание мероприятий по техническому об- служиванию. Системы, которые можно привести в работоспособ- ное состояние, называются восстанавливаемыми, ю
Безотказность и техническое обслуживание восстанавливаемых систем существенно зависят от характера отказов. Мы различаем внезапные и постепенные отказы. Внезапный отказ практически мгновенно переводит систему из работоспособного состояния в со- стояние отказа. О постепенных отказах говорят в тех случаях, ког- да удовлетворительное функционирование системы сохраняется в некоторой допустимой области характерных и зависящих от вре- мени параметров. Наблюдение за вектором параметров, позволя- ет прогнозировать состояния работоспособности и неработоспо- собности системы. Если имеют место исключительно внезапные отказы, то мы различаем только работоспособное и неработоспо- собное состояния, или рабочее состояние и состояние отказа. Вне- запные отказы более типичны для электронных блоков, в то вре- мя как механический износ ведет, вообще говоря, к постепенным отказам. Тем не менее, строгое разграничение между внезапны- ми и постепенными отказами не всегда возможно или осмысленно. После того, как в гл. 2 будут даны основные понятия теории надежности, в гл. 3 мы введем параметрические и непараметри- ческие классы распределений наработки. Для некоторых парамет- рических классов представлены статистические методы (критерии согласия, точечные оценки и доверительные границы). Непара- метрические классы в основном использованы в математической модели физико-технического износа. Разумеется, в трактовке по- нятия износа мы применяем утвердившееся в теории надежности понятие старения. Глава 4 посвящена процессам восстановления и их обобщениям, имеющим значение для теории надежности. В гл. 5 и 6 для систем, которые характеризуются внезапными от- казами, анализируются стратегии восстановления и контроля. Главное внимание уделяется временному планированию меропри- ятий по техническому обслуживанию, оптимальному относительно затрат и коэффициента готовности. Глава 7 содержит стратегии восстановления для систем, подверженных постепенным отказам. В гл. 5—7 (кроме разд. 5.6) рассматриваются только простые си- стемы (элементы), поскольку исчерпывающее теоретическое из- ложение стратегий технического обслуживания для систем, имею- щих сложную структуру, требует специального математического аппарата (управляемых случайных процессов), изложение кото- рого не входит в задачи этой книги. Поэтому возможности приме- нения стратегий технического обслуживания, проанализирован- ных в указанных главах, к системам, имеющим сложную структу- ру, сильно ограничены. В гл. 8 проводится анализ надежности си- стем, имеющих структуру специального вида и называемых моно- тонными. Результаты используются в гл. 9 для анализа сетевых структур, широкое распространение которых на практике делает эту проблему очень актуальной. Если в гл. 8 и 9 речь идет в пер- вую очередь о показателях надежности в фиксированный момент времени, то в двух последующих главах в центре внимания нахо- 11
дится их временная зависимость. В гл. 10 рассматриваются неко- торые классы стохастических процессов, которые оказываются особенно полезными для моделирования динамических систем. Наряду с традиционными в литературе по теории надежности марковскими и полумарковскими процессами обсуждаются поме- ченные точечные процессы и процессы с точечным вложенным процессом. В гл. 11 на базе общей теории излагаются точные ме- тоды вычисления характеристик надежности, а также оценки и приближенные формулы. В приложении собраны некоторые осно- вополагающие определения и факты теории стохастических про- цессов. ГЛАВА 2. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ НАДЕЖНОСТИ СПИСОК ОБОЗНАЧЕНИИ К ГЛАВАМ 2 и 3 et i-й элемент системы р, средняя наработка ц* k-й момент наработки р.к средняя наработка элемента ек системы Xn (Xi....Хп); полная выборка Х(П) (Х<1 ),п,..., Х(П),п); упорядоченная выборка Хг.п (X(i),n, .... Х(г),п); (правосторонняя) усеченная выборка Fn(x) эмпирическая функция распределения f-i <t> _ H">F(t) f F (u) du; о Рн распределение Xn при гипотезе H Sa область в пространстве Rn a PH(XneS); ошибка первого рода ф(Хп) 1, если XneS, и 0 в противном случае Dn статистика Колмогорова — Смирнова Wn статистика Крамера — Мизеса Ап статистика Андерсона — Дарлинга Vn статистика Куипера Un статистика Уотсона Кп статистика Финкельштейна — Шафера Цель этой главы — дагь основные понятия и соотношения тео- рии надежности. Кроме того, привести наиболее важные для тео- рии надежности результаты теории преобразования Лапласа. 12
2.1. ЭЛЕМЕНТЫ Рассмотрим объекты, которые могут находиться в двух состоя- ниях— работоспособном и отказа. При этом наработка элемента однозначно определяется как время от начала работы до отказа. Поскольку причины отказов весьма разнообразны (таковыми, на- пример, могут быть изменения нагрузки, различия в качестве из- делий, влияние внешних условий) и проявляются неоднозначно, наработку элемента можно считать случайной величиной. Ниже вводятся основные характеристики случайной наработки X и да- ется их вероятностная интерпретация. Основополагающим является понятие функции распределения неотрицательной случайной наработки X, которую обозначаем через F(t)=P(X^t), t>0. (2.1) Функция F(t) есть вероятность того, что отказ элемента произой- дет до момента t. По этой причине она называется также вероят- ностью отказа. Чтобы исключить из рассмотрения элементы, кото- рые неисправны уже к моменту начала работы, потребуем, чтобы F(0) =limF(t) =0. Вероятностью безотказной работы F(t) на- зовем вероятность того, что на отрезке [0, t] не наступит отказ элемента: F (t) = 1—F(t) =P(X>t). (2.2) Имея в виду зависимость F(t) от времени, иногда говорят также о функции надежности1 (рис. 2.1). Если функция F(t) дифферен- цируема, то ее первую производную f (t)=F'(t)=dF(t)/dt (2.3) называют плотностью распределения (или плотностью). Плот- ность f(t) обладает такими свойствами, что t оо F(t) = Jf(x)dt; Jf(x)dx=l; f (t) >0. (2.4) о 0 Для каждого t>0 P(t<X^t+At)=f(t)At+o(At) при At—>0. (2.5) Отсюда следует, что для малых At величина f (t)At равна прибли- зительно вероятности отказа элемента на интервале (t, t+At] (рис. 2.2). 1 В отечественной литературе этот термин не рекомендуется использовать.— Прим. ред. 13
Рис. 2.L Качественный график веро- ятности безотказной работы (функ- ции надежности) Рис. 2.2. Пример плотности распреде- ления Важнейшими численными характеристиками наработки X и ее функции распределения F(t) являются средняя наработка (мате- матическое ожидание наработки) Е(Х)= [xdF(x) = Jxf(x)dx о о и дисперсия D2 (X) = Е (X — Е (X))2 = J (х - Е (X))2 dF (х). о Через них выражаются такие характеристики, как отклонение D(X) и коэффициент вариации V(X): D (X) = /Е (X - Е (X))2; V(X)=D(X)/E(X). (2-6) (2-7) стандартное (2-8) (2.9) Величины Е(Х) и D2(X) можно вычислять также по форму- лам Е(Х) = jF(x)dx, D2 (X) = Е (X2) - (Е (X))2, (2.10) о где Е(Х2)—второй момент наработки X. Вообще, k-м моментом случайной величины X называется математическое ожидание ве- личины Хк: Е(Хк) = JxkdF(x) = Jxkf(x)dx, к = 0, 1................. (2.11) о о В частности, средняя наработка Е(Х) является первым моментом величины X. Решение t8 уравнения F(te)=e, 0^е<1, (2.12) 14
называется ъ-квантилем непрерывной функции распределения F(t). Случайные величины Xi, Х2, —,Хп называются (взаимно) не- зависимыми, если для любых Х^, Хь, X и хь, xj2 , х1к где k<n, выполняется равенство Р(Х( <х,, Xj < <«,....X,R<x,t) = Р(X,,<x,,)P(X,. <x,.)... P (X, < x,k). Случайные величины Хь X2, — называются (взаимно) независи- мыми, если каждый конечный набор Х^, Х1а, Xik состо- ит из взаимно независимых случайных величин. В частности, две случайные величины Xi и Х2 независимы между собой, если для всех X] и х2 справедливо равенство P(Xi^xb X2^x2) = P(Xi^ <xi)P(X2=Cx2). Лемма 2.1. (тождество Вальда). Пусть Xi, Х2, ... — независимые одинаково распределенные случайные величины, ц.=Е(Х1) <00. Пусть N — неотрицательная, целочисленная случайная величина, обладающая тем свойством, что для каждого натурального чис- ла п событие {N^n} не зависит от величин Хп-н, Хп+2..... Тогда (N \ 2Х, =|xE(N). i=l / Доказательство леммы, которую мы будем часто использовать, содержится, например, в [120]. Используются еще две операции над функциями распределения наработки. Они имеют важное зна- чение в теории надежности. 1. Пусть Xi и Х2 — взаимно независимые случайные наработки с функциями распределения Fi (t) и F2(t). Функция распределе- ния суммы X=Xj+X2 задается формулой t t F (t) = J Fx (t - x) dFa (x) = J F3 (t - x) dFt (x). (2.13) о 0 Она называется сверткой функций распределения Fi (t) и F2(t) и записывается короче в виде F(t) = (F.* F2)(t). (2.14) Если плотности fi(t) =F'j(t), i=l, 2, существуют, то сумма X так- же имеет плотность, которая задается формулой t f (t) = J fj (t— x) f2 (x) dx 0 = J f2(t — x)fj(x)dx. 0 (2.15) Плотность распределения такого вида называют сверткой плот- ностей распределения f 1 (t) и f2(t). В этом смысле определено и понятие свертки двух функций fi и f2, заданных на интервале [0, оо), даже когда они не являются плотностями распределения. 15
По аналогии с соотношением (2.14) f(t) = (f!*f2)(t). (2.16) С суммами независимых случайных величин часто имеют дело в теории надежности (см. гл. 4). 2. Другой операцией над функциями распределения является смесь. Для того чтобы ввести это понятие, обозначим через G(x) функцию распределения некоторой положительной случайной ве- личины, а через F (t; а), а>,0 — некоторое зависящее от действи- тельного параметра а семейство функций распределения величин Ха. Функция распределения F(t) называется смесью (распреде- лений) (точнее, смесью F (t; а) относительно весовой функции G(x)) , если (2-17) (2.18) переключателя F (t) = 0,45Fi (t) + введенные операции на примере экспонен- величин (см. также разд. 3.1). Случайная F(t) = jF(t; a)dG(a). о Поскольку F(t; а)—это функции распределения наработок, то и F(t)—функция распределения некоторой случайной наработки X. Имеют место соотношения Е (X) = J Е (XJ dG (a), D2 (X) = f D2 (XJ dG (а), о о Смеси распределений с дискретной весовой функцией появляют- ся, например, когда системы производятся различными изготови- телями. Скажем, переключатели одного типа могут изготавливать- ся на трех предприятиях, 1, 2 и 3, причем в пропорциях 45, 25 и 30% от общего объема продукции. Если Fi(t)—функция распре- деления наработки переключателя, изготовленного на предприя- тии i=l, 2, 3, то функция распределения наработки случайно вы- бранного из общей массы ‘ +0,25F2(t)+0,3F3(t). Пример 2.1. Проиллюстрируем циально распределенных случайных величина X называется экспоненциально распределенной с параметром а, если ее функция распределения задана в виде . (1 — е_“‘, t>0, а > 0, F(t, а) = | (0, Согласно формулам (2.10) 00 Е(Х) = Je-atdt= 1/а. О t 0. (2.19) 16
Свертка F(t; а) записывается как 00 (F * F) (t; «) = J (1 — е~“ <1~х)ае_ах) dx = 1 — e~at — <xte~at. О Это частный случай распределения Эрланга (см. разд. 3.1). Пусть далее G(x)=* = 1—e-mx, х>0, m>0. Смесь F(t; а) относительно функции G(a) задается вы- ражением 00 F (t) = f (1 — e~at) me-mda = —-— , t 0, J m +1 о и относится к распределениям Парето. Теперь введем понятие, которое является фундаментальным в теории надежности и в отличие от предшествующих определений не фигурирует в общей теории вероятностей. Определение 2.1. Под интенсивностью отказов элемента, име- ющего функцию распределения наработки F(t) с плотностью f(t), понимаем отношение X(t)=f(t)/F(t). (2.20) Согласно этому определению из выражения (2.5) для t^O получаем P(t<X<t+At|X>t) =X(t) AtH-o(At). (2.21) Следовательно, для достаточно малых At величина X(t) At есть ве- роятность отказа на интервале (t, t-f-At] элемента, который про- работал безотказно до момента t (достиг «возраста» t). Тем са- мым интенсивность отказов X(t) является мерой, выражающей склонность элемента к отказам в зависимости от времени. На практике часто можно наблюдать уменьшение интенсивно- сти отказов технического изделия вскоре после ввода его в экс- плуатацию. Это явление объясняется так называемыми прирабо- точными отказами, которые обу- словлены, например, дефектами конструкции, неточностью на- стройки, неподходящими усло- виями. (Оно аналогично детской смертности в демографических исследованиях.) С увеличением продолжительности работы ин- тенсивность приработочных от- казов уменьшается и интенсив- ность отказов остается на опре- деленное время практически по- стоянной. В этот период нор- 2—6301 Рис. 2.3. Типичный график интенсив- ности отказов
мальной работы наступление отказов следует приписать прежде всего «чисто случайным» причинам, например внешним воздей- ствиям типа колебаний нагрузки. Вследствие процесса изнашива- ния (усталость металла, коррозия) рано или поздно наблюдается нарастание интенсивности отказов. Описанная типичная картина изменения интенсивости отказов известна как U-образная кривая (рис. 2.3). Интегрируя обе части соотношения (2.20), получим / t \ _ ( t \ F (t) = 1 — exp I —J A (x) dx j, F (t) = exp I —J A (x) dx j, (2.22) \ о J \ о J где exp(x)=ex. В случае когда плотность вероятности f(t) существует, функ- ция распределения наработки однозначно определяется по интен- сивности отказов и наоборот. Легко показать, что в частном слу- чае экспоненциально распределенной наработки F(t) = l—e-at, интенсивность отказов равна константе Z(t)=a. Наоборот, из вы- ражения (2.22) следует, что при постоянной интенсивности отка- зов распределение наработки является экспоненциальным. Отсю- да справедлива элементарная, но важная теорема. Теорема 2.1. Интенсивность отказов системы постоянна тогда и только тогда, когда ее наработка распределена экспоненци- ально. Существенную роль далее будет играть накопленная интенсив- ность отказов t A (t) = J А (х) dx. о Из выражения (2.22) получаем A(t) =—InF(t). (2.23) Свойство (2.21) наводит на мысль рассмотреть распределение разности X—t при условии X>t: Ft(x) = P(X-t<x | X>t)= P(tp*>tj+-X)-- Тогда p (X) = F(t + x)-F(t). (2.24) F(t) Случайная величина Xt, имеющая функцию распределения Ft(x) = P(Xt^x), называется остаточной наработкой системы, достигшей возраста t. Соответствующая вероятность безотказной работы Ft (х) = 1—Ft (х) =F(t+x)/F(t). (2.25) 18
Математическое ожидание величины Xt с учетом формул (2.10) и (2.25) определяется выражением Е (Xt) = f F (t_+ х) dx. J F(t) Из свойства (2.21) получается представление (t+x \ / X — j Л (u) du I — exp I — Jz(u 4 (2.26) (2.27) \ t 7 4 о z Из этого соотношения заключаем, что условная вероятность без- отказной работы Ft(x) в случае существования плотности вероят- ности f(t) является убывающей (возрастающей) функцией t тог- да и только тогда, когда интенсивность отказов X(t) возрастает (убывает) по t. Это утверждение следует также из предельного соотношения 2(t) = lim — Ft (х). х->0 х В непосредственной связи со теорема. Теорема 2.2. Пусть функция Тогда равенство сказанным находится следующая распределения F(t) непрерывна. (2.28) и только тогда, когда наработка имеет место для всех t:>0 тогда X экспоненциально распределена. Доказательство. Легко показать, что для F(x) = l—е-ах, х>0 условие (2.28) всегда выполняется. Обратно, равенство (2.28) с помощью (2.26) можно переписать в эквивалентной форме: F(t+x)=F(t)F(x). Это функциональное уравнение относительно F имеет единственное, с точностью до постоянного коэффициента, решение F(t)=ae-at. Вследствие условия F(0) = = 1 нужно положить а = 1. Равенство (2.28) означает, что время, которое система уже проработала, никак не влияет на распределение остаточной нара- ботки. Таким образом, с точки зрения отказов система с экспо- ненциально распределенной наработкой ведет себя спустя время t безотказной работы так же, как и в начальный момент времени. В связи с этим говорят, что система с экспоненциально распреде- ленной наработкой, или с постоянной интенсивностью отказов «не стареет». Более детально понятие старения будет обсуждаться в разд. 3.2. 2* 19
2.2. СИСТЕМЫ Теперь примем во внимание, что существуют системы, состоя- щие в отличие от простых систем из подсистем, т. е. имеют струк- туру. Пусть система состоит из п подсистем еь е2,..., еп, которые мы назовем элементами. Элементы являются простыми система- ми, свойства которых описаны в предыдущем разделе. Система, точно так же, как и ее элементы, может находиться либо в рабо- тоспособном состоянии, либо в состоянии отказа. Состояние си- стемы однозначно определяется состояниями ее элементов. Нара- ботки элементов являются взаимно независимыми случайными ве- личинами Xi с функциями распределения Fi(t), вероятностями безотказной работы FJt), плотностями распределения fi(t) и ин- тенсивностями отказа Xi(t), i=l, 2,...,п. Соответствующие вели- чины для системы обозначаем через X, F(t), F(t), f(t) и X(t). В этом разделе с помощью элементарных методов разберем основные структуры систем и дадим определение сопутствующих понятий. (Общая теория систем, имеющих структуру, будет раз- вита в гл. 8.) Определение 2.2. Последовательная система характеризуется тем, что отказ хотя бы одного элемента приводит к отказу систе- мы (рис. 2.4). Случайная наработка последовательной системы, состоящей из независимых элементов, определяется как X=min(X1, Х2,...,ХП). (2.29) Отсюда P(X>t)=P(Xj>t, X2>t,...,Xn>t) = = P(X1>t)P(X2>t) ...P(Xn:>t). (2.30) Вероятность безотказной работы последовательной системы, со- стоящей из независимых элементов, равна произведению вероят- ностей безотказной работы своих элементов: F(t)=F1(t)F2(t)...Fn(t). (2.31) Из выражения (2.31) получаем еще одно фундаментальное свойство последовательных систем, которое сформулируем в виде отдельного утверждения. Теорема 2.3. Интенсивность отказов последовательной системы равна сумме интенсивностей отказов ее элементов: X (t) =М (t) +Х2 (t) + ... +Xn (t). (2.32) В частности, из этого утверж- в дения следует, что наработка по- следовательной системы, состоя- Рис. 2.4. Последовательная система щей из независимых элементов 20
с экспоненциально распределенными наработками и параметрами аь а2, ...,ап, также имеет экспоненциальное распределение и пара- метр ai + a2+ ... +an. Отсюда с помощью соотношения (2.19) получается средняя наработка этой системы E(X) = l/(ai4-a2+...+an). (2.33) Если система состоит из элементов, у которых одинаковые ве- роятность безотказной работы Fi(t) и интенсивность отказов Xi (t) (в этом случае говорят, что элементы идентичны, или стоха- стически эквивалентны друг другу), то формулы (2.31) и (2.32) упрощаются: F(t) = rFi(t)]", X(t)=nl,(t). (2.34) Пример 2.2. Электронная схема состоит из 8 кремниевых транзисторов, 4 кремниевых диодов, 15 сопротивлений и 11 керамических конденсаторов. Про- волочные соединения и места пайки абсолютно надежны. В нормальных усло- виях работы отдельные элементы имеют следующие постоянные интенсивности отказов: ai=O,000002 ч-1 (транзисторы), а3=0,000002 ч-1 (сопротивления), а2= = 0,000002 ч-1 (диоды), а4=0,000002 ч~! (конденсаторы). Интенсивность отказов схемы, которая рассматривается как последователь- ная система, определяется следующим образом: a=8ai^4a2-|H5a3-j-l 1а4=0,0001 ч-1. Поскольку X(t)=a, то вероятность безотказной работы схемы F(t)=e-°’0001t, t>0. Например, в течение времени t=10 ч схема не выйдет из строя с вероятностью 0,999. Ее средняя наработка составит согласно соотношению (2.19) 10 000 ч. Из формулы (2.31) для вероятности безотказной работы по- следовательной системы получается оценка F(t) > 1-2 FJt). i=l Эта оценка тем лучше, чем меньше вероятность отказа элементов Fj(t). Ее рекомендуется применять, прежде всего, для достаточ- но малых t, например, при рассмотрении высоконадежных (на ин- тервале (0, t)]) элементов ошибка не превышает п 4-£<н,<*>г- i =1 Для ситуации, рассмотренной в примере 2.2, эта ошибка для t=10 ч равна 10-8. 21
Работоспособность последовательной системы требует работо- способности всех ее элементов. Системы, которые не обладают этим свойством, называются (структурно) избыточными. В них мы различаем основные и резервные элементы. (Другие в этой книге не рассматриваются.) Если отказывает основной элемент, то его функции берет на себя резервный, который становится та- ким образом основным. Работоспособность системы обеспечива- ется до тех пор, пока для замены отказавших основных элемен- тов имеются в наличии резервные (и есть возможность переклю- чения резервных элементов в рабочее состояние). Мы различаем три типа резерва. Ненагруженный резерв. Элементы, находящиеся в резервном состоянии, не подвергаются никакой нагрузке. Вследствие этого их показатели надежности не меняются и они не хмогут отказать за время нахождения в резерве. Облегченный резерв. Резервные элементы подвергаются на- грузке, меньшей по сравнению с основными. Хотя отказы резерв- ных элементов и возможны, но на заданном интервале времени вероятность отказа для основного элемента больше, чем для ре- зервного. Нагруженный резерв. Резервные элементы подвергаются та- ким же нагрузкам, что и основные. Таким образом, стохастически эквивалентные элементы имеют одинаковые распределения нара- боток в рабочем и резервном состояниях. (Различие между эти- ми состояниями в случае нагруженного резерва формальное. Для надежной работы системы нужно лишь, чтобы число работоспо- собных элементов не становилось меньше заданного минимально- го уровня.) При равенстве числа основных и резервных элементов ненагру- женный резерв обеспечивает более высокую надежность системы, нежели нагруженный. Но это справедливо только тогда, когда пе- ревод резервного элемента в рабочее состояние осуществляется абсолютно надежно. Выполнение последнего предположения ча- сто сопряжено со значительными трудностями или является неце- лесообразным с экономической или технологической точек зрения. Поэтому во многих случаях, когда нагруженный резерв техниче- ски реализуем, ему, по сравнению с ненагруженным резервом, от- дается предпочтение. Определение 2.3. Параллельная система состоит из одного ос- новного и п—1 резервных элементов, которые находятся в нагру- женном резерве (рис. 2.5). Согласно этому определению параллельная система работо- способна тогда и только тогда, когда, по крайней мере, один из ее элементов исправен. Наработка X параллельной системы записы- вается в виде X=max(Xi, Х2,...,ХП), (2.35) 22
Следовательно, P(X>t) = l—P(X^t) = = l_p(X1^t, X2^t,...,XnCt) = = l-P(X1<t)P(X|2Ct) ...P(Xn<t). To же самое можно переписать как F(t) = l-F1(t)F2(t) ... Fn(t). - (2.36) Если элементы системы стохастически эквивалентны и имеют одинаковую функцию распределения наработки Fj(t), то F(t) = [F1(t)]",F(t) = l-[Fl(t)]". В этом случае средняя наработка параллельной системы Е(Х) = pl-fFaOrjdt. (2.37) О В частности, для Fi(t) = l—e~at после подстановки х=1—e-at получаем Е (X) = — С 1=^ dx = — f (1 + х +... + Xn-1) dx. a J 1 — х a J 0 0 Отсюда e(x'=4(‘+4+v+'-'+4-)- <2-38> Другие точные выражения для средней наработки параллель- ных систем существуют лишь для немногих интересных для прак- тики функций распределения и опять-таки в случае элементов с одинаково распределенными наработками. Поэтому приведем оценку величины Е(Х), определенной формулой (2.37). Рис. 2.5. Параллельная система Рис. 2.6. Иллюстрация к лемме 2.2 23
Лемма 2.2. [319]. Если функция FJt) имеет монотонно возрас- тающую интенсивность отказов %i (t) и если площадь под касатель- ной к функции Fi(t) (для t^O) в точке to=E(X) меньше чем площадь под кривой Fi(t) (рис. 2.6), то РГ* (—< Е (Х)< Fr* /. (2.39) 1 \n-f-l/ \п + 1 /’ ' где Fi-1(x) —функция, обратная к Fi(t). Пример 2.3. Пусть п=4 и и Fj(t)=exp (—(t/0)2), где 0=1О3. Тогда Fi-I(x)=e ИЩЩ), а соответствующая интенсивность отказов Xi(t)=2t/0> монотонно возрастает. Формальная подстановка в (2.39) дает- оценки т. е. 1268^Е(х)<1480. Затем убеждаемся, что касательная к функции Fi(t) в каждой точке интервала (1268, 1480) пересекает ось ординат ниже 1. Таким образом, условие леммы 2.2 выполнено. (Обратим внимание на то, что площадь между осью абсцисс и гра- фиком функции Fi(t) равняется согласно формуле (2.10) математическому ожи- данию наработки элемента.) Замечание 1. Показатели надежности системы, состоящей из и стохастиче- ски эквивалентных элементов, один из которых является рабочим, а п—1 нахо- дятся в ненагруженном резерве, вычислим в гл. 4. Замечание 2. Последовательная и параллельная структуры систем в смысле надежности не обязательно совпадают со структурой физического соединения элементов. Пусть, например, система состоит из двух электрических диодов Dj и D2, включенных параллельно. Соответствующая электрическая схема приведе- на на рис. 2.7. Для отказов типа «короткое замыкание» система выбывает из строя уже тогда, когда отказал один из двух диодов. В этом случае имеем систему, последовательную в смысле надежности. Пусть два конденсатора, Ci и С2 (рис. 2.8), включены последовательно. При коротком замыкании одного из них систему вполне можно считать работоспо- собной. Это совершенно не соответствует понятию последовательной системы в смысле надежности, если под отказом понимать «пробой конденсатора». Определение 2.4. Система «k из п» состоит из к рабочих эле- ментов и п—к элементов, находящихся в нагруженном резерве. Из этого определения следует, что система «к из п» работоспо- собна, если работают, по крайней мере, к из п ее элементов. В частности, последовательная система есть система «п из п», а параллельная система — система «1 из п». Если упорядочить на- работки элементов X. < Хь< ... < , то наработка системы 24
Рис. 2.7. Электрическая схема двух параллельно включенных диодов Рис. 2.8. Электрическая схема двух последовательно включенных конден- саторов «к из п» имеет вид Х = \_к+1. (2.40) В случае стохастически эквивалентных элементов с функцией рас- пределения Fj(t) вероятность безотказной работы системы опре- деляется как п F(t)= " )[F1(t)]n-i[F1(t)]i. i =k По аналогии с выводом соотношения (2.38) получаем, что систе- ма «к из п», у которой F(t) = l—e-at, имеет среднюю наработку Е(Х)= (v+dn+-<2-41) \ к к + 1 и / a Последовательные и параллельные системы изображены на рис. 2.4 и 2.5. Подобные рисунки называют структурными схема- ми надежности или схемами надежности. Точнее, под схемой на- дежности понимают следующее. Определение 2.5. Пусть имеется ненаправленный граф (см. разд. 9.1) с двумя выделенными вершинами: входной А и выход- ной В. Каждое ребро графа представляет собой один элемент системы. Этот граф называется схемой надежности, если он обла< дает следующим свойством: система работоспособна тогда и толь- ко тогда, когда существует, по крайней мере, один путь от верши- ны А к вершине В, содержащий лишь такие ребра, которые отве- чают работоспособным элементам. Вместо ребер представлять элементы в схеме надежности мо- гут также вершины. В этом случае вершины на графе часто изо- бражаются в виде квадратов или кружков. Специальные обозна- чения для входной и выходной вершин будут в дальнейшем опускаться, что не приведет к недоразумениям. На схеме надежно- сти один элемент может быть поставлен в соответствие несколь- ким ребрам. Одна и та же система может иметь несколько экви- валентных схем надежности (в зависимости от вида отказов) это иллюстрируется на примере системы «2 из 3» рис. 2.9. Различным видам отказов отвечают различные схемы надежности (см. заме- чание 2). 25
Рис. 2.9. Схемы надежности для системы «2 изЗ» На практике часто появляются системы, которые образованы последовательный включением параллельных систем или парал- лельным включением последовательных систем (рис. 2.10). Функ- ции надежности таких систем без труда получаются из уравнений (2.31) и (2.36). 2.3. ПРЕОБРАЗОВАНИЕ ЛАПЛАСА Важным вспомогательным средством в задачах надежности является преобразование Лапласа. Мы определяем его для функ- ций f(t), обладающих следующими свойствами (f(t) теперь не обязательно является плотностью распределения): 1) f(t) задана на полупрямой [0, оо) и является кусочно-не- прерывной в области определения; 2) существуют постоянные а и b такие, что f(t)<beat для всех t>0. Под преобразованием Лапласа функции f(t) понимаем функ- цию f(s) = Je~st f (t) dt. 0 (2.42) Интеграл существует в комплексной полуплоскости Res>a. 26
Пусть F (t) — произвольная функция, удовлетворяющая приве- денным выше условиям. Функция F*(s) = ^e~stdF(t) (2.43) 6 называется преобразованием Лапласа — Стилтьеса функции F(t). Таким образом, f(s)=F*(s), если f(t)=F'(t). В этом случае по- членным интегрированием получаем Т(s) = F* (s) = sF (s) — F (0). (2.44) Пусть существует n-я производная F(n)(t) функции F(t), п= =0, 1,... Последовательным применением соотношения (2.44) (точнее, полной математической индукцией) получаем более об- щее соотношение (п^1) J e~stF(n) (t) dt = snF (s) — sn-IF (0) —... — F(n-,) (0). (2.45) 0 Пусть функции fi (t) и f2(t) обладают указанными выше свой- ствами. Тогда J e"st (f2 (t) + f2 (t)) dt = £ (s) + Г2 (s). (2.46) 6 Следовательно, преобразование Лапласа суммы равно сумме пре- образований Лапласа. То же самое верно для преобразования Лапласа — Стилтьеса. Применение преобразования Лапласа к свертке (fi * fj) (t) (см. формулы (2.15) и (2.16)) дает e~st j fj (t — x) f2 (x) dx dt = J e~sxf2 (x) | f2 (t — x) e~s <t-x)dt dx = 0 0 Ox = j e-sxfa (x) £ (s) dx = fi (s) s). о Таким образом, преобразование Лапласа свертки равно про- изведению преобразований Лапласа: j e"st (4 * f2) (t) dt =?x (s)?2 (s). (2.47) о Аналогично преобразование Лапласа — Стилтьеса свертки двух функций распределения Fi(t) и Fs(t) (см. формулы (2.13) и 27
Рис. 2.11. Схема использования преобразования Лапласа для решения задач (2.14)) равно произведению преобразований Лапласа — Стилть- еса функций Fj(t) и F2(t): со j e~std (F, * F4) (t) - - Fx* (s) F2* (s). (2.48) Множество функций, удовлетворяющих условиям 1) и 2), назо- вем пространством прообразов. Множество преобразований Лап- ласа элементов пространства образует пространство образов. Эле- менты этих пространств называются соответственно прообразами и образами. Важной является следующая теорема. Теорема 2.4. Двум различным прообразам соответствуют два различных образа и наоборот. Итак, преобразование Лапласа осуществляет взимно однознач- ное отображение между пространствами прообразов и образов. (Такое же утверждение имеет место для преобразования Лапла- са— Стилтьеса). Это обстоятельство лежит в основе следующей схемы рассуждений. Задача формулируется в терминах прообра- зов. Применяя преобразование Лапласа, переформулируем ее в терминах образов и решим. Наконец, найдем прообраз найденно- го решения (обратное преобразование) и получим решение пер- воначальной задачи (рис. 2.11). Преимущество применения пре- образования Лапласа основано, прежде всего, на том, что опре- деленные типы задач — они часто встречаются в теории надежно- сти— легче решаются в пространстве образов, чем в пространст- ве прообразов. Например, дифференциальные уравнения с посто- янными коэффициентами, а также интегральные уравнения типа «уравнений восстановления» (см. гл. 4) сводятся с помощью вы- ражений (2.46) и (2.48) к принципиально легче решаемым алге- браическим уравнениям. Обратное преобразование является наиболее сложной пробле- мой использования предложенной схемы решения. Свойства (2.46) — (2.48) наводят на мысль представлять образы по воз- можности в виде сумм и произведений, поскольку обратное пре- 28
образование отдельных компонентов обычно легче, чем преобра- зование неупрощенного образа. Тем не менее, во многих случаях получить в явном виде обратное преобразование не удается. По- этому важно уметь делать заключение об отдельных свойствах и параметрах прообраза на основании образа. Например, знание преобразования Лапласа плотности вероятности f(t) позволяет вычислить все моменты соответствующей случайной величины X: Е(Хк) = (—, к = 1,2, ... . dsK s=o (2.49) Здесь предполагается, что первые к моментов величины X конеч- ны, а функция f(s) дифференцируема к раз. В частности, средняя наработка и дисперсия задаются формулами Е(Х)=- d?(s) ds = F(s)ls= s=0 =0, (2.50) D2 (X) = d2T(s) ds2 Г df(s) ' s=0 L ds 2 s=0 (2-51) Пример 2.4. Пусть f(t)=ae-at, t>0 (экспоненциальное распределение). Тогда оо T(s) = f е—sfae~atdt =----. J s+“ о Из формулы (2.49) следует Математическое ожидание и дисперсия определяются как E(X) = l/a, D2(X) = (1/а)2. (2.52) (2.53) Согласно (2.44) выражения (2.49) — (2.51) сохраняют силу, когда функция f(s) заменяется на преобразование Лапласа — Стилтьеса F*(s) функции распределения наработки. Поэтому для оценки моментов и других показателей надежности нужны оцен- ки для F*(s) (см. также неравенства (3.15), (3.16), и (3.31)). В [352] для всех s>0 доказаны неравенства e*s»x^F*(s), где F(t)—функция распределения наработки со средним значением ц и e-s“ < F* (s) < exp [ - sU4 + 1) ], с2 + |Х2 О2 4“ И2 I \ Г /J если дополнительно задана дисперсия о2. Если, кроме этого, вы- полняются равенства F(ao)=O и F(ai) = 1, O^a0^ai<oo, то для 29
преобразования F*(s), s.>0, имеет место следующая верхняя оценка [327]: F*(s)< Э1~и e-sa° + e-sa*. а1 — а0 а1 ао В заключение рассмотрим еще случай, когда функция распреде- ления F(t) может быть представлена в виде смеси по формуле (2.17). Тогда по аналогии с определениями, введенными для функ- ций распределения, преобразование Лапласа смеси можно пред- ставить как смесь преобразования Лапласа для функции F(t; а) относительно весовой функции G (х): F(s) = jF(s; a)dG(a). о Соответственно для преобразования Лапласа—Стилтьеса имеем F*(s) =Jf*(s; a)dG(a). о ГЛАВА 3. РАСПРЕДЕЛЕНИЯ НАРАБОТКИ В этой главе мы рассмотрим параметрические семейства и не- параметрические классы распределений наработки, которые непо- средственно используются в теории надежности. Далее мы перей- дем к оцениванию наработки по результатам испытаний методами математической статистики. Вся глава посвящена простым систе- мам (элементам), если прямо не оговорено противное. 3.1. ПАРАМЕТРИЧЕСКИЕ СЕМЕЙСТВА РАСПРЕДЕЛЕНИЙ НАРАБОТКИ 3.1.1. ЭКСПОНЕНЦИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Случайная величина X называется экспоненциально распреде- ленной с параметром а, если ее функция распределения задана формулой F(t) = l—e-at, t>0, a>0. (Далее вместо а мы пишем также I/O или 1/р,.) Экспоненциальное распределение имеет следующие характеристики: плотность (рис. 3.1) f(t)=ae-at; вероятность безотказной работы F(t)==e-at; 30
преобразование Лапласа— /(±) Стилтьеса F*(s)=a/(a+s), , математическое ожидание Е(Х) = 1/а; дисперсия D2(X) = l/a2; интенсивность отказов ________________, X(t|=a. о 1/л г/л ул t’ Характеристические свои- ' ства экспоненциального рас- Рис. 3.1. Плотность экспоненциально- пределения мы уже обсудили го распределения в разд. 2.1. Оно относится к наиболее используемым распределениям, поскольку упростить ис- следования и вообще провести вычисления часто можно лишь для «не стареющих» систем с экспоненциально распределенной наработ- кой. При этом сильно упрощается статистическая обработка резуль- татов испытаний (см. разд. 3.3). Экспоненциальное распределение не очень подходит, однако, для описания наработки системы, если происходит много приработочных отказов или существенны явле- ния старения, что приводит к сильному изменению интенсивности отказов в течение времени. Поэтому ниже опишем некоторые дру- гие типы распределений, которые используются на практике как распределения наработки и часто хорошо соответствуют экспери- ментальным данным. Речь пойдет везде о двухпараметрических распределениях. 3.1.2. РАСПРЕДЕЛЕНИЕ ВЕЙБУЛЛА — ГНЕДЕНКО Если величина Y=(X/0)P экспоненциально распределена с па- раметром а=1, то говорят, что случайная величина X имеет рас- пределение Вейбулла— Гнеденко с параметрами 0 и р, 0>О, р>0. Функция распределения F(t) для величины X задается выражени- ем F(t) = 1 -e-(t/e)3. При этом 0 является масштабным параметром, поскольку функ- ция распределения F(0, t) зависит только от отношения t/0. Па- раметр р называется параметром формы. Распределение Вейбул- ла — Гнеденко имеет следующие характеристики: плотность f (t) = — f—У 'е 6 , ' ' О I / 1 0 \ 0 / вероятность безотказной работы F(t)=e~(t/e)₽; математическое ожидание Е(Х)=0Г(1/р-|-1); дисперсия D2 (X) = 02 (Г (2/р+1) — (Г (1 /р+1))2); 31
Рис. 3.2. Плотности распределения Вейбулла —Гнеденко для 0=1 Рис. 3.3. Интенсивности отказов для распределения Вейбулла — Гнеденко при 0=1 интенсивность отказов X (t) = (t/0) Здесь Г (х) = J tx-1e-tdt. (3.1) о — известная гамма-функция, таблицы для которой даны, напри- мер, в [178]. Напомним, что Г(1/2)=Ул и» Г(х) = (х—1)Г(х—1), Г(п) = (п—1)!, п=1, 2, ... . При достаточно большом параметре £ график распределения имеет вершину (E(x)=const, рис. 3.2), а график интенсивности от- казов круто растет (рис. 3.3). В частном случае, когда 0=1, рас- пределение Вейбулла — Гнеденко представляет собой экспоненци- альное распределение с параметром а=1/0. Интенсивность рас- пределения является возрастающей функцией при 0>1 и убываю- щей при 0<1. При этом А(0)=0 и limA(t) = oo для р>1 и limZ(t)=oo, limA(t) = 0 для 0<1. t->OO t->00 t->00 Последовательная система, образованная из независимых эле- ментов, имеющих одинаковое распределение Вейбулла — Гнеден- ко, также имеет распределение Вейбулла — Гнеденко. Именно вследствие формулы (2.31) вероятность безотказной работы после- довательной системы ₽(t) = где 0' = вп-1/₽, если наработки элементов имеют распределение Вейбулла — Гне- денко с параметрами 0 и р. Более того, распределение Вейбулла — Гнеденко является одним из возможных предельных распределе- ний для минимума независимых случайных величин [153]. В ча- стности, оно является одним из предельных распределений нара- ботки последовательной системы (см. [31]). 32
При статистическом оценивании наработки, имеющей распре- деление Вейбулла—Гнеденко, часто оказывается полезной следу- ющая зависимость: если наработка X имеет распределение Вей- булла— Гнеденко с параметрами 0 и 0, то величина Y=lnX име- ет функцию распределения P(Y<t)= 1 - exp / (t —1)\ (—exp k (3.2) Где g=ln© и 6=1/0. Функция распределения вида (3.2) называ- ется предельным распределением 1-го типа с параметрами £ и 6 [164]. 3.1.3. РАСПРЕДЕЛЕНИЕ ЭРЛАНГА Говорят, что неотрицательная случайная величина X имеет распределение Эрланга порядка п с параметром а, 0<а<оо, если ее функция распределения имеет вид п—1 . F(t)= k=0 Распределение Эрланга есть распределение суммы п независи- мых экспоненциально распределенных (с параметром а) случай- ных величин. Оно имеет следующие характеристики: плотность (рис. 3.4) f (t) = а е п—1 k вероятность безотказной работы F (t) = e""at к—О преобразование Лапласа — Стилтьеса F*(s) = (- a - \a + s математическое ожидание Е(Х) = —; a дисперсия Ds (X) = —; a2 интенсивность отказов Z(t) = a(at)n 1 k=0 ' Интенсивность отказов для распределения Эрланга является монотонно возрастающей функцией, причем Х(0)=0 и lim Z(t) = a. t-»30 Из соотношения D2(X) = (E(X))2/n видно, что при постоянном математическом ожидании дисперсия распределения Эрланга 3-6301 зз
fit) Рис. 3.4. Плотности распределения Эрланга с математическим ожидани- ем, равным 2 уменьшается с увеличением п и в пределе при п->оо получа- ется распределение, сосредо- точенное в одной точке. Применение центральной предельной теоремы дает р \ = ф к |/п/Х ) В частном случае, когда п=1, получаем экспоненциальное распределение с параметром а. 3.1.4. ГАММА-РАСПРЕДЕЛЕНИЕ Говорят, что неотрицательная случайная величина X имеет гамма-распределение с параметрами а (масштабный параметр) и Р (параметр формы), а, р>0, если ее функция распределения име- ет вид F(t)=rat(₽)/r(P) t где Г('Р) — гамма функция (3.1), a Ft(P)=J x₽-1e-xdx— гамма- о функция, таблицы которой даны, например, в [264, 314]. Гамма-функция имеет следующие характеристики: плотность f (t) = а е , ж « ж 5 m r(p)-rat(p) . вероятность безотказной работы г (t) -----------> преобразование Лапласа — Стилтьеса F*(s) = > математическое ожидание Е (X) = р/а; дисперсия D2 (X) = р/а’; , a(at)^—’е-at интенсивность отказов A (t) = . r(P)-ret(₽) Как и в случае распределения Вейбулла — Гнеденко, график плотности гамма-распределения с увеличением параметра формы имеет все более острую вершину (рис. 3.5). Интенсивность отказов для гамма-распределения является воз- растающей функцией при р>1 и убывающей при р<1. 34
Рис. 3.5. Плотности гамма-распреде- ления при а=1 Рис. 3.6. Интенсивности отказов для гамма-распределения при а=1 При этом Л(0) = 0 и limX(t)=a для р>1 и limA(t)=oo, limA(t)=a t->0 t->oo t->oo для Р<1 (рис. 3.6). Если p=n — произвольное целое положительное число, то гам- ма-распределение представляет собой распределение Эрланга по- рядка п с параметром а. Другим важным частным случаем явля- ется х2-распределение с и степенями свободы, которое получается из гамма-распределения при а₽=1/а и р=п/а. Гамма-распределение инвариантно относительно операции свертки в следующем смысле: пусть Xi, i=l, 2, — независимые случайные величины, имеющие гамма-распределение с параметра- ми а и Тогда сумма Х1+Х2 также имеет гамма-распределение с параметрами а и p=Pi-|-p2. Гамма-распределение используется для аппроксимации распре- делений, имеющих одновершинную плотность несимметричной фор- мы. С ростом параметра р гамма-распределение приближается к нормальному. 3.1.5. УСЕЧЕННОЕ (СЛЕВА) НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Действительная случайная величина X называется нормально распределенной с параметрами у, и о2, <т>0, —оо<у,<оо, если ее функция распределения имеет вид F (t) = Ф где з* Ф(х) = е a’/2du (3.3) —00 35
обозначает стандартное нормальное распределение, таблицы для которого даны в многочисленных работах (например, в [159, 243, 262]). Математическое ожидание и дисперсия нормально распре- деленной случайной величины Е(Х)=ц, D2(X2)=o2. Нормальное распределение играет, как известно^ исключитель- но важную роль в теории вероятностей и математической стати- стике, особенно в их приложениях. Однако оно не годится в каче- стве распределения наработки, поскольку из соотношения F(0) = ==Ф(—у./сг) >0 следует, что случайная величина X с положитель- ной вероятностью принимает отрицательные значения. Поэтому переходят к «усеченному» распределению. Случайная величина X имеет усеченное слева (относительно нуля) нормальное распределение, если где является нормирующей константой. Очевидно, F(0)=0 и F(oo) = =1. Усеченное нормальное распределение имеет следующие ха- рактеристики: ,... а [ (t — и.)* \ плотность f (t) = -у— exp — „ I; vя \ 2e2 / ’ вероятность безотказной работы F (t) — a преобразование Лапласа —Стилтьеса F* (s) = a 11 математическое ожидание E (X) = р.-|-рД-ехр • _ r\2 /v\ г a« ( as l и» \ \ I дисперсия D* (4 = /S exp ( ~ У J I интенсивность отказов I (t) = —(1 — Ф ( — l/2rco \ \ о H2 X«p(-^ Усеченное нормальное распределение (рис. 3.7) имеет возрас- тающую интенсивность отказов, которая линейна при t->oo (рис. 3.8). 36
Рис. 3.7. Плотности усеченного нор- мального распределения при а=1 Рис. 3.8. Интенсивности отказов усе- ченного нормального распределения при <у=1 Если а->1 или, что то же самое, ц/о->оо, то характеристики усеченного нормального распределения стремятся к характеристи- кам нормального распределения. Практически совпадение доста- точно близкое, если ^/о>3. В [99] с помощью анализа большого числа различного рода систем показано, что распределение наработки часто хорошо ап- проксимируется усеченным нормальным распределением. 3.1.6. ЛОГАРИФМИЧЕСКИ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Если величина Y=lnX имеет нормальное распределение с ма- тематическим ожиданием ц и дисперсией о2, то X называется ло- гарифмически нормально распределенной случайной величиной с параметрами ц и о2, о>0, —оо<р<оо. Функция распределения X имеет вид F (t) = Ф , где Ф(х) определено формулой (3.3). Логарифмически нормаль- ное распределение имеет следующие характеристики: х 1 / (In t — U.)9 \ плотность f (t) = • exp I —1---— I; W |/2naf H \_ 2a« J' вероятность безотказной работы F (t) = 1 —Ф . \ a / математическое ожидание E (X) = e|1+e’/2; дисперсия D2 (X) = e2|1+’* (e” — 1). Вычисленная в соответствии с определением (2.20) интенсив- ность отказов %(t) для логарифмически нормального распределе- ния (рис. 3.9) является, вообще говоря, немонотонной (рис. 3.10). 37
Рис. 3.9. Плотности логарифмически нормального распределения при а=1 Рис. 3.10. Интенсивности отказов для логарифмически нормального распре- деления при о=1 Логарифмически нормальное распределение мало пригодно для описания распределения наработки, тем не менее оно играет опре- деленную роль в качестве распределения времени восстановления. 3.1.7. ОБРАТНОЕ ГАУССОВСКОЕ РАСПРЕДЕЛЕНИЕ Неотрицательная случайная величина X имеет обратное гаус- совское распределение с параметрами аир, если ее функция рас- пределения имеет вид р®=ф(тг)+е!‘'ф(-17г)- Обратное гауссовское распределение имеет следующие характери- стики (рис. 3.11): . г /х\ а 7 7 (« — Pt )а \ \ плотность f (t) = , exp — I'---; '' |/2й t3/2 F \ 2t ))' вероятность безотказной работы F (t) = Ф — e2“^X математическое ожидание E(X)=a/P; дисперсия D2(X)=a/p3. Интенсивность отказов (рис. 3.12), вообще говоря, немонотон- на, при этом limX(t)=p/2. t->oo Можно показать, что при ар>2 обратное гауссовское распре- деление имеет тип НСЛИ (см. определение 3.6). Обратное гауссовское распределение появляется в качестве рас- пределения наработки тогда, когда работоспособность системы за- висит от нормально распределенного параметра, изменение кото- 38
Рис. 3.11. Плотности обратного гаус- совского распределения при а=1 Рис. 3.12. Интенсивности отказов об- ратного гауссовского распределения при а=1 рого во времени приводит к постепенному отказу (см. подразд. 7.3.2). Таблицы для обратного гауссовского распределения даны в [170, 358]. Его свойства изучались, в частности, в [124, Д20]. 3.2. НЕПАРАМЕТРИЧЕСКИЕ КЛАССЫ РАСПРЕДЕЛЕНИИ НАРАБОТКИ Введенные в предыдущем разделе семейства распределений на- работки характеризуются заданным функциональным видом или соответствующими эквивалентными характеристиками. Мы виде- ли, что при надлежащем выборе параметров для данного типа рас- пределений интенсивность отказов X(t) может быть как возраста- ющей, так и убывающей. Например, в случае распределения Вей- булла— Гнеденко k(t) возрастает при 0>1 и убывает при 0<1. Разумно в основу классификационных признаков распределений наработки положить характер изменения интенсивности отказов. Мы уже указывали в разд. 2.1 на то, что интенсивность отказов монотонно возрастает (убывает) по t тогда и только тогда, когда условная вероятность безотказной работы Ft(x)=F(t+x)/F(t) (3.4) монотонно убывает (возрастает) для произвольного, но фиксиро- ванного х^О. Ввиду того, что интенсивность отказов существует не всегда (это зависит от того, существует ли плотность), подхо- дящей основой для классификации распределений наработки пред- ставляется функция Ft(x). Теперь можно без заметных дополни- тельных усилий формализовать важное (с практической точки зрения, правда, менее существенное) понятие «молодения». Определение 3.1. Функция распределения F(t) называется ВФИ-(УФИ-) распределением, если вероятность Ft(x) при произ- вольном постоянном х^О монотонно убывает (возрастает) по t, 0<t<oo. 39
Обозначения ВФИ (УФИ) являются сокращением слов «воз- растающая (убывающая) функция интенсивности». Мы исполь- зуем краткое выражение «F(t) принадлежит классу ВФИ (УФИ)». Для распределений, имеющих плотность, принадлежность клас- су ВФИ (УФИ) эквивалентна, таким образом, тому, что интен- сивность отказов монотонно возрастает (убывает). Следовательно, распределение Эрланга, усеченное нормальное распределение, а также для распределение Вейбулла — Гнеденко и гамма-рас- пределение являются УФИ-распределениями. Экспоненциальное распределение принадлежит как классу ВФИ, так и классу УФИ Ч Желательно теперь /характеризовать свойство принадлежности классу ВФИ (УФИ) с помощью введенной в разд. 2.1 остаточной наработки Xt. Для этого используем следующее определение. Определение 3.2. Говорят, что случайная величина Y] с функ- цией распределения Gi(t) стохастически меньше (больше), чем случайная величина Y2 с функцией распределения G2(t), т. е. [(st) Yx<Y2, (3.5) G?) если для всех t Gi (t)>G2(t). (О Очевидно, что (st) Xt > Xt для tx < t2, ’«) 1 2 если функция распределения F(t), порождающая эти случайные величины, принадлежит классу ВФИ (УФИ). С ростом t остаточ- ная наработка Xt становится, таким образом, все меньше (боль- ше). Отсюда заключаем, что свойство принадлежности классу ВФИ (УФИ) позволяет дать осмысленное математическое описа- ние понятия старения («молодения») системы и с точки зрения поведения остаточной наработки2. Теорема 3.1. Функция распределения F(t) принадлежит классу ВФИ (УФИ) тогда и только тогда, когда функция InF(t) являет- ся вогнутой (выпуклой). Доказательство. Согласно формуле (2.23) A(t) =—In F(t), вероятность без- отказной работы поэтому можно записать в виде Ft (х) =e~(A(t+x)~A (t)). (3.6) 1 Одним из наиболее характерных УФИ-распределений является гиперэкспо- ненциальное распределение. — Прим. ред. 2 Строго говоря, все распределения, описывающие феномен старения, делят- ся на несколько классов, среди которых ВФИ (УФИ) является самым узким. — Прим. ред. 40
Рис. 3.13. Нижние границы вероят- ности безотказной работы для ВФИ- распределений Рис. 314. Границы вероятности без- отказной работы для УФИ-распреде- лений Отсюда функция распределения F(t) принадлежит классу ВФИ (УФИ) тогда и только тогда, когда разность A(t-|-x)--A(t) возрастает (убывает) по t при по- стоянном х^О. Из большого числа известных оценок для ВФИ-(УФИ-) распре- делений [18, 24—26, 28, 31] приведем лишь важнейшие. Обозна- чим через |ЛЬ= JtkdF(t), k = 1, 2... о k-й момент функции распределения F(t). В частности, jx=gi есть математическое ожидание. Если F (t) принадлежит классу ВФИ, то р (t) > I exp (- t (к! /|*к)‘/к для t < 4/к, (3 7) I 0 для t>i4/k. В частности, для к = 1 F(t)>[ для (3.8) (0 для t > |*. На рис. 3.13 проиллюстрировано поведение нижней границы (3.7) для (л=1, ц,2=3/2 и (1з=3 на соответствующих нетривиаль- ных интервалах t<l, t<]/3/2, в частности, на интер- вале O^t^l граница (3.8) является наилучшей. Оценку (3.8) можно еще улучшить. Именно в [319] установ- лено, что F (t) > / e-et для * с '' 10 для t > ар., где (I8 ' \ Ц» } 41
аа<1 является решением уравнения 00 th 1 _ V 2»П______________2а —а-+ 2(1—g) In (1—а) Н* Zj(n+l)(n + 2)- а» п=1 Неравенство [27] (к+1)! (к—1)! ^кк! / позволяет рекуррентно вычислять оценки для моментов ВФИ-рас- пределения. Если функция распределения F(t) принадлежит классу УФИ, то F (t) < (е-**4 Для t < |х. /3 9) b*(et)-* для ' согласно J72J F (t) > е~0/и+т) для t>0, (3.10) где у=ц2/2р2-1. (3.11) На рис. 3.14 показано поведение оценок (3.9) и (3.10) для ц=1 и р,2=5/2. Позже будет доказано (см. (3.33)), что для ВФИ- (УФИ) распределений Т<0. (3.12) (» Поэтому формула (3.12) эквивалентна условию, что коэффициент вариации для наработки, имеющей функцию распределения F(t), меньше (больше) 1. Оценки (3.7)—(3.10) являются неулучшае- мыми. С помощью приведенных оценок можно оценить характеристи- ки надежности систем, если наработки элементов имеют ВФИ- (УФИ-) распределения с известными моментами. (Другой инфор- мации о распределениях наработки нет). Если, например, средние наработки последовательной системы pi, р2...gn и при этом они имеют ВФИ-распределения и взаимно независимы, то согласно формулам (2.31) и (3.8) имеем следующую оценку для вероятно- сти безотказной работы системы: F(t)>exp I — 1/рг I для t<min(j*1, |х8,..., рп). \ 1=1 / 42
Помимо оценок представляют интерес приближенные формулы. В [Д. 6] доказано, что sup | F (t) — e-t/|i I <y/(y + 1), (3.13) если функция распределения F(t) принадлежит классу УФИ, а в [319] , доказано, что sup | F (I) — е“‘/1Л | < 1 - /27+1, (3.14) если F(t) принадлежит классу ВФИ. (Постоянная у снова зада- ется формулой (3.11)). Таким образом, как ВФИ-, так и УФИ-рас- пределения аппроксимируются экспоненциальным распределением тем лучше, чем меньше у. (Для экспоненциального распределения согласно формуле (2.53) у=0.) В [18, 355] для преобразования Лапласа — Стилтьеса функ- ции распределения, принадлежащей классу ВФИ, предложены оценки F* (s) > (so2 + l)-’e-s (3.15) F* (s)>l—2sp (sp (a+2+l) +2)-1, (3.16) где o^pt-^dFa). 6 Для того, чтобы получить верхнюю оценку F*(s), следует вос- пользоваться формулой (3.32). Мы придем к некоторому обобще- нию класса распределений ВФИ, если вместо интенсивности отка- зов X(t)=f(t)/F(t) рассмотрим отношение вида ------------. (3.17) F(t+a)-F(t) Определение 3.3. Плотность распределения f(t) называется плотностью Пойа второго порядка (РР2-плотностью), если отноше- ние (3.17) монотонно возрастает по t для всех действительных а=# ¥=0. Если плотность распределения случайной наработки принадле- жит классу PF2, то соответствующая функция распределения при- надлежит классу ВФИ. Однако плотность ВФИ-распределения не обязательно является РР2-плотностью. Тем не менее, важнейшие распределения наработки (Вейбулла—Гнеденко, гамма-распреде- ление, усеченное нормальное) являются РР2-плотностями в тех случаях, когда они принадлежат классу ВФИ. Теорема 3.2. Для того чтобы плотность распределения f(t) была PF2-плотностью, необходимо и достаточно, чтобы для всех а^О отношение f(t—a)/f(t) монотонно возрастало по t, или, что экви- 43
валентно, чтобы отношение f (t—J-a)/f (t) монотонно убывало по t, te {х: f(x)>0). Доказательство. Монотонное возрастание отношения (3.17) для всех дей- ствительных а, очевидно, эквивалентно тому, что для всех а^О f(t) * /т\ ----------------- монотонно возрастает по t, (I) F(t + a)-F(t) и для всех а^О f(t) монотонно убывает по t. (II) F(t)-F(t-a) Вследствие свойств (II) для х<у и а^О справедливо неравенство f (х) I (х —а) f(y) f (У — а) f (х — a) LF(x) — F(x— а)у f (у — a) [F (у) — F (у— а) Г С учетом свойства (I) отсюда вытекает неравенство f(x—a)/f(x)<f(y—a)/f(y). Обратно, пусть выполнено условие теоремы. Тогда для х<у и t5=0 справделиво неравенство f(x-|-t)/f(x)>f(y-|-t)/f(y). Следовательно, а а ГЯ1±П_.,;» Г «У + Ч J .(у) позволяет получить свойство (I). Аналогично можно доказать J f (X) о Это неравенство свойство (Н).И Плотности распределения типа PF2 будут использованы в гл. 6. Для математического описания старения (молодения) систем полезно ослабить требование монотонности интенсивности отказов, задав лишь монотонной среднюю интенсивность отказов t I(t) = -J- J Л (х) dx = A (t) /t. (3.18) О Поскольку A(t)=—InF(t), это приводит к следующему опре- делению, которое вновь не зависит от существования плотности распределения. Определение 3.4. Функция распределения F(t) ^задает ВСФИ- (УСФИ-) распределение, если функция—(1/t) InF(t) монотонно возрастает (убывает) по t, t^O. Обозначения ВСФИ (УСФИ) являются сокращением слов «воз- растающая (убывающая) в среднем функция интенсивности». На практике интенсивность отказов системы, прежде всего из- за колебаний нагрузки, не изменяется монотонно даже после того, как пройден этап приработочных отказов. В подобных случаях от- казы системы лучше описывать с помощью ВСФИ-распределений, чем с помощью распределений типа ВФИ. Непосредственно из оп- ределения следует, что функция распределения F(t) является 44
ВСФИ-(УСФИ) распределением тогда и только тогда, когда для всех ае (О, П и t^O F(at)>[F (t)]\ «) Следующий критерий принадлежности классу ВСФИ (УСФИ) особенно полезен при экспериментальной проверке ВСФИ- (УСФИ) свойства и используется также для получения оценок. Теорема 3.3 [31]. Для того чтобы функция распределения яв- лялась ВСФИ-(УСФИ-) распределением, необходимо и достаточ- но, чтобы при каждом а>0 разность F(t)—e~at изменяла знак «-(-» на «—» («—» на «+») не более одного раза. С помощью этого утверждения получаем оценки для функции распределения F(t) из класса ВФСИ (УФСИ) через р-квантили tp(F(tP)=p): —(t/t > Ш <1—Р) /О Ю\ F (t) ss е p для t< tB, (3.19) (O F(t) <e~(t/tp) *n <1-₽) для tsst,. (3.20) (S=) Далее, для функции распределения F (t) из класса ВФСИ, име- ющей математическое ожидание р., согласно теореме 3.3 получаем F(t)<| ] ДЛЯ (3.21) (е для t > р., где г=ги(1)—решение уравнения 1—ги=е-г1:. Эту оценку нельзя улучшить. Численные значения для р=1 приведены в табл. 3.1 (см. также рис. 3.15). Поскольку Гц 0) = — Г1 * р £ верхняя граница (3.21) в точке t для вероятности безотказной ра- боты ВСФИ-распределения с математическим ожиданием ц рав- на верхней границе вероятности безотказной работы для ВСФИ- распределения с математическим ожиданием 1 в точке t/p. Поэто- му табл. 3.1 справедлива и для ц#=1 при соответствующей замене времени. Пусть, например, t=60, ц=40. По табл. 3.1 в графе, соот- ветствующей отношению t/p,=60/40= 1,5, находим верхнюю оцен- ку для вероятности безотказной работы, равную 0,4172. Если F(t) —функция распределения из класса ВФСИ с момен- тами рк, к=1, 2, ..., то согласно [26] min (exp (— bt), exp (— t (uk/k ! )1/k)) для t<ui/k, 0 для t > (4/k, 45
Таблица 3.1. Верхние границы вероятности безотказной работы для ВСФ И -рас- пределений с математическим ожиданием, раным 1 t Верхняя граница. t Верхняя граница t Верхняя граница t Верхняя граница t Верхняя граница 1,00 1,0000 1,25 0,6287 1,50 0,4172 2,00 0,2032 2,50 0,1074 1,01 0,9803 1,26 0,6179 1,52 0,4045 2,02 0,1979 2,52 0,1048 1,02 0,9611 1,27 0,6074 1,54 0,3922 2,04 0,1927 2,54 0,1023 1,03 0,9424 1,28 0,5970 1,56 0,3804 2,06 0,1876 2,56 0,0999 1,04 0,9241 1,29 0,5870 1,58 0,3690 2,08 0,1827 2,58 0,0975 1,05 0,9063 1,30 0,5771 1,60 0,3581 2,10 0,1780 2,60 0,0952 1,06 0,8890 1,31 0,5674 1,62 0,3475 2,12 0,1734 2,62 0,0929 1,07 0,8721 1,32 0,5580 1,64 0,3373 2,14 0,1689 2,64 0,0907 1,08 0,8557 1,33 0,5487 1,66 0,3275 2,16 0,1646 2,66 0,0886 1,09 0,8396 1,34 0,5396 1,68 0,3180 2,18 0,1604 2,68 0,0865 1,10 0,8239 1,35 0,5308 1,70 0,3089 2,20 0,1563 2,70 0,0845 1,11 0,8086 1,36 0,5221 1,72 0,3000 2,22 0,1524 2,72 0,0825 1,12 0,7937 1,37 0,5136 1,74 0,2915 2,24 0,1485 2,74 0,0806 1,13 0,7791 1,38 0,5052 1,76 0,2833 2,26 0,1448 2,76 0,0787 1,14 0,7649 1,39 0,4970 1,78 0,2753 2,28 0,1411 2,78 0,0769 1,15 0,7510 1,40 0,4890 1,80 0,2676 2,30 0,1376 2,80 0,0751 1,16 0,7375 1,41 0,4812 1,82 0,2602 2,32 0,1342 2,82 0,0733 1,17 0,7243 1,42 0,4735 1,84 0,2530 2,34 0,1309 2,84 0,0717 1,18 0,7113 1,43 0,4660 1,86 0,2460 2,36 0,1276 2,86 0,0700 1,19 0,6987 1,44 0,4586 1,88 0,2393 2,38 0,1245 2,88 0,0684 1,20 0,6864 1,45 0,4514 1,90 0,2328 2,40 0,1215 2,90 0,0668 1,21 0,6743 1,46 0,4443 1,92 0,2265 2,42 0,1185 2,92 0,0653 1,22 0,6625 1,47 0,4373 1,94 0,2204 2,44 0,1156 2,94 0,0638 1,23 0,6510 1,48 0,4305 1,96 0,2145 2,46 0,1128 2,96 0,0624 1,24 0,6397 1,49 0,4238 1,98 0,2088 2,48 0,1101 2,98 0,0610 где Ь=Ьцк (t) — решение уравнения к , . Легко убедиться в том, что справедливы соотношения ЬИк(^)^(к]!/|лк)1/к для t<^/k И ьик(Ч = Для ВСФИ-распределения с к-м моментом р,к нижняя граница вероятности безотказной работы в точке t равняется поэтому ниж- ней оценке (3.22) для ВСФИ-распределения с k-м моментом, рав- ным 1 в точке t/p.k1/k, если эта оценка меньше чем exp (—t(nk/kl)1/k), и равняется exp (—t(ptk/k!)I/k в противном слу- чае. Численные значения нижней границы (3.22) для ВСФИ-рас- 46
Рис. 3.15. Верхние границы вероят- ности безотказной работы для ВСФИ-распределений Рис. 3.16. Нижние границы вероят- ности безотказной работы для ВСФИ- распределений пределений с первым моментом ц1=|х=1 получены в [31]. На рис. 3.16 показаны нижние границы (3.22) для различных значений мо- ментов. Рисунок иллюстрирует общую закономерность, состоящую в том, что интервал в области определения (0, Цк1/к), на котором нижняя граница (3.22) нетривиальна, увеличивается с ростом к. Из рисунка также видно, что, поскольку bUk (t) > (k !/нк)1/1£ для всех t GE (0, l\/k), нижняя граница (3.22) меньше, чем нижняя граница (3.7), для вероятности безотказной работы ВФИ-распределения. ВСФИ-РАСПРЕДЕЛЕНИЯ И МОДЕЛИ УДАРНЫХ НАГРУЗОК В задачах надежности часто рассматриваются и другие классы распределений. Одним из них является ВСФИ-распределение, ха- рактеризующееся возрастанием в среднем функции интенсивности. Наработки из класса ВСФИ появляются в некоторых физиче- ских моделях ударных нагрузок. В этих моделях предполагается, что система подвергается воздействию ударов, которые возникают случайным образом и вызывают повреждения (перегрузки) систе- мы. Повреждения накапливаются до тех пор, пока не будет до- стигнут или превзойден некоторый критический уровень (граница допуска), при этом в системе наступает отказ (постепенный). При- мем, что обусловленные ударами повреждения являются незави- симыми случайными величинами с функцией распределения G(t). Промежутки между последовательными наступлениями ударов яв- ляются независимыми экспоненциально распределенными случай- ными величинами с параметром а. (Таким образом, наступление ударов совпадает со скачками однородного пуассоновского про- цесса с интенсивностью а (см. разд. 4.1).) При этих предположе- ниях вероятность безотказной работы системы задается согласно 47
(3.23) формуле полной вероятности в виде F (t) = e-atG*(к) (х), к=0 где к-кратная свертка G*(k)(x) есть вероятность того, что общее повреждение, представляющее собой сумму к ударов (кумулятив- ное повреждение), не превышает допустимую границу, равную х, a (at)ke!_at/k! есть вероятность того, что за время (0, t] наступит ровно k ударов. Существенным является доказанное в [118] утверждение о том, что распределение наработки рассмотренной системы принадлежит классу ВФСИ при любой функции распре- деления G(t). (Значение ВФСИ-распределений для теории надеж- ности раскроется в полной мере лишь в разд. 8.3.) Рассмотрим еще два класса распределений наработки, кото- рые имеют значение прежде всего в теории технического обслужи- вания. Введем новое понятие, касающееся старения (молодения). Основное соображение заключается в следующем: система, кото- рая проработала время t>0, имеет меньшую (большую) вероят- ность безотказной работы, чем новая система. Формально это оз- начает, что выполняется неравенство Ft(x)^F(x) или, что то же самое, (Ss> р (t _|_ х) < F (t) F (х) для всех х > О, t > 0. (3.24) Определение 3.5. Функция распределения F(t) является НЛИ- (НХИ-) распределением, если выполняется неравенство (3.24). Обозначения НЛИ (НХИ) являются сокращением слов «новое лучше (хуже) использованного». Согласно неравенству (3.5) F(t) является НЛИ-(НХИ) распределением тогда и только тогда, ког- да математическое ожидание Xt стохастически меньше (больше) чем математическое ожидание X: (st) Xt<X. (3.25) Близкое к (3.25) требование можно предъявить к математиче- ским ожиданиям Xt и X: E(Xt)<l», (30 С учетом (2.26) неравенство (3.26) можно записать в эквива- лентной форме: 7F(x)dx<|xF(t). о <^> Определение 3.6. Функция распределения F(t) с конечным ма- тематическим ожиданием ц, является НСЛИ-(НСХИ) распреде- лением, если выполняется неравенство (3.27). 48 (3.26) (3.27)
НСЛИ (НСХИ) — это сокращение слов новое в среднем лучше 00 — (хуже) использованного». Если F (x)dx < оо, то неравенства о (3.27) и t — С F (х) dx > F (t) И J «) О эквивалентны. В левой части этого соотношения стоит функция распределения, которая играет важную роль прежде всего в тео- рии восстановления (см. гл. 4): t FR(t) = yjp(x)dx. (3.28) о Функция Fj{(t) однозначно выражается через функцию распреде- ления F(t) и наоборот. Поэтому последняя принадлежит классу НСЛИ (НСХИ) тогда и только тогда, когда FR(l)>F(t). (3.29) «) Для НСЛИ-распределения из неравенства (3.29) получаем оценку F(t)<t/|i для t<p, (3.30) которая не может быть улучшена. Замечание. Если F(t) является функцией распределения из класса ВФИ (УФИ), то функция Fr(1) также принадлежит классу ВФИ (УФИ) [27]. Y Определение (3.28), конечно, не связано со специальным ти- пом распределения F(t). Если, например, F(t) принадлежит клас- су УФИ, то, согласно [Д. 6] (см. также (3.13)) sup | F(t) — FR(t) I sup I FR(t)-e“t/l‘| где у задано формулой (3.11). Теорема 3.4. [232]. Пусть F(t)—распределение из класса НСЛИ (НСХИ) с математическим ожиданием ц. Тогда Fp (t) < е-*^ для всех t>0. (3.31) (го Доказательство. Докажем справедливость неравенства (3.31) только для НСЛИ-распределений. (Доказательство для НСХИ-распределений проводится аналогично.) Согласно (3.29) - F(t) FR(t)<F‘"P“= H-rG) Д’™ всех 4—6301 49
где fR(t) =F(t)/p,— плотность, соответствующая функции распределения Fr(I:). Отсюда следует, что интенсивность отказов в этом случае AR(t)=fR(t)/FR(t)^l/H. Поэтому с учетом выражений (2.22) получаем °о ✓ t \ / t \ J F (х) dx = p.FR (t) = р. exp I — J XR (x) dx j exp I — J р~Мх I = 0 \ 0 J \ 0 / = pexp( — t/p). Эта оценка равносильна оценке (3.31). Из неравенства (3.31) получаем оценки для преобразования Лапласа — Стилтьеса и моментов НС ЛИ-(НСХИ-) распре- деления: F*(s)<(l + ns)1 для всех s>0; (3.32) (^) К<к!цк, k = 1, 2, ... (3.33) Если мы подставим в неравенство (3.33) к=2, то получим, что коэффициент вариации о/ц для НСЛИ-(НСХИ-) распределе- ния меньше или равен (больше или равен) 1. Для экспоненци- ального распределения, которое принадлежит одновременно клас- сам НСЛИ и НСХИ, выполняется равенство <т/'р,=1. Оценки (3.31) — (3.33) справедливы также для ВФИ- (УФИ-). ВСФИ-(УСФИ-) и НЛИ-(НХИ-) распределений, по- скольку, очевидно, выполняются соотношения ВФИ => ВСФИ => НЛИ * НСЛИ; УФИ => УСФИ + НХИ => НСХИ. (3.34) В [Д22] получена следующая характеризация классов рас- пределений в терминах преобразования Лапласа — Стилтьеса F* (s) = у e-sxdF (х), s > 0. Положим о a0(s) = 1, ajs) = 1—F*(s), a (s) = sn+1 d"(ai(s)/s) = sn+1 f- e-sx F (x) dx, n > 1. n+1V/ nl dsn J n! о Теорема 3.5. Функция распределения F(t) принадлежит клас- су ВФИ (УФИ), ВСФИ (УСФИ), НЛИ (НХИ), или НСЛИ (НСХИ) тогда и только тогда, когда при любом s>0 последо- вательность (an(s), п^О) обладает следующими свойствами: a) an(s)/an-i(s) убывает (возрастает) при п5И; 50
6) (an(s))1/n убывает (возрастает) при п^1; в) an (s) am (s) > an+m <S) ПРИ т > °! (О г) an(s) S ак (S) > 2 ак при П > °- к=п (<) к=п Иными словами, функция распределения F(t) принадлежит оп- ределенному классу тогда и только тогда, когда при лю.бом s>0 последовательность (an(s), п^О) принадлежит этому же классу (an(s) рассматривается при этом как «хвост» некоторого дискрет- ного распределения вероятностей). Для классов ВФИ (УФИ) и НЛИ (НХИ) утверждение теоремы 3.5 было ранее получено в [354, 356]. 3.3 СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ НАРАБОТКИ ПО РЕЗУЛЬТАТАМ ИСПЫТАНИЙ 3.3.1. ПОСТАНОВКА ЗАДАЧИ, ВЫБОРКИ, ПЛАНЫ ИСПЫТАНИЙ На практике, когда изучают надежность, вообще говоря, не знают (совсем или частично), каковы функции распределения на- работок и времени восстановления. Информацию об этих распре- делениях получают при оценивании результатов измерения или наблюдения с помощью соответствующих статистических методов. В этом разделе дается краткий обзор таких методов. При этом внимание сосредоточивается на двух задачах. Первая касается так называемого согласования данных, т. е. выявления того, проти- воречат имеющиеся данные некоторой гипотезе относительно рас- пределения или нет. При решении этой задачи мы исходим из пред- положения, что тип (семейство), к которому принадлежит данное распределение, известен и нужно составить точечные и довери- тельные оценки параметров этих распределений или функций от этих параметров. Будем говорить везде о наработках, однако ре- зультаты и методы могут быть непосредственно перенесены на времена восстановления. Как уже констатировалось, речь идет главным образом о наработках простых систем. Необходимые данные получаются в результате пробных испы- таний или (и) наблюдений в процессе эксплуатации. Формально говорят о «получении выборки». Для оценивания особенно удоб- ны полные выборки. Определение 3.7. Под полной (простой) выборкой порядка п случайной наработки X с функцией распределения F понимают случайный вектор Xn=(Xi,..., Хп), компоненты Xi которого яв- ляются независимыми одинаково распределенными случайными величинами с функцией распределения F(t)=P(Xi^t). 4* 51
Если Xj — реализация выборки Х|, то Xn=(xi,... ,хп) есть реализация выборки Хп, или конкретная выборка порядка п. Ее можно получить, если зарегистрировать наработки п статистиче- ски эквивалентных систем, которые работают независимо друг от друга и в одинаковых условиях. Если упорядочить компоненты Xi конкретной выборки хп по возрастанию, то получим реализа- цию соответствующей упорядоченной выборки Х(п>= (Х(1),п,...»Х(П),п), Х(1)(п^Х0+1)>п, 1=1, 2,..., п — 1. На практике, однако, часто бывает невозможно по техниче- ским или экономическим соображениям или из-за нехватки време- ни получать полные выборки больших объемов. Поэтому удовлет- воряются «неполными» выборками. Более того, для получения данных разрабатываются различные планы испытаний, применяя которые в зависимости от обстоятельств, можно получать сово- купности данных различной структуры. Важнейшими планами испытаний являются (N, U, г), (N,U,T), (N,U, (г, Т)), (N, R,г), (N, R, Т) и (N,R,(r,T)). Здесь N означает число систем, одновременно находящихся под наблюдением (например, число испытательных стендов). Симво- лы U и R указывают, что отказавшая система не может (соот- ветственно может тотчас') быть заменена. Символы г и Т означа- ют, что испытания прерваны в момент tr наступления r-го отказа или в заданный момент Т. Обозначение (г, Т) говорит, что испы- тания прерваны в момент min(tr, Т). План (n,U,n) означает, что моменты отказов, будучи нанесенными на ось времени, образуют упорядоченную выборку Х<П). По плану (n,U, г) получаем усечен- ную (справа) выборку Xr,n= (X(i),n,..., Х(Г).п), т. е. наблюдаются лишь первые г(г^м) элементов из упорядоченной выборки Х(п). План (1, R, п) соответствует наблюдению одной единственной восстанавливаемой системы. (Фиксируются, таким образом, толь- ко последовательные значения наработки одной и той же вос- станавливаемой системы). В случае плана (l,R,n) разности меж- ду последовательными моментами отказов образуют полную выборку Хп. Существенно более сложная структура данных получа- ется при нескольких конкурирующих причинах отказов (так на- зываемая модель конкурирующих рисков). В важном частном случае (две причины отказов), когда каждая система перестает наблюдаться по истечении случайного времени, получается слу- чайное усечение (случайное цензурирование) (см., например, [179]). 52
3.3.2. ПРОВЕРКА РАСПРЕДЕЛЕНИЯ НАРАБОТКИ ПО ИМЕЮЩИМСЯ ДАННЫМ Пусть заданы полная выборка Хп= (Хь... ,ХП) и соответст- вующая упорядоченная выборка Х(П)= (X<j>>n,.. , Х<П),п) случай- ной наработки X, имеющей функцию распределения F. Опреде- лим кусочно-постоянную функцию (лестничную функцию) с по- мощью формулы О для Fn(t) = Н/п ДЛЯ ДЛЯ t<X(i).n, \i), n<t<X(1+i), п’ I <i<n— 1, (3.35) при этом Fn(t) называется эмпирической функцией распределе- ния. Для каждого t функция Fn(t) выборки Хп является несме- щенной и состоятельной оценкой функции распределения F(t): Е (Fn (t)) = F (t), P (lim Fn (t) = F (t)) = 1. n->oo Последнее утверждение можно следущим образом усилить (тео- рема Гливенко): P(limsup | Fn(t) —F(t) | =0) = 1. (3.36) n-»00 t 3.3.2.1. ГРАФИЧЕСКИЕ МЕТОДЫ Мы рассматриваем зависящее от двух параметров а и b cte- мейство распределений наработки {F(t; а, Ь); а, Ь}. Если пара- метры а и b заданы, то, как легко заметить, график F(t; а, Ь) как функции от t не позволяет сделать утверждение относитель- но того, к какому типу распределений принадлежит функция F. Исключение составляет распределение, равномерное на ин- тервале I, поскольку график функции F представляет собой на нем отрезок прямой. Напрашивается мысль — искать такое зависящее от типа распределения преоб- разование, которое переводит функцию F(t; а, Ь) в прямую. Итак, предположим, что существует преобразование t' = h(.t) и функция распределения Fo со свойством F(t; a, b)=Fo((h(t)— — q)/p). Р=Р(а, b), q=q(a, b). Тогда F.-^FU; а, Ь)) = — Г--3- р р есть уравнение прямой относительно t' с угловым коэффициентом 1/р и свободным членом —q/p. Очевидно, прямая пересекает ось абсцисс в точке q. Если преобразования h и Fo-1 применять к 53
парам точек {(х<». 7=1.2.....п, (3.37) то согласно (3.36) и определению эмпирической функции распре- деления точки '’>'2...” (3.38) при больших п располагаются близко к прямой. Если отклонения от прямой слишком велики, в особенности если они носят систе* матический характер, то семейство распределений F(t; а, Ь), по- рождающее преобразования h и Fo-1 и испытываемое в качестве описания распределения наработки, следует отвергнуть. Естест- венно, что мотивированное таким образом решение носит субъек- тивный характер, поскольку оно принято «на глаз». Однако оно становится тем основательней, чем больший объем выборки ис- пользован. На практике вместо (3.37) используются также иные исход- ные совокупности точек, например или (3.39) Точно так же часто вместо (3.38) исходят из точек [187, 229] |h(X(i) п), Е ( h<x(Q. ~q )}. Другая модификация состоит в том, чтобы в представлении ис- ходных точек использовать вместо математического ожидания соответствующую медиану или моду. Замечание 1. Изложенный способ особенно упрощается, если использовать вероятностную бумагу. На вероятностной бумаге, соответствующей заданному типу распределения, уже изображена система координат, порожденная преобра- зованиями h и Fo”1, поэтому на нее можно непосредственно наносить множест- во точек вида (3.37) или (3.39). Замечание 2. Если полученная в результате изложенного способа действий совокупность точек хорошо ложится на прямую (независимо от того, применяет- ся вероятностная бумага или нет), то появляется возможность непосредственно из чертежа определить как угловой коэффициент 1/р, так и свободный член —q/p (или корень q). С помощью обратного преобразования из соотношений р=р(а, Ь) и q=q(a, b) можно получить оценки для параметров а и Ь, которые собственно представляют интерес. (При использовании вероятностной бумаги следует принимать во внимание преобразование координат, порожденное отобра- жениями Fo”1 и h. Поэтому чаще всего предусмотрены прямые способы считы- вания указанных оценок.) 54
Приведем преобразования Fo-1 и h для некоторых важных распределений наработки. Экспоненциальное распределение с функцией распределения F (t; 0) = 1 - e-t/e, t>0. (В отличие от подразд. 3.1.1 обозначим в дальнейшем параметр экспоненциального распределения как а=1/0.) Имеют место соотношения F.(t')=l-e-‘'( F^(z)=-ln(l-z), t' = h(t)=t, р = = р(0)=0. Распределение Вейбулла—Гнеденко с функцией распределения F (t; 0, р) = 1 — e~(t/e’? = 1 — exp (— exp ф (In t — In 0))). Имеют место соотношения F °(t')=1 — exp (-exp (t')), Fo”1 (z) =ln (—In (1—z)), t'=h(t)=lnt, p=p(0, ₽)=l/₽, q=q(©, p)=ln0. Нормальное распределение с функцией распределения F(t; |л, 0) = ф \ а ) где через Ф обозначена функция стандартного нормального рас- пределения. Справедливы соотношения Ро(Г)=Ф(Г), Fo"1(z)=®-1(z), t'=h(t)=t, р=р(ц, о)=о, q=q(p, ст)=|л. Логарифмически нормальное распределение с функцией рас- пределения F(t; I*. д) = ф(1п1~и-У \ ° / Справедливы соотношения F0(t')=O(t'), Fo-Ii(z)=Q-1(z), t'=h(t)=lnt, р=р(ц, g)=o, q=q(g, a)=p. Пример 3.1. Были измерены наработки 50 статистически эквивалентных си- стем, находящихся в одинаковых рабочих условиях. Результаты приведены в упорядоченной форме в табл. 3.2. На рис. 3.17 изображена соответствующая эмпирическая функция распределения. Первое заключение относительно изучае- мой функции распределения получается после того, как на вероятностную бу- магу, отвечающую распределению Вейбулла — Гнеденко, нанесены точки (3.37) (рис. 3.18). Эти точки лежат вблизи прямой, поэтому гипотеза относительно рас- пределения Вейбулла — Гнеденко оправдана. Оценку 0 параметра формы 0 55
Таблица 3.2. Реализации наработки элемента упорядоченная простая выборка объема и = 50) для примера 3.1 объема п = 50) для примера 3.1 1. 15,95 11 23,33 21 27,99 31 30,36 41. 32,52 2. 18,22 12. 25,03 22. 28,20 32. 30,44 42. 32,85 3. 19,07 13 25J08 23. 28,37 33. 30,46 43. 33,76 4. 19,41 14. 25,18 24. 28,62 34. 30,49 44. 33,98 5. 20,76 15 25,93 25. 28,85 35 30,53 45. 34,13 6. 20,91 16. 26,02 26. 29,40 36. 30,54 46. 34,16 7. 21,26 17. 26,89 27 29,61 37. 31,24 47. 35,42 8. 21,90 18 27,20 28. 29,82 38 31,46 48. 35,80 9. 22,56 19 27,56 29. 29,94 39 31,56 49. 36,10 10. 22,71 20. 27,73 30. 30,20 40. 31,85 50. 36,89 можно прочитать на внешней шкале справа после параллельного переноса пря- мой в точку «полюс» (см. рис. 3.18; (Г является наклоном прямой). Далее, для распределения Вейбулла — Гнеденко с масштабным параметром 0 всегда выпол- няется соотношение F(0) = 1—е-1=0,632. Поэтому абсцисса точки на найденной прямой, для которой ордината равняется 63,2 % (эта точка соответствует корню в непреобразованных координатах), является оценкой для параметра 0. Таким образом, из рис. 3.18 непосредственно устанавливается, что £=6,62, 0 = 30. Отсюда следует, что гипотезу об экспоненциальном распределении следует отвергнуть. Пример 3.2. Табл. 3.3 содержит реализации упорядоченной выборки объема п=20. Соответствующие точки (3.37) и в этом случае ложатся примерно на Рис. 3.17. Эмпирическая функция распределения наработки элемента (пример 3.1) 56
Рис. 3.18. Графическое оценивание данных из примеров 3.1 и 3.2 с помощью ве- роятностной бумаги, в которой использовано распределение Вейбулла—Гнеденко прямую на вероятностной бумаге, отвечающей распределению Вейбулла — Гне- денко. Однако из-за большего, нежели в примере 3.1, рассеивания точек вокруг прямой решение относительно типа распределения менее обосновано (рис. 3.18). Способом, описанным в предыдущем примере, получаем оценки |3==1,02 и 0= = 17,5. Исследованный выше способ «линеаризации» функции распре- деления предполагает ее непосредственное определение. В отличии от этого в [20] разработан графический метод определения интен- сивности отказов. Вначале изложим теоретические основы этого метода. Пусть имеется упорядоченная выборка Х(П)= (X(i),n,... ...,Х(П),п) случайной наработки с функцией распределения F. По- ложим для каждого г, l^r^n, Т<хю. „> = пХо >. „ + ("-!) <*«>. „ - Х,„. „)+••• ... + (п - г + 1) (ХВ), „ - . „) = J] Х(1). „ + (п - г) Х(„ п. 1=1 (3.40) 57
Таблица 3.3. Реализации наработки элемента (упорядоченная простая выборка объема п = 30) для примера 3.2 1. 0,88 6. 6,25 11. 8,81 16. 23,63 2. 1,39 7. 6,43 12. 14,05 17. 18.79 3. 3,86 8. 7,12 13. 15,18 18. 41,36 4. 4,55 9. 7,17 14. 16,73 19. 53,90 5. 4,66 *10. 8,60 15. *22,62 *20. 74,63 Очевидно, Т (Х(г),п) есть общее время, которое проработали п одновременно испытываемых систем до наступления r-го отказа. Если положить H^‘(r/n)= f (1- Fn(u))du; (3.41) О где Fn(u)—эмпирическая функция распределения (3.35), а Fn-1(z)=inf{.t: Fn(t)^z}—соответствующая обратная функция, то Нп-1(г/п) = 1/пТ(Х(г),п). По аналогии с (3.41) F-* (t) H?’(t)= j (1—F(u))du. (3.42) о Следующая лемма объединяет три очевидных свойства этого ТТТ-преобразования (Total Time on Test Transformation). Лемма 3.1 [20]. а. Математическое ожидание случайной величины X с функ- цией распределения F(t) равно значению Hp-1(t) при t=l: F-* (1) E(X)=HF*(1)= J (1—F(u))du. о б. Отношение Hp_1(t)/HF“1(1), O^tsSU, является возрастающей непрерывной функцией, которая равна 0 при t=0 и 1 при t=l. в. Производная HF-1(t) в точке t=F(x) равна обратному зна- чению интенсивности отказов, соответствующей функции F, в точ- ке х: dt ___________1_ t=F (х “q (х) (3.43) Следствием (3.43) является лемма. 58
Лемма 3.2 а. Для ВФИ- (УФИ-) распределения функция Hf-1 (.t)/HF—х(1) является вогнутой (выпуклой). б. Для ВСФИ- (УСФИ-) распределения функция Hp_1(t)/ (tHF-1(t)) является монотонно убывающей (возрастающей). в. Для ИЛИ- (НХИ-) распределения производная функции Нр_ 1 (1)/Нр_ 1 (1) в точке t=0 всегда больше (меньше), чем в лю- бой другой точке. Замечание. Экспоненциальное распределение занимает в отношении утверж- дения этой леммы особое место, поскольку для F(t) = l—е~*/б, t^O, справед- ливо тождество Hf“5(t)/Hf-1(1) =t, O^t^l. Тем самым преобразование (3.42) переводит на отрезке [0, 1] каждое экспо- ненциальное распределение в прямую, проходящую через начало координат под углом 45°. Наконец, из соотношения (3.36) следует, что в равенстве lira Н71 (r/n) = Н?1 (t) (3.44) П->00 г/п-> t сходимость равномерна по t. Лемма 3.2 и соотношение (3.44) составляют теоретическую основу для графического метода исследования интенсивностич от- казов. Если задана усеченная выборка Xr,n= (X<D>n, ..., Х(Г>,п), то согласно выражению :(3.44) точки (i/r, T(X(i),n)/T(X(r),n)), i=l, 2,...,г, должны располагаться «плотно» вокруг функции, зависящей от t и имеющий вид отношения Hf-1 (t) /Hf"1 (r/n), O^t^r/n. Отсюда по расположению этих точек можно дать заключение относительно принадлежности исследуемого распределения к одному из описанных в разд. 3.2 непараметрических классов рас- пределений наработки. В особен- ности можно четко отвергать экспоненциальное распределение, если хорошо прослеживаются от- клонения от прямой, проходящей через начало координат под уг- лом 45°. С соответствующими модификациями метод можно применять для оценивания по случайно усеченным данным. О 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,3 t Рис. 3.19. Графическое оценивание данных из примеров 3.1 и 3.2 с по- мощью ТТТ-преобразования (пример 59
Таблица 3.4. Применение ТТТ-преобразования к данным из табл. 3.2 1. 0,566 11. 0,807 21. 0,925 31. 0,966 41. 0,986 2. 0,645 12. 0,854 22. 0,929 32. 0,968 42. 0,988 3. 0,674 13. 0,855 23. 0,932 33. 0,968 43. 0,993 4. 0,686 14. 0,858 24. 0,937 34. 0,968 44. 0,994 5. 0,730 15. 0,877 25. 0,942 35. 0,968 45. 0,994 6. 0,734 16. 0,879 26. 0,951 36. 0,969 46. 0,995 7. 0,745 17. 0,900 27. 0,955 37. 0,976 47. 0,998 8. 0,765 18. 0,907 28. 0,958 38. 0,978 48. 0,999 9. 0,785 19. 0,916 29. 0,960 39. 0,978 49. 0,999 10. 0,789 20. 0,919 30. 0,964 40. 0,981 50. 1,000 Таблица 3.5. Применение ТТТ-преобразования к данным из табл. 3.3 1. 0,050 5. 0,243 9. 0,345 13. 0,560 17. 0,762 2. 0,061 6. 0,311 10. 0,390 14. 0,588 18. 0,871 3. 0,204 7. 0,318 11 0,396 15. 0,688 19. 0,941 4. 0,238 8. 0,343 12. 0,531 16. 0,702 20 1,000 Пример 3.3. Применим преобразование (3.41), используя данные из табл. 3.2 и 3.3. Соответствующие значения Н5-0> (1/50)^57(1), 1 = 1, 2, .... 50, И Н7 (1/20)7117(1), 1 = 1,2...20, помещены в табл. 3.4 и 3.5. Точки (1/50, Н7 (i/50)/H7 (1)), 1= 1, 2, ..., 50, демонстрируют наличие отчетливо вогнутой зависимости (рис. 3.19). Поэтому экспоненциальное распределение должно быть отвергнуто. Согласно лемме 3.2 данные указывают на ВФИ-распределение. Точно так же расположение точек (1/20, Н7 (1/20)/Н27(1)), 1=1,2....20, говорит против экспоненциального распределения (рис. 3.19). Можно предпола- гать здесь наличие УФИ-распределения. 3.3.2.2. АНАЛИТИЧЕСКИЕ МЕТОДЫ (ТЕСТЫ СОГЛАСИЯ) Изложенные только что графические методы исключительно удобны с практической точки зрения, поскольку их применение, после приобретения некоторых навыков, не требует особых уси- 60
лий. Они позволяют верно оценивать сложные структуры данных (например, усеченные выборки), а в случаях параметрических распределений получать одновременно оценки параметров. Одна- ко уже пример с оцениванием данных, приведенных в табл. 3.3, показывает ограниченность графических методов. В примере 3.1 графическая оценка параметра формы 0 при проверке распреде- ления Вейбулла — Гнеденко дает значение 1,02 и позволяет, та- ким образом, предположить экспоненциальное распределение, в то время как применение ТТТ-преобразования заставляет отверг- нуть экспоненциальное распределение. Поэтому целесообразно, а при известных условиях и необходимо, заменить графические методы проверки на аналитические. Так называемые тесты со- гласия. Эти тесты основываются в целом на теореме Гливенко (3.36). Мы предполагаем, что задана полная выборка Хп и что фигу- рирующие распределения наработки постоянны. Для проверки (см. 3.45) гипотезы Н, имеющей вид Н: F=Fo (функция распределения наработки есть Fo) (3.45) поступают так: в n-мерном евклидовом пространстве Rn образу- ют такую область Sa, что для малого а(а=0,01; 0,05; 0,1) вы- полняется равенство Рн(Хпе5а)=а, где Рн — вероятностное рас- пределение X при гипотезе Н. Если XneSa, то гипотеза Н отвер- гается, поскольку при испытании (измерении наработки) насту- пило редкое, в предположении гипотезы Н, событие. Напротив, если Xn^Sa, то данные не противоречат предположению F=F0. Такой тест называется а-тестом. Величина а есть вероятность отклоне- ния правильной гипотезы и называется ошибкой первого рода. Если рассматривается альтернатива F=Fi(Fo#=Fi), то вероят- ность отклонения гипотезы называется качеством теста для аль- тернативы F=Fi. Введем функцию /v . (1, если XnGS„ (гипотеза Н отвергается), Ф(Х ) = { —п ~ (О в противном случае. Для задания S или <р используются главным образом стати- стики — действительные функции от выборки (результатов изме- рений), которые задают подходящее «расстояние» между эмпири- ческой и теоретической (гипотетической) функциями распреде- ления. Ядро обсуждаемых ниже тестов согласия состоит, таким образом, в задании статистики. Критерий согласия х2- Вначале положительная действитель- ная полуось разбивается на к непересекающихся интервалов: Г = = [а0, ai),..., lk=[ak-i, ак), где ао=0, ак=оо, и задаются вероят- ности pj, j = l,...,k, того, что при гипотезе Н наработка X ле- жит в интервале Ij: pj=Fo(ai)—Fo(aj-i). Идея критерия согла- сия х2 состоит в сравнении величин npj (npj есть среднее число 61
значений наработки, попавших в интервал Ij при гипотезе Н) с числом наблюдений ть лежащих на интервале Ij и полученных в результате испытания, j=l,...,k. Хорошее «совпадение» npj и mj для j = l,...,k, говорит против отклонения гипотезы Н. В ка- честве меры отклонения (расстояния) используется %2-статистика вида р (пц-тр» п й пр< (3.46) При гипотезе Н эта тестовая статистика дает при п->оо ^-рас- пределение с k—1 степенью свободы (см., например, [351]). Со- ответствующий тест выглядит так: если Tn>Xf_a(k - 1), (3-47) в противном случае, где x2i_a(k—1) означает (1 — а)-квантиль ^-распределения с к — 1 степенью свободы (таблицы ^-распределения можно най- ти, например, в [262, 243]). Поскольку тестовая статистика Тп имеет асимптотическое х2-распределение, ошибка составляет при- близительно а. Замечание. Изложенный метод можно применить в модифицированном виде также для планов (N, U, Т) и (N, U, г). Однако для планов (N, U, Т) после на- блюдений может оказаться, что необходимо объединить интервалы разбиения. Из-за этого метод в данном случае малоприменим. Интересным является вопрос, можно ли вместо гипотезы Н: F=F0, где Fo полностью задано, рассмотреть гипотезу «имеет место определенное параметрическое семейство» (некоторые па- раметры могут, таким образом, быть неизвестны). При этом кри- терий согласия %2 можно модифицировать следующим образом. Пусть (ai,...as)—неизвестные параметры гипотетического се- мейства распределений. Рассмотрим вновь полную выборку Хп, но вместо (3.46) запишем т > р (mj-npjfa,. ...,as))« (3.48) где через pj (ai,... ,as), j==l, ...,k обозначены теоретические (зависящие от неизвестного параметра) интервальные вероятно- сти. Если теперь выбрать для (си,..., as) такие значения (си*,... ..., as*), которые минимизируют Tn (си,..., as), то стати- стика Tn(ab...,as) будет асимптотически (при п->-оо) ^-распределена с к — s—1 степенью свободы [243]. Со- 62
ответствующим образом модифицируется критерий согласия х2: <р (X ) = Р ’ если Тп (а,>’ (к —s ~ 0> -п [О в противном случае. По сравнению с первоначальной формой критерия х2 (3.47) число степеней свободы уменьшалось на число неизвестных параметров. Поскольку вычисление значений (а/,...,а8*) из выражения (3.48) часто бывает очень трудоемким, используют упрощенные состоятельные оценки (ai,..., as). В основном применяют осно- ванные на выборе Хп оценки максимального правдоподобия (см. разд. 3.3). Следует, однако, заметить, что статистика Tn(ai,... ...,as) не является асимптотически х2-распределенной [82]. Ес- ли используется тест <р (XJ = Р. если Тп (ai....as) > Zf_a (k - 1), ~ [Ов противном случае, то действительная (асимптотическая) ошибка первого рода будет меньше, чем а, и качество теста также ухудшится. Следовательно, при переходе от аГ к <ц* можно чувствовать себя «более уверен- ным» в смысле ошибки первого рода. Пример 3.4. Пусть задана ошибка первого рода a=0,01 и требуется испы- тать гипотезу, что данные из табл. 3.2 являются реализациями наработки, рас- пределенной по закону F(t) = l—e“t/30, t^O. Разобьем область [0, <ю), на шесть интервалов: 11==[0, 5), 1з=[5, 13), 13=[13, 22), 14=[22, 30), 15=[30, 50), 1б= = [50, оо). Соответствующие значения mi, pi и npj есть mi=0, m2=0, m3=8, m4=21, m5=21, m6=0; pi = 0,154, p2=0,198, p3=0,168, p4=0,112, p5=0,179, p6= =0,189; npi=7,7, np2=9,9, np3=8,4, np4=5,4, np5=8,95, np6=9,45. Тестовая ста- 6 тистика T5o=2 (npi—mi)2/(npi) составляет 85,64. Поскольку ^q>9) (5)=15,09r i=l то согласно (3.47) гипотезу следует отклонить. (Ошибка первого рода в этом случае меньше, чем 0,01). Статистики Колмогорова — Смирнова, Крамера — Мизеса и родственные тесты. Рассмотрим вновь задачу (3.45) о различении гипотезы Но: F=F0, где Fo — фиксированное непрерывное рас- пределение. Известны другие тестовые методы ее решения, такие,, как статистики Колмогорова — Смирнова и Крамера — Мизеса. Они также основываются на сравнении гипотетической и эмпири- ческой функций распределения. Если выполняется гипотеза Н, то статистика Колмогорова — Смирнова D = sup | F (t) — F0(t) 1 =шах{ | i/n-Fo(X(i) )|, |(i — l)/n — -F0(X(i)>n)|} (3.49} 63-
и статистика Крамера—Мизеса Wn = 7(Fn(x)-F0«dF0(X) = l/12n+2 (F0(X(i)rn) - О i =1 - (2i - l)/2n)2. (3.50) имеют независимые от Fo распределения. Для каждого у>0 lim Рн (/if Dn < у) = К (у) = 1 - 2 £ (- 1)к-1 ехр (-2к2у2). n^°° k=i Таблицы квантилей для функции распределения К(у) можно найти, например, в [262, 156, 243]. Для п=1, 2,..., 100, непо- средственно вычислены квантили Dn,v для статистики Dn при ги- потезе Н. Они приведены, например, в [262]. Там же даны таб- лицы квантилей асимптотического распределения Wn при гипоте- зе Н. Для некоторых значений п вычислены точные распределения Wn при гипотезе Н. Точные значения для некото- рых квантилей имеются в [326, 188]. В [343] предложена, кроме того, аппроксимация точного распределения, которая получена при рассмотрении первых трех моментов и применении х2-распре- деления. С использованием упомянутых выше точных, асимпто- тических или аппроксимированных квантилей для статистик (3.49), (3.50) выражения для тестов Колмогорова — Смирнова и Краме- ра— Мизеса имеют вид | 1, если Dn > D . . ¥ (X ) = п п. i-« Ю в противном случае, где Pn (Dn > Dn .J = а; I 1, если Wn>Wn . а <p(Xn) = п 10 в противном случае, где PH(Wn>Wn ,_а) = а. (3.52) В литературе имеется целый ряд статистик, которые задают расстояние между распределениями Fo и Fn примерно так же, как и статистики Tn, Dn и Wn, и приводят к тестдм, аналогичным (3.51), (3.52). В цитируемых ниже работах содержатся также со- ответствующие критические значения. Статистика Андерсона — Дарлинга [94] f / Fn(x)-Fo(x) V J к F0(x) (1 — F0(x)) / dF0(x). Сатистика Куипера [202, 323] Vn= SU9 I Fn(t) — F0(t) 1 - inf I F (t) —F0(t) I . —00<t<00 -x0O<t<0O C4
Статистика Уотсона [359, 360, 321, 322, 342] оо +оо un = n J (Fn (х) - Fo (х) - j (Fn (X) - Fo (x)) dF0 « dF0 (x). 6 —00 Статистика Финкельштейна — Шафера [122, 229] n Kn = 2 max{ | i/n - Fo (X(I)> n) | , | (i - l)/n - Fo (X(i)> n) | }. i=l Изложенные методы тестирования могут применяться частич- но и для усеченных выборок, если имеются соответствующие кри- тические значения. Так, например, в [33] даны таблицы кванти- лей распределения модифицированной для плана (n, U, г) при ги- потезе Н статистики Колмогорова — Смирнова Dn,r = niax{ । */п-Ро(Х(1)гП) I . I (i- 1)/й—F0(Xi ) | }. 1СКг Для нее, кроме того, получены асимптотические оценки [199]. Асимптотическое распределение модифицированной статисти- ки Крамера — Мизеса, имеющей вид с".' - + Ё(F- ,х«>. "> - <2i - W' i=l сведено в таблицы в [270]. Кроме того, в [198, 95, Д12 —Д14, Д7] рассмотрены случайные усечения. Вышеприведенные тесты могут быть также преобразованы для случая сложной гипотезы вида H:F(t)=F0((t—у)/о); у,, о—неизвестны, причем недостающие параметры у,, а заменяются, например, на их оценки максималь- ного правдоподобия у и а. В этом случае распределение соответ- ствующих статистик не зависит от неизвестных параметров формы и масштаба, которые зависят, тем не менее, от типа испытуемого распределения. Поэтому каждый раз должны быть в наличии соответствующие критические значения. Исходя из статистики Колмогорова — Смирнова в [207, 107] получены критические значения dBn,i—<х для случая полной вы- борки и испытуемого экспоненциального распределения (гипотеза H:F(t) = l—ехр(—t/0), t^O, © — неизвестно). Если использо- вать статис!тику Dn = max{ ( (i — l)/n — exp (— X(i) /0) | , | (n — i-|-l)/n- Ki<n —exp(-X(l) n/0) | }, 5—6301 65
где §-vEx<0- i =1 то тест, соответствующий выражению (3.51), имеет вид \ |1> если Dn >dn, i—а, ?-n = I О в противном случае, где Рн(Оп >dn, i-a) = a. Аналогичным образом рассмотрен случай [206]: Н : F (t) = Ф । ; р., а — неизвестны. \ ° / (Проверка того, является ли данное распределение нормальным.) Там же с помощью оценок составлены таблицы необходимых для нормального распределе- ния критических значений dn, i-a* В [324, 325, 229, 217] рассмотрены соответствующие модифи- кации вышеназванных статистик и приведены соответствующие критические значения для испытания различных типов распре- делений с параметрами формы и масштаба. Другие тестовые методы для испытания и различения типов распределений разработаны в [156, 13, 305, 306, 96, 97, 227, 113, 145-147, 211, 196, 229]. Пример 3.5. Желательно с помощью данных из табл. 3.2 испытать согласно тестовой статистике Колмогорова — Смирнова (3.51) две гипотезы относительно распределения наработки, полагая вероятность отказа первого рода а=0,05 а) Н: F(t)=l—е-Ve, t>0. Соответствующая тестовая статистика имеет вид D50—тах{ | (50 —i)/50 —ехр(—Х( > /30) | ,| (51—1)/50 — — ехр(—X(i) бс/30) | }. После подстановки численных значений получается D50=0,435. Поскольку D50; о,95=О,188 [243], из выражения (3.51) следует, что гипотезу надо отверг- нуть. Это решение находится в соответствии с результатом, полученным в при- мере 3.1. б) Н: F(t) = 1 — e_(t/30)‘, t>0. 66
Соответствующая тестовая статистика имеет вид D50 = max { | (50 — i)/50— exp (— X(i) /30)4 । , | (51_О/5О- l<iC50 -exp (— (X(i) 60/30)<) | После подстановки численных значений получаем D50=0,024. И, поскольку 0.024<D5o; о 95=0,188, против гипотезы Н нет возражений. В заключение этого раздела займемся специальными тестами испытания экспоненциального распределения, которое рассматри- вается как альтернатива непарметрическим классам распреде- лений наработки (см. разд. 3.2). Специальные тесты испытания экспоненциального распределе- ния. Пусть нужно испытать гипотезу Н : F(t)=l — e-t/0, t>0, 0 — неизвестно, на основании усечен- ной выборки Хг,п= (Х(о,п,...,Х(г),п для случайной наработки, име- ющей распределение F. Тест, который одновременно с испытанием гипотезы Н дает возможность в случае ее отклонения сделать ключение относительно интенсивности отказов, [156]. Тестовая статистика задается в виде определенное за- был предложен в О (Г,. S i =1 \-1 Ц.п (3.53) где Dj,n=(n — i+1) (X(j),n — X(j_i)<n), i=l............г, (3.54) причем Х(о),п=0 и Г1 + г2=г. Вообще говоря, целесообразно вы- бирать п=[г/2], где [а] означает целую часть числа а. Посколь- ку при гипотезе Н величины DIin, i=l,...,r являются независи- мыми и одинаково распределенными с распределением F(t) = к = 1—е_|/®, то величина — Ц п имеет х2-распределение с i=l 2к степенями свободы. Отсюда следует, что тестовая статистика (3.53) при гипотезе Н имеет распределение F с 2п и 2г2 степеня- ми свободы. Получается следующий а-тест: (X ) = | *’ есЛИ Q (Г1’ или Q (Г1* га) <Х/2, (3.55) —г’n 10 в противном случае, где fT=fv(2ri, 2г2) —у-квантиль распределения F с 2ri и 2г2 сте- пенями свободы. Если гипотеза отвергается, то слишком большие значения Q(n, г2) указывают на то, что испытываемое распреде- ление имеет возрастающую интенсивность отказов, а слишком ма- ленькие — на убывающую интенсивность отказов. Это положе- ние обосновывает следующая теорема. 5* 67
Теорема 3.6. [19]. Для каждого ВФИ-(УФИ-)распределения величины Di>n= (и — i +1) (X(i)ji — X(i-i),n) являются стохастиче- ски убывающими (возрастающими) по i, i=l,...,n. (Определе- ние стохастически убывающей (возрастащей) последовательно- сти см. в (3.25).) Если имеется тестовая задача с ограничениями гипотеза Н : F(t)=l — e-t/®, t>0, 0 — неизвестно, (3.56) против гипотезы К: F является ВФИ-распределением (но не экспоненциальным), то полезна односторонняя версия теста (3.55): (Х ) = ( 1( если Q (Г1’ Га) > fi-«(2Г1’ 2Гг)’ _г’п (О-в противном случае. Аналогичным образом можно составить тест для УФИ-альтер- нативы. Отклонение гипотезы в этом случае происходит, если Q(n, r2)<fa(2n, 2г2). Следующий тест для решения задачи (3.56) предложен в [275]. Пусть величина Di,n снова определены согласно (3.54). Пусть, кроме того, fl, если D. „>D, „, i, j = 1, ..., n, 1,1 (0—в противном случае Тогда в случае экспоненциального распределения P(vi,j=l)=0,5 для i, j=l, ... , г, а в случае В ФИ-(УФИ-) распределения P(vi,j = =1)^=(«С)0,5 для l^iCj^r (теорема 3.6), поэтому оправдано использование тестовой статистики V,=3v,.,. i<j Соответствующий тест имеет вид (1, если VP>V_ , Ф (X ) = { г г’1 ’ —г,п [0 — в противном случае, где Рн(Vr >Vt 1-в) = a. (3.57) Критические значения Vr,i-a для г^10 могут быть взяты из таб- лицы, приведенной в [183]. Для больших объемов выборки можно использовать асимптотическую нормальность распределе- ния тестовой статистики Vr, поскольку [222] lim р ( Уг~Иг < Л = Ф (t); г-*оо \ аг / Иг=е (vr) = , or=rw?) = /п (п ~ 1)42п+--) • 68
?(Xrn) = j В заключение надо указать на то, что качество теста (3.57) для ВФИ-альтернативы всегда больше чем а. В подразд. 3.3.2.1 был предложен графический метод, основан- i / г ный на величинах 3 Ц. п / 2 ^J.n> i==l> •••> г~ 1- j=i I j=i В случае усеченной выборки Xr,n= (X(D,n, ..., X(r><n) с этим гра- фическим методом тесно связана тестовая статистика вида (3.58) i=u=l / j=l так называемая ТТТ-статистика. При испытании ВСФИ-распреде- ления статистика Wr-i стохастически больше, чем при испытании экспоненциального распределения (см., например, [19]). Поэтому тестовая статистика Wr-i может быть использована для различе- ния гипотезы H:F(t) = l—e-t/®, t>0, 0— неизвестно, против гипотезы К: F является ВСФИ-распределением (но не экспоненциаль- ным). Соответствующий а-тест имеет вид 1. если Wr_, >Wr_bl_, 0—в противном случае, где PH(W’r_1>Wr_1 1_в)=а. (3.59) Критические значения Wr-i,i-a, для г< 14 приведены, например, в [19]. Для того чтобы получить приближенные формулы для кван- тиля Wr—и—а, заметим что при гипотезе Н статистика Wr-i име- ет такое же распределение, как и сумма г—1 независимых слу- чайных величин U'i, ..., Ur-1, распределенных равномерно на от- резке [0, 1]. Поэтому Е (Wr-i}=XЕ (Ui)=Чг ’ =S1)2 (и‘>=(r-w12’ 1=1 1=1 lim Рн (Г3“(2Wr_, - г + 1)/Г7=й< t) = Ф (t). п->00 Для больших значений г справедлива приближенная формула Wr_h = /F^T/12U1_e + /F^T/2, (3.60) где Ui_a есть (1 — а)-квантиль стандартного нормального рас- пределения. Качество теста (3.59) для ВФИ-альтернативы больше чем а. Асимптотические свойства качества теста исследованы, например, 69
в [19]. Кроме того, статистика (3.58) обобщена на следующий метод испытания. Пусть п одинаковых систем начинают испыты- ваться в момент То=О и пусть в этот момент i-я система имеет «возраст» аь Испытание i-й системы прекращается в момент если на интервале (аь h) в ней не произошел отказ. При этом предполагается, что 1{=оо для i=l,...,r (это дает гарантию пронаблюдать по крайней мере г отказов). Наблюдение прекращается после наступления г-го отказа. Тест (3.59) приме- ним также для испытания НСЛИ-альтернативы [176, 197]. В [174, 176, 5] рассмотрены другие способы испытания экс- поненциального распределения, когда в качестве альтернативы выступали непараметрические классы распределений наработки. Пример 3.6. Пусть нужно проверить гипотезу Н: F(t) = l—e-t/e, 0>О — неизвестно, против альтернативы К: F(t) принадлежит классу ВФИ (но не является экспоненциальным рас- пределением) исходя из данных табл. 3.2 и применяя тест (3.59). Задана вероятность ошибки первого рода а=0,01. В этом случае ТТТ-статистика (3.58) имеет вид Подставляя значения из табл. 3.4, получим W49=44,01. Из приближенной фор- мулы (3.60) для г=п=50 и ио,99=2,326 имеем W49,0,99=29,15. Следовательно, гипотезу об экспоненциальном распределении следует отклонить в пользу аль- тернативы к. Пример 3.7. Используя данные табл. 3.3 и тест (3.55), нужно проверить ги- потезу И: F(t)=l—e-V@, 0>О— неизвестно, с заданной вероятностью ошибки первого рода а=0,05. Если выбрать Г] = г2=10, то соответствующая реализация тестовой статистики (3.53) имеет значение Q(10, 10) =0,201. Поскольку 975 (20, 20) = 2,465 и fo,o2s(20, 20)=0,406, гипотезу следует отвергнуть. Более того, с учетом неравенства Q(10, 10) <f0)025(20, 20) есть основания предположить наличие УФИ-распределения. 3.3.3. ТОЧЕЧНЫЕ И ДОВЕРИТЕЛЬНЫЕ ОЦЕНКИ ДЛЯ ПАРАМЕТРИЧЕСКИХ СЕМЕЙСТВ РАСПРЕДЕЛЕНИЙ НАРАБОТКИ В этом подразделе приводятся точные формулы и приближен- ные методы вычисления точечных оценок и доверительных границ для неизвестных параметров и вероятности безотказной работы в случае, когда расределения наработки принадлежат одному из введенных в разд. 3.1 параметрических семейств распределений. 70
3.3 3.1. ЭКСПОНЕНЦИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Статистическое оценивание для экспоненциального распреде- ления осуществляется особенно просто. Ему посвящена обширная литература, например [156, 195, 229, 13]. В [13] содержится осо- бенно исчерпывающее изложение статистических результатов. В табл. 3.6 дана подборка точечных и доверительных оценок для параметра 1/0 экспоненциального распределения F(l) = l — —ехр(—t/0) и математического ожидания 0. Эта таблица основы- вается на результатах [156]. При этом d означает число отказов, Таблица 3.6. Точечные и доверительные оценки параметров экспоненциального распределения План испытаний Оценка для интенсив- ности отказов 1/0 Оценка для математи- ческого ожидания Доверительный интервал для 1/0 уровня 1—(ал + а2) (N. R, Т) d NT а несмещенная и эф- фективная NT т 2NT - Xl-а, (2d) а - ;NT (N, R, г) г—1 а== Nt/ а Iесмещенная для г > 1 Nt 0 = __£ г 0 несмещенная и эф- фективная ,ч СМ - z । с. СМ 1* СМ СМ —< i;, и в 1 Id (N. R, ('. Тр а= - а весь d NT для fr>T Г—1 в противном Ntr случае чещенная для г>1 Nt для tr>T NTr в противном <“7” случае Если tr$cT, то использу- ются формулы для плана испытаний (N, R, г); если tf>T, то используются формулы для плана испы* танпй (N, R. Т) (N, U, Т) ~ d а- s СЛ 1*0 II <ф см. [156] (N, U. Т) г—1 «= — с? несмещенная для г>1 S 0 — - г 0 несмещенная Я| | я II II Я № 1 - ю » СО СЛ ЬО 1_? '—' (N, U, 0. Т)) а — d . -^т у для tr>T $ в противном . 1 случае 0=. ,S -g- для tr>T S в противном . г случае Если tr>T, то использу- ются формулы для плана испытаний (N, U, Т); если tr^T, то см. [156] 71
наступивших за время испытания, ti — момент наступления i-ro отказа, Т — продолжительность испытания, S — общее время ра- боты к концу периода испытания. Отсюда S = NT для планов испытаний с заменой и d S = (N — Ф^+2 для планов без замен. i=l Если d=0, то для вычисления 0 полагают d=l. Свойства оценок, приведенных в табл. 3.6, такие, как асимпто- тическая несмещенность, состоятельность, эффективность и т. д., хорошо понятны для полных выборок, а их вывод в случае других выборок требует соответствующих модификаций. Вероятность безотказной работы F(t; 0)=e~t/0 к фиксирован- ному моменту t оценивается с помощью приведенной в табл. 3.6 величины ехр(—at). Эта оценка является асимптотически несме- щенной, состоятельной и асимптотически эффективной. Более того, поскольку F(t; 0) при заданном t — это монотонно убывающая от 1/0 функция, то из двустороннего доверительного (1—а)-интерва- ла (а, а) для 1 /0 можно получить соответствующий доверитель- ный (1—а)-интервал для функции F(t; 0) вида (ехр(—at), ехр(—at)). 3.3.3.2. РАСПРЕДЕЛЕНИЕ ВЕЙБУЛЛА—ГНЕДЕНКО Пусть случайная величина имеет функцию распределения Вей- булла—Гнеденко F(t) = 1—e-(t/e)3, t>0. Для статистического определения параметров 0 и р будем исхо- дить из усеченной выборки Xr,n= (Xq),n, Х(2),п, . , Х(Г),п), получен- ной в результате плана испытаний (n, U, г). Об использовании других планов испытаний говорится в [229]. Оценки максимального правдоподобия. Применение метода мак- симального правдоподобия для вычисления точечных оценок 0 и 0 параметров 0 и 0 приводит к уравнениям ^=-4+Л S х?,>' г)Х>’ -I=0 1=1 и 1=1 Li=l 72
+ (n - Г) X|r), nln (^)] - In 0 = 0. Согласно [234] существует одно решение этих уравнений. Кро- ме того, простые преобразования приводят к эквивалентным урав- нениям Для решения уравнений (3.61) рекомендуется, вообще говоря, применять метод Ньютона, причем в качестве начального значения можно использовать, например, оценку, полученную с помощью вероятностной бумаги, отвечающей распределению Вейбулла. Если известна оценка ₽, то одновременно получается оценка 0. Обе оценки являются асимптотически несмещенными, состоятельными и асимптотически эффективными при п->оо и г/п->р, 0<р^1. В случае полной выборки (г = п) вектор (Уп(0—0), Уп(р—13)) при п->оо имеет асимптотически нормальное распределение с мате- матическим ожиданием 0= (0, 0) и ковариационной матрицей [234] /1,109 02/р2 0,257 0 \ <0,2570 0,608 р2J Отсюда следует lim Р ( < х I = Ф (х), П->ОО \ /0,608 Р 1 /___, / S' А А I И П р 1и I — ) I lim Pl---7=—~ < х / = Ф (х) п—>оо \ /1,1096 / 7 ~ Г ( 1 АТА и для F(t) = exp( — —Г ) при фиксированном 1 < \Ъ ) limP <х _ф(х) П—>ОО ’ ’ |/v 73
где V = (Р (t))2 (InP (t))2 (1,109 - 0,514 In (— In F (t)) + + 0,608 In2 (— InF(t))). Используя вышеупомянутые предельные теоремы, можно стро- ить асимптотические доверительные интервалы для 0, 0 и F(t). (Аналогичные утверждения справедливы также в случае усечен- ной выборки Хг,п= (Х(]),п, .. • , Х(г),п) при п->оо и г/п->-р). Соответ- ствующая ковариационная матрица зависит теперь от параметра р. Ее значения при различных р приведены в [13]. При определении доверительного интервала для параметров 0 и 0 используется то обстоятельство, что распределения величин Vn(p/0—1) и fn 01п (0/0) не зависят от 0 и 0 [234]. Квантили Ьа(г, и), Ь1-а(г, п) и са (г, n), Ci_a(r, п) определяется для задан- ных г и п формулами Р (1- - 1) > Ь. (г. п)) = Р (/Б - 1J < ь,_. (г, „)) = = 1 — а; ( —- / й \ \ ( — f А \ \ Р /п pint — )>Са(г, п) =Р /п pin,— )<с (г, п) )- = 1 — а. С их помощью и строятся точные доверительные интервалы для параметров 0 и р. В частности, имеются нижние доверительные (1—а)-интервалы - Ь|—а(г, п) 4- Кп и верхние доверительные „ 2 / С1_„(г, п) и 0 = 0 ехр —------------ (3.62) -------------и Ьа(г, п) +|/п [1 —а)-интервалы — / С„ (Г> П) 0 = 0 exp — а - \ Кп F Для различные значений п у-квантили bv(n, п) и cv(n, п) были определены с помощью метода Монте-Карло. Соответствующие таблицы см. в [337, 338, 13]. Таблицы некоторых квантилей для усеченных выборок составлены в [58, 235, 13]. В названных рабо- тах приведены также значения для Е(0/0), откуда с помощью выражения 0* = 0/Е(0/0) получается оценка 0*. Этот вариант осо- бенно полезен для малых выборок (или сильных усечений). Исходя из случайной величины U=]/n(—1п(—In F(t)) +ln(—lnF(t))) 74
можно определить_доверительные интервалы для вероятности без- отказной работы F(t). Соответствующие таблицы приведены, на- пример, в [235, 13]. Простая линейная оценка. Другая оценка для параметров 0 и р основывается на взаимно однозначном соответствии между рас- пределением Вейбулла—Гнеденко F(t) = 1—ехр(—(t/0)₽) и рас- пределением F(t) = 1—ехр(—exp((t—£)/ф)) (см. подразд. 3.1.2). Параметры связаны соотношениями | = 1п0 и ф = 1/р. Если Хг>п— усеченная выборка для случайной величины, имеющей распреде- ление Вейбулла—Гнеденко, то Yr,n= (Y(i),n,..., Y(r),n) = (In X(i),n,... ... , X(rj,n) является усеченной выборкой для случайной величины, имеющей предельное распределение 1-го типа. В [12] для пара- метров £ и ф предложены следующие простые линейные несмещен- ные оценки g и ф: 1. Для г<п Г J rY(r), п — 2 Y(i). П Ф = —=---------1п§ = Y,., „ — с пФ; Y nRr,n (r*-n r>nY 2. Для г = п S 11 ~~^д¥(1),П+ ~ Y(i),n 1 _ ? _ -У- & Е = 1” 9 = ” SV(„. ,+c't F nkn i=i Здесь kr,n, cr,n и kn — константы, обеспечивающие несмещен- ность, с*«0,5772 — постоянная Эйлера, s=[0,84n] означает целую часть числа 0,84п. Таблицы необходимых констант приведены, на- пример, в [111]. Если ввести критические значения kp=limk , cp=limcrn, п->оо п-*ос г/п->р г/п->р то при г<п можно также использовать аппроксимацию [113, 13] kr,n~kp+di/n+d2/n2, cr,n~cP+ai/n4-a2/n2. (3.63) Содержащиеся в (3.63) коэффициенты приведены в табл. 3.7 В [111] предложен следующий метод приближенного вычисле- ния доверительного интервала для параметра ф и, тем самым, для параметра р=1/ф. Распределение величины (Ьф)/ф, где h= —2/Э2(ф/ф), заменяется на %2-распределение с h степенями сво- боды. Величина h выбирается так, чтобы первые два момента ис- стинного распределения и аппроксимирующего %2-распределения 75
Таблица 3.7. Коэффициенты, в приближенных формулах (3.63) и (3.64) р 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 кг 0,10265 0,21129 0.32723 0.45234 0.58937 0 74274 0.92026 1.1382 1.4436 di — 1,0271 -1.0622 -1,1060 -1,1634 -1.2415 -1,3540 — 1.5313 -1,8567 -2,6929 d2 0,000 0,030 0,054 0,089 0,145 0,242 0,433 0,906 2,796 ср -2,2504 -1,4999 -1,0309 -0,67173 -0,36651 -0,08742 0,18563 0,47589 0,83403 ai -0,55743 -0,30740 -0,22859 -0,19301 -0,17619 -0.17114 -0,17727 -0,20110 -0,27773 *2 -0,07021 -0,01886 -0,00767 -0,00335 -0,00091 -0,00111 0,00369 0,00891 0,02825 Ьр 0,2052 0,4218 0,6514 0,8959 1,1577 1,4391 1,7416 2,0598 2,3394 Ь, -2,052 -2,111 -2,175 -2,244 -2,314 -2,376 -2,239 -2,205 -2,856 Ь. 0,000 0,008 0,002 -0,016 -0,064 -0,118 -0,526 -1,682 -7,928 совпадали. Таблица со значениями h опубликована в [13]. Помимо этого, возможно также применение приближенной формулы h/n«bp+bi/n4-b2/n2, (3.64) в которой коэффициенты ЬР, Ь] и Ь2 могут быть взяты из табл. 3.7. Для нецелочисленных значений величины h>3 и диапазона 0,01<у<0,99 рекомендуется аппроксимация Вилсона—Хилферти X,(h) / 2 2 \» . V ' — 1______L---U„ , h \ 9h । 9h т / где и? обозначает у-квантиль стандартного нормального распреде- ления. Для того чтобы использовать оценки ф и £ при выводе до- верительных интервалов для £ и F(t), следует обратиться к [112, 13]. Дальнейшие результаты по точечным и доверительным оценкам для наработок, имеющих распределение Вейбулла—Гнеденко, и различных планов испытаний можно найти в [238, 91, 104—106. 223—226, 229, 205, 121, 235, 236, 7, 80, 246, 284, 339]. Обширный список литературы составлен в [303]. Пример 3.8. Требуется оценить с помощью метода максимального правдо подобия параметры 0 и f в предположении, что имеется распределение Вейбул- ла— Гнеденко. Исходим из первых 40 значений приведенной в табл. 3.2 реали- зации упорядоченной выборки объема п=50 (отсюда следует, что в данном при- мере мы используем реализацию усеченной выборки Х40,50. Введя обозначения L = -L£inx(i)n, 1=1 Si(₽J=S Х^’п + 'П- Г) Х^г>( п, 1=1 s, (₽) = 2 % п In х(1)> п + (п - г) Х(3Г)> „ In X(r)( п 1=1 76
г s8 (₽) = 2 Х^1)( n ln2X(i) n + (n - r) Xfo, n ln2X(r)> n 1-1 получаем уравнения правдоподобия si(P) p \ r J Решаем первое уравнение методом Ньютона. Выбираем начальное приближение fTo. Тогда (к-|-1)-е приближение $1(Рк) $2 (Рк)—(Рк) \ Рк Рк+1 “ Рк S \ 2 ) + $1 (Рк) $2 (Рк)— ^83(Рк) Рк / Если считать, что Р=6, то получаем по этим формулам приближенные решения Pi = 6,838, Рг= 6,960, р3=6,962. Поскольку дальнейшие итерационные шаги не вносят изменений в первые три цифры после запятой, имеем оценки максималь- ного правдоподобия Р=Рз=6,92 и (после подстановки р = 6,962 во второе урав- нение) 0=30,04. Если вместо первых 40 значений реализации упорядоченной выборки из табл. 3.2 использовать только 25, то аналогичным методом при Ро=6 получаются оценки Р = рз=6,175 и 0=30,65. Простая выборка дает Р=р3=6,811 и 0=30,20. Пример 3.9. С помощью полученных в примере 3.8 оценок максимального правдоподобия для полной выборки объема п=50 (значения наработки берем из табл. 3.2), (3=6,811 и 0=30, 20, требуется определить верхние и нижние дове- рительные границы для параметров р и 0 с заданным уровнем доверия 1—а= =0,95. Согласно [13] Ьо,о5(5О, 50)=—1,047, Ь0,95(50, 50) = 1,662, со,os (50, 50)=1,796, со,95 (50, 50) = 1,789. Из соотношений р_ /50К ~ bj_a(50, 50)+/50 ’ / (50 , 50) 0 = 0 exp I —---—------ \ /50 f в /50 f Ь„(50, 50) +/50 ’ са(50 , 50) /50 получаются нижние р=5,51 и 0=29,10 и верхние р=7,99 и 0=31,35 доверитель- ные границы. 77
З.З.З.З. ГАММА-РАСПРЕДЕЛЕНИЕ Для гамма-распределения известно относительно мало статис- тических методов. Оно не является распределением, содержащим * параметры формы и масштаба, и в отличие от распределения Вей- булла—Гнеденко не сводится с помощью преобразования времени к такому распределению. Поэтому многие «стандартные методы» здесь не применимы. То обстоятельство, что функция распределе- ния и интенсивность отказов для гамма-распределения не пред- ставимы в явной форме, затрудняет оценивание усеченных данных. В дальнейшем будем исходить из гамма-распределения вида F (t; = Г—-—— ехо ( — — dx. J 6зг (р) ‘ I в ) О , (Соответствие с обозначениями введенными в разд. 3.1, достига- ется подстановкой 0 = 1/а). Точечные оценки. В случае полной выборки Хп для оценок р, 0 параметров 0 и 0 по методу максимального правдоподобия име- 1 ются уравнения | 1п|-Ф(р)-1пХ + 1пХ=0, (3.65) где п / п х1/п : + « = х = -1-£х„ х = (Цх, i=l i=l ! С помощью метода Ньютона и таблиц функции ф(х) [178] из вто- рого уравнения (3.65) можно получить решение 0. Значение 0 по- лучается подстановкой 0 в первое уравнение. Очевидно, оценка 0 зависит только от статистики Т = 1п(Х/Х), а не от отдельных величин n, X и X. Поэтому оказывается возмож- ным протабулировать значения 0 как функции Т (см., например, [85]). В [361] показано, что оценка 0 является почти линейной функцией от Q=(l —(Х/Х)-‘)-'=Х/(Х—X). Значения оценки 0 как функции Q даны в табл. 3.8. Оценки 0 и 0 являются асимптотически несмещенными, состоятельными и асимптотически эффективными. В [13] для некоторых п и 0 со- ставлена таблица величин nD2(-^Y е(—Y nD!f—) и ncov(-|-, —\ \ ₽ ) ' 0 ) \*Г \ 6 J \ 0 е/ которые не зависят от 0). 78
Таблица 3.8. Значения оценки^ как функции Q=X/(X — X) О II 1 » хи 3 = М» Q = _* 3 = 0(Q) n_ X Р - ж» У Х-Х Q Х-Х 1,000 0,0000 1,100 0,2893 5,0 2,3941 5,001 0.1154 1,15 0,3328 6,0 2,8983 1,002 0,1266 1,20 0,3716 7,0 3,4012 1,003 0,1343 1,30 0,4417 8,0 3,9032 1,004 0,1404 1,40 0,5061 9,0 4,4048 1,005 0,1456 1,60 0,6260 10,0 4,9061 1,010 0,1643 1,80 0,7396 15,0 7,4096 1,020 0,1888 2,00 0,8496 20,0 9,9112 1,030 0,2070 3,00 1,3760 30,0 14,9130 1,050 0,2355 4,00 1,8876 50,0 24,9146 Вектор (Уп(р/р—1), Уп(@/0—1)) при п->оо распределен асим- птотически нормально с математическим ожиданием 0= (0, 0) и ковариационной матрицей где Кр— 1 d< х=з (см. 113]). В частности, справедливы соотношения limр((т - 0 <х)= ф(х); limpfl/" 1)<-^ = Ф(х); ,woo v2g \ © / / limPp^- (Х-Г'РХх^Ш Другая оценка для р>1 дана в [336]: 1+-|-(1пх-1пХ)]/4(1пХ-1пХ); 0 = Х/£ Как уже указывалось, случай усеченной выборки ХГ(П= = (Х(1),п,..., Х(г),п) значительно сложнее для изучения. Так, в [361] показано, что при этом в уравнении максимального правдо- 79
подобия входят величины г \ 1/г г П X(i). n I S X(i).n 1=1 ) с 1=1 г, --и /Н> Н —---> — ----v------- , О — “Tv • П Л(г), п гл(г), п Были составлены таблицы для решений этих уравнений, т. е. для оценок максимального правдоподобия р'и ц в зависимости от величин S, R и р. Кроме того, в [13] по аналогии со случаем пол- ной выборки для различных значений р = г/п составлена таблица величин р (в зависимости от величин S и Q = S/(S—R) и ц (в за- висимости от величин S и R). Этот подход облегчает интерполя- цию при использовании таблиц. Из оценки максимального правдо- подобия ц для математического ожидания гамма-распределения с помощью формулы 0=ц/р получается соответствующая оценка па- раметра 0. Для усеченной выборки Хг,п можно показать также, что при п—>оо, r/п—>р вектор СИп" (рУр—1), J/ц" (0/0— 1)) асим- птотически нормален. Таблицы соответствующей ковариаци- онной матрицы при различных значениях р = г/п и 0 даны в [13]. Доверительные оценки. Будем вновь исходить из полной вы- борки. При построении доверительных интервалов для величины р оказывается удобным использовать статистику Т=1п(Х/Х). Точ- ный вид распределения Т чрезвычайно сложен (см. [150]). Однако для р>2 величину W=2npT можно приближенно считать ^-рас- пределенной с п—1-й степенями свободы [210]. Более того, в [113] (см. также [13]) найдена х2-аппроксимация, которая совпадает в первых двух моментах с точным распределением W. Именно ве- личина cW является %2-распред елейной с v степенями свободы, где с = С (В П) -2E(W) nMfl-Mnp) D«(W) nhg (Р) — h8(nP) ’ v = v (0. n) = = C (nhj (P) - h2 (nP)), Da(W) a hi и h2 определены формулами hx(x) = 2х(1пх—ф(х)), /га(х) = 2х (х — 1 . (Таблицы величин с и v/(n—1) для различных значений р и п приведены в [13]). Для величин v/(n—1), hi(x) и h2(x) были, 80
кроме того, предложены простые аппроксимации 1_(1 + 4,ЗрГ; Мх^ + а + бх)-1; п— I h2(х) ^и+г.бх)-*, 0<х<2, 1-1—— , 2<x<f оо. Зх Используя указанную х2-аппроксимацию, можно получить ниж- нюю доверительную (1—а)-границу '0*, которая особенно полезна при малых значениях р и является решением уравнения V (у (Р*. п)) 2пс(Р*, п) Т При больших значениях р справедливо полученное в [210] соот- ношение Р (2np In (Х/Х)) >x2a(n-1) «1-а. Отсюда получается приближение для нижней доверительной (1— —а)-границы: (з.бб) 2п(1пХ—1пХ) Аналогичным способом можно построить и верхние доверительные границы. (Нужно заменить в вышеприведенных формулах а-кван- тиль соответствующего ^-распределения на (1—а)-квантиль). При построении доверительных интервалов для параметра 1/0 можно использовать условное распределение величины Т=(Х/Х), если X=g0 (обозначение: P(T<x|X=g). В [114] составлены таб- лицы для квантилей ta(g)), определенных в зависимости от п и g по формуле Р 0/’n’g (Т — Е (Т | X = g0))<t.(g) |X = g0) = a. (3.67) Для больших значений п, кроме того, квантили ta(g) аппрокси- мированы с помощью квантилей стандартного нормального распре- деления. На основании (3.67) строится нижняя доверительная (1— —а)-граница а для параметра 1/0, причем значение g определя- ется из соотношения ]/Tg(T-E(T|X = g0)=ta(g), где a=g/X. Аналогичным образом можно составить также верхние доверительные границы. Приведенные здесь доверительные грани- 6—6301 81
цы величин р и 1/0 обнаруживают определенные свойства опти- мальности, которые обсуждаются в вышеназванных работах. Другие статистические исследования по гамме-распределению можно найти в [229, 162, 364]. 3.3.3.4. НОРМАЛЬНОЕ, ЛОГАРИФМИЧЕСКИ НОРМАЛЬНОЕ И ОБРАТНОЕ ГАУССОВСКОЕ РАСПРЕДЕЛЕНИЯ Нормальное распределение. Статистические методы для нор- мального распределения широко представлены в литературе для полной выборки (см., например, [279]). Оценки максимального правдоподобия для математического ожидания у, и дисперсии о2 имеют вид п п ?-4-£х, и ?_Л£(х,-Й‘. 1=1 1=1 причем вместо а обычно используется несмещенная оценка п 1=1 Как известно, статистика Tj = ]/n(p.— jx)/° имеет t-распределе- ние с п—1 степенями свободы, а статистика Тг= (п—1)о2/а2 име- ем ^-распределение с и—1 степенями свободы. Отсюда обычным способом с помощью квантилей t- или ^-распределений (см., на- дример, [243]) можно строить доверительные интервалы для ц или о2. В случае усеченной выборки следует обратиться к [168, 343, 229, 13]. Логарифмически нормальное распределение. Статистическое ис- следование наработки, имеющей логарифмически нормальное рас- пределение, может быть сведено к случаю нормального распреде- ления если использовать значения преобразованной выборки [89, 344, 229] Хг.п—(Y(])>n, ... , Y(r),n)— (1пХ(|)1п, ... , 1пХ(г),п). Обратное гауссовское распределение. В отличие от подразд. .3.1.7 используем следующее представление для указанной функции распределения: F (t) = С ----------ехр ( — ---------— J |/2лх30 г \ 2ц2Хе о -82
где ц = р/а, 0=а-2. В случае полной выборки оценки максималь- ного правдоподобия имеют вид i=l 4 i=l ' Вместо оценки 1/а для 0 можно также использовать несмещенную оценку п Статистика Т = 0“(ХГ*— Р~') является %2-распределенной с i=i п—1 степенями свободы. Поэтому величина а = — Х1_а (п—1) образует п верхнюю, а величина a = — х« п — 1) — нижнюю доверительные — п (1 — а)-границы для параметра 1/@ |359]. О построении (оптималь- ного) теста для математического ожидания) и см. |84]. ГЛАВА 4. ТЕОРИЯ ВОССТАНОВЛЕНИЯ СПИСОК ОБОЗНАЧЕНИИ Хк Тк N(t) Fi(t), F(t) fi(t), f(t) Fk(t) Mt) Hi(t), H(t) hi(t), h(t) Rt, Vt R, V (Xk, Yk) 6* наработка после (k—1)-го восстановления момент k-го восстановления считающий процесс восстановления функции распределения соответственно для Xi и Хк, k>2 плотности распределения, соответствующие функ- циям Fi и F (F^F^Mt), к>1 (f^fwCk-D) (t), к>1 Е (N (t)), функция восстановления запаздывающего- (обычного) процесса восстановления плотности восстановления обратное и прямое остаточное время обратное и прямое время в стационарном режиме к-й цикл альтернирующего процесса восстановления: 83.
Tk, Sk момент к-го наступления соответственно 0- и 1-вос- становления Z(t) фазовый процесс альтернирующего процесса вос- становления {Z(t),O^t<L} цикл регенерации длины L {C(t), t^O} стохастический процесс накопления Теория восстановления связана с простейшей моделью ремон- та: после каждого отказа система приводится в исправное состоя- ние за пренебрежимо короткое время и тотчас же возвращается в рабочее состояние. При этом под ремонтом понимается полное восстановление всех исходных свойств системы. Точнее говоря, мы полагаем, что после каждого восстановления наработка имеет ис- ходное распределение. Эта модель представляет собой хорошее приближение прежде всего для той практической ситуации, когда имеются резервные системы одного типа (такие, как заменяемые блоки, запасные части) и приведение в исправное состояние означает полную заме- ну отказавшей системы. В подобном случае теория восстановления дает хорошие вычислительные методы для описания стабильного процесса функционирования (эксплуатации) систем, например для планирования потребностей в запасных частях. Хотя эта теория предназначена для простых систем, она одновременно является важным вспомогательным математическим средством рассмотре- ния сложных моделей ремонтируемых систем, особенно в теории технического обслуживания. 4.1. ОСНОВНЫЕ ПОНЯТИЯ Исходным предметом исследования теории восстановления яв- ляется процесс, который представляет собой математическую мо- дель описанной практической ситуации. Определение 4.1. Под процессом восстановления мы понимаем последовательность неотрицательных, взаимно независимых слу- чайных величин {Хп, п=1, 2, ...}, которые для nl>2 одинаково распределены. Случайная величина Хп для п^2—это случайная наработка системы после (п—1)-го восстановления. Если событие, состоящее в восстановлении отказавшей системы уже произошло в прошлом и к моменту t=0 начала наблюдения в работу не введена новая (обновленная) система, то, говоря об Хь мы имеем дело с «оста- точной наработкой» (см. разд. 2.1). (Вообще, возраст первой на- блюдаемой системы к моменту t=0 неизвестен). Чтобы иметь воз- можность рассматривать подобную ситуацию, предполагается, в соответствии с определением процесса восстановления, что распре- 34
деления Xi и Хп не совпадают. Итак, мы полагаем Fi(t)=P(Xi^ ^t) и F(t)=P(Xn<t), n>2. Очевидно, процесс восстановления полностью характеризуется функциями распределения Fi(t) и F(t). Поэтому мы говорим так- же о «процессе восстановления, порожденном функциями Fi(t) и F(t)». Определение 4.2. Процесс восстановления называется за- паздывающим, если Fj(t)^F(t), и соответственно обычным, если F,(t)^F(t). Поскольку, по предположению, восстановления осуществляют- ся за пренебрежимо малое время, то к П = 1 есть момент времени, в который произошел k-й отказ или k-е вос- становление. Величины Тк, к^1, называются моментами восста- новления. Часто процессом восстановления называют также по- следовательность {Тк}. Интервалы между двумя последовательны- ми восстановлениями называют циклами восстановления. Особый интерес представляет определенный с помощью мо- ментов восстановления считающий процесс восстановления (рис. 4.1): N(t)=max{k: Tk^t}, N(t)=O для t<Tb (4.1) Таким образом, для каждого момента t величина N(t) означает случайное число восстановлений, произошедших за время [0, t] (или число использованных запасных систем). В некоторых рабо- тах [119, 66] момент t=0 объявляется моментом восстановления. Это обстоятельство надо принимать во внимание при сравнении соответствующих результатов. Из выражения (4.1) немедленно следует, что неравенство Tk^t выполняется тогда и только тогда, когда N (t) 2>k. Поэтому Fk (t) =Р (Tk^t) = Р (N(t) ^k), (4.2) причем функция распределения Fk(t) величины Тк из-за независи- мости случайных величин Хк для к^1 задается формулой Fk(t)=Fi *F*(k-1>(t), t>0, (4.3) где F*<0) (t) = 1 (см. (2.14)). Если существуют плотности fi(t) = = F'i(t) и f(t)=F'(t), то соответствующие (4.3) плотности рас- пределения имеют вид fk = f1*f*(k-D(t), t>0. (4.4) 85
Рис. 4.1. Реализации считающего про цесса восстановления {N (t), t>0} 3 Рис. 4.2. Сравнение интенсивностей отказов X(t) и XR(t) Принимая во внимание, что Р(N(t) ^k) =Р(N(t) =k) + + P(N(t) I>k4-1), из соотношений (4.2) и (4.3) получаем P(N(t)=k) =Fk(t)—Fk+1(t), (4.5) где N(t) имеет конечные моменты всех порядков [50]. Соотношения (4.2) и (4.3) являются отправной точкой для ре- шения следующей практической задачи: сколько резервных систем (запасных частей) потребуется, чтобы с заданной вероятностью 1—б (коэффициент обеспеченности), например 1—6 = 0,99, обеспе- чить беспрерывную работу системы в течение заданного време- ни t? Требуется обыскать также наименьшее к = кт{п, которое удов- летворяет неравенству 1-Fk(t) >1-б. (4.6) Рассмотрим следующий пример. Пример 4.1. Пусть Fi(t) = 1—e-at, t>0, а>0. В этом случае Тк удовлетво- ряет распределению Эрланга порядка к с параметром а (см. подразд. 3.1.3). По- этому справедливо соотношение к-1 Fk(t) = l_e-»‘£-^-. 1=0 Отсюда и из соотношения (4.5) следует P(N(t) =k) = Ic^e-at, к<0. к ! Таким образом, N(t) имеет пуассоновское распределение с параметром at. По этой причине обычный процесс восстановления {N (t), t^O} с функцией распре- деления F(t) = l—e-at называется также пуассоновским процессом с интенсив- ностью а. В частном случае для a=0,05, t = 200 и 1—6 = 0,99 искомое число kmin=18. Следовательно, для того чтобы обеспечить бесперебойную работу си- 86
стемы на интервале (0,200] с гарантией 99 %, потребуется по меньшей мере 18 резервных систем. Теперь с помощью уравнения (4.5) можно точно определить функцию распределения F(t) для N(t), поскольку k-кратные сверт- ки F*W(t) можно легко вычислить и составить таблицы. Но ска- занное относится лишь к немногим распределениям, помимо экспо- ненциального: к таким, как нормальное и распределение Эрланга. а. Нормальное распределение. Поскольку сумма независимых, нормально распределенных случайных величин тоже распределена нормально, причем математические ожидания и дисперсии сумми- руются, справедливо соотношение F*(k> (t) = Р(N (t) > k) = Ф((t-k^/oVT), (4.7) где F(t)=O((t—p.)/о), см. подразд. 3.1.5.). Отсюда Р (N (t) = к) = Ф ((t — кц)/а/к) — Ф ((t - (к + 1) |х)/о/к4- 1 • (4-8) б. Распределение Эрланга порядка и с параметром а. Эти рас- пределения гамма-распределения сохраняют тип в результате п—1 . свертки (см. подразд. 3.1.4), поэтому для F (t) = 1 — i= о 00 j F*(k) (t) = p (N (t) > e~xt . (4.9) j=nk Отсюда P(N(t)=k).e-g±^. (4.10) j=0 В разд. 4.3 мы приведем оценки вероятности P(N(t)<k) для некоторых классов распределений наработки. 4.2. ФУНКЦИЯ ВОССТАНОВЛЕНИЯ И УРАВНЕНИЕ ВОССТАНОВЛЕНИЯ Во многих практических применениях теории надежности, в частности в теории технического обслуживания, особенно значение имеет математическое ожидание числа восстановлений N (t) на ин- тервале (0, t]. Определение 4.3. Функция H,(t)=E(N(t)) называется функцией восстановления. 87
Для простых процессов восстановления мы пишем H(t) вместо Hi(t). Из определения математического ожидания для дискретных случайных величин Hx(t) - 2 kP(N(t) = k)= 2P(N(t)>k). k=l k—1 С помощью соотношений (4.2) и (4.3) получаем Hx(t)= 2 F1*F*(k-,) (t). (4.11) k=l Если в (4.11) подставить выражение Fx * F’(k) (t) = J Fx * F*(k-1) (t — x) dF (x), 0 го функция восстановления может быть записана в виде 00 t Ц (t) = Fx (t) + 2 J ?! * F*(k-1) (t - x) dF (x). k=l 0 Меняя порядок суммирования и интегрирования, получим для нее интегральное уравнение t Нх (t) = Fx (t) + J Ц (t - x) dF (x). (4.12) о Замена свертки Fi>^F*<k)(t) на ‘ P*(k) f (t —x)dFx(x) дает t Hx (t) = Fx(t) + f H (t - x) dFx (x). (4.13) 0 где H (t) — функция восстановления простого процесса восстанов- ления. Согласно уравнению (4.12) функция H(t) удовлетворяет интегральному уравнению t H(t) = F(t)4-f H(t —x)dF(x). (4-14) 0 Соотношения (4.12) — (4.14) называются уравнениями восстановле- ния. Они имеют единственное решение (см. [119]). 88
В случае, когда существуют плотности распределения fi (t) и f(t), дифференцированием обеих частей соотношения (4.11) полу- чается представление для плотности восстановления hi(t) = = dHi(t)/dt в виде ряда hx(t)= Sfx*f’<k-1)(t). (4-15) k=l Из этого представления следует полезная для многих приложений теоретико-вероятностная интерпретация функции hi (t): при доста- точно малых At величина hi (t) At примерно равна вероятности по- явления момента восстановления на интервале (t, t+At]. По аналогии с уравнениями (4.12) — (4.14) величины hi(t) и h(t) = dH(t)/dt удовлетворяют интегральным уравнениям t hi (t) = fi (0 + f h, (t - x) f (x) dx; (4.16) 0 t h1(t) = f1(t) + Jh(t-x)f1(x)dx; (4.17) 0 t h(t) = f(t)+Jh(t —x)f(x)dx. (4.18) 0 Уравнения (4.12) — (4.14) и (4.16) — (4.18) решаются, вообще говоря, численными методами. Однако благодаря свойствам (2.47) и (2.48) оказывается возможным сразу получить преобра- зования Лапласа и Лапласа—Стилтьеса для функции восстановле- ния и плотности восстановления. В обозначениях разд. 2.3 из урав- нений (4.12) и (4.16) получаем H/;(s) = t4t%)’ <419> 1 ь (s) I — f(s) В частности, для обычного процесса восстановления «•(3)=!^. (<2°) Из выражений (4.20) следует, что в случае обычного процесса восстановления функция распределения H(t) однозначно выража- ется через функцию восстановления F(t), т. е. все характеристики обычного процесса восстановления могут быть вычислены через его функцию восстановления. Приведем некоторые примеры обычных процессов восстановле- ния, для которых можно точно определить функцию восстановле- ния. 89
Экспоненциальное распределение. Если F(t) = I— e-at,ToH(t) = = at. Определенный с помощью функции F(t) = l—e-at обычный процесс восстановления будет также пуассоновским процессом с интенсивностью а (см. пример 4.1 и разд. 10.3). к-! . Распределение Эрланга. Если F (t) = e-at , i=l то 1156} н «> = '“'£ Ё-т n—1 i=nk ИЛИ к-1 . К \ jtaM 1 С / 4 i=l ' где 2к1/к 2тс । • • 2тс с = е ' = cos-----------к 1 sin----. к 1 к В частности, H(t)=at для к=1 (пуассоновский процесс), для к = 2, на)=4- (al-1+рте 1,5"sin(J^-at+4)) для к=3- Н (t) = — f at-- 4- — e-2at + /2е-“‘ sin fat + для k=4 4 \ 3'2 \ 4 / Гамма-распределение. Если P „8 «9—1 F(t)= f-^-e^dx, to f 156] b dx. Усеченное экспоненциальное распределение Если F(t) = = 1—e-ad-P), и F(t)=O, t<p, to [21] (t/31 i _a(t—3D —a(t—3k) H (t) = [t/P] + У У ak (t- Pj)k e-4^ + У ak (t - Pk)ke-^. J=0 k=0 k=0 90
Нормальное распределение. Если F (t) = Ф р где Р->Зо, то согласно (4.7) и (4.11) к=1 Функцию восстановления H(t) можно легко вычислить с по- мощью таблиц для функции d>(t), поскольку достаточно рассмат- ривать лишь первые члены ряда. Распределение Вейбулла—Гнеденко. Пусть F (!) = 1—e-(t/e) . Задача численного определения функции восстановления H(t) рассматривалась в [318, 215, 35] для 0=1. В этих работах для нее приведены таблицы. Равномерное распределение. Пусть F(t)=t для O^t^l. Тогда для к—l^t^k [68] н(Ч=-1+с'-1-1 Ёс,(-!Г-' • i=l где с.= Ген(—1)J .., i = О, 1,... 1 v 7 j! j=o В некоторых постановках задач, в частности при асимптоти- ческом изучении процессов восстановления для t->oo, представля- ют интерес высшие моменты N(t). Чтобы их вычислять, целесооб- разно отталкиваться от биномиальных моментов Е (N[t}) = Е (-1-N (t) (N (t) - 1)... (N (t) - (k- 1))]. \ k / \ k! / Согласно [128] E = H*(k'(t). Отсюда дисперсия N (t) выражается в виде D2(N t)) = 2 Jh(t —x)dH(x) + H(t) — (H (t) 2. 0 Было показано, что обычный процесс восстановления имеет функцию восстановления H(t) =at=t/|i тогда и только тогда, когда F(t) = 1—e-at, t^O. Возникает вопрос, существует ли при заданном F (t) запаздывающий процесс восстановления с функцией 91
восстановления Hi(t)=t/p.? Ответ дает следующая теорема. 00 — Теорема 4.1. .Пусть н= J F(t)dt<oo. Тогда соотношение о Hi(t)=t/ti (4.21) имеет место тогда и только тогда, когда F,(t)=FR(t), где t FR(t)=—fF(x)dx (4.22) р* J о (см. также (3.28)). Доказательство. Преобразование Лапласа — Стилтьеса для функции FR(t) имеет вид F*(S) = i(1“F*(S))- Если в первом из уравнений (4.19) заменить Fi*(s) на FR*(s), то для опреде- ленной через FR(t) и F(t) функции восстановления получим преобразование Лапласа — Стильтьеса Hi*(s)=l/(p,s). Это соотношение, однако, эквивалентно (4.21). Доказанное утверждение имеет решающее значение в теории восстаовления (см. разд. 4.3 и 4.5). 4.3. ОЦЕНКИ ДЛЯ ОБЫЧНЫХ ПРОЦЕССОВ ВОССТАНОВЛЕНИЯ Точно определить функцию восстановления для большинства имеющих на практике значение распределений наработки невоз- можно, поэтому применяют численные методы решения уравнений восстановления с использованием вычислительной техники. Отсю- да следует, что оценки (так же, как >и приближенные формулы, см. разд. 4.6) имеют большое практическое значение. Изложим не- которые из важнейших результатов для обычных процессов вос- становления. Из неравенства к max Хп < £ Xn l^n^k n__। следует F’(k) = p (Tk < t) < P( max Xn < t) = (F (t))k. l<n<k 92
Учитывая соотношение (4.11), получаем отсюда элементарную оценку Это соотношение позволяет, тем не менее, получить приемлемые оценки для функции восстановления H(t), если F (t) 1 (т. е. для достаточно малых t). Для того чтобы понять смысл дальнейших оценок, важно знать асимптотическое соотношение lim _ _L (4.23) t-н» t р (см. теорему 4.5). Оно устанавливает асимптотическое равенство между функциями H(t) и t/p при t->oo. Прежде чем вывести оценку для функции восстановления H(t), найденную в [231], обозначим . . F(t)-FR(t) F(t)-FR(t) b0 = inf ---— и bi = sup----------—-— . test F(t) test F(t) где SI — множество всех t^O, таких, что F(t)<l. Тогда справед- ливы неравенства boF^xF^-FRaxb^a), свертка которых с функцией F*W (t) приводит к неравенствам b0 (F*(k) (t) — F*(k+n t) < F#(k+1) (t) — Fr * F*(k) (t) < <b1(F*<k)(t) —F*(k+,)(t)). Суммируя по k и используя соотношение (4.11) и теорему 4.1, по- лучим оценку t/g+b0<H(t) ^t/g+bi. (4.24) Поскольку всегда (F(t)—FR(t))/F(t)^—Fr(1)^—1, то отсюда получаем известные оценки [77]: H(t)> — — FR(t)> —----1. (4.25) р. р Если через Ar(1) =fR(t)/FR(t) обозначить интенсивность отказов соответствующую функции распределения Fr(1), то Xr (t) = F (t) /1 f F (x) dx ] • (4.26) 93
Поэтому величины bo и bi могут быть записаны в виде Ьо = — inf т-тгч — 1 и bj = —sup-r—j--—1, и tegi ar (t) н tegi ar () и, следовательно, из соотношения (4.24) с учетом неравенств inf q (t) < inf q „ (t) и sup q (t) > sup qR (t) te^f test ts2l вытекают оценки — 4- _L in{ _!-------—sun —-------------------------1. (4.27) н и tegi М9 i* и ts2l х<0 Проиллюстрируем полученные результаты на примере [231]. Пример 4.2. Пусть f5t/7, 0<t<l, Тогда (рис. 4.2) ,ж /5/(7-5t), 0<t< 1, Mt) = U, Kt; i ,n_ /(14-10t)/(13-14t + 5t»), 0<t< 1, Xr( ' (I, l<t. Поскольку infXR(t) = l и sup Ar (t) = 1,25, то из оценки (4.24) получаем l,076t— —0,14^H(t)^.l,076t-|-0,08. В то же время согласно неравенствам 5/7^A(t)=2,5 из оценки (4.27) следует l,076t—0,57^H(t)^U,076t-[-0,51. Предположим теперь, что F(t) является функцией распределе- ния из класса НСЛИ (НСХИ). Тогда из теоремы 4.1 и формулы (3.29) следует известная оценка [232] H(t)<t/|*. (4.28) Подставляя ее в уравнение восстановления (4.14), получаем более точную оценку для наработки, имеющей НСЛИ- (НСХИ-) распре- деление [231]: H(t)<t/u-FR(t)4-F(t). (4.29) В разд. 3.3 было доказано, что для наработки с ВФИ-распре- делением I t H(t)>t / jF(x)dx—1 (4.30) I о 94
и I t _ H (t) < tF (t) / J F (x) dx. (4.31) / о Приведем без доказательства некоторые другие оценки. а. В [311], а также в [28] показано, что t inf Л(х)< — inf sup ^^<tsup Я(х). 0<x<t и 0<x<t rR*x/ Ц 0<x<t rsW OsgxsSt • б) В [216] построена верхняя граница для функции восстанов- ления Н(t) (ц2<°°): H(t)^t/n + n2/.u2-l. в. В [73] эта оценка улучшена в предположении УФИ-распре- деленной наработки: Другие оценки функции восстановления приведены в [66, 311]. В этих работах можно найти оценки плотности восстановления, а также итеративные методы улучшения границ (4.24), (4.25) и (4.27) —(4.31). Распределение величины N(t) лишь в немногих случаях можно вычислить точно и без значительных усилий. Здесь в равной сте- пени особое значение имеют оценки. Если функция распределения F(t) принадлежит классу ВФИ и имеет математическое ожидание ц, то согласно (3.8) F (t) 1 — —для t<p. Поэтому к-1 Fk(t)<l- 1<ц. i=l Отсюда и из выражения (4.2) получаем k—i Р (N (t) > к) < 1 — e~t/|X, t<[x. (4.32) 1=0 Налицо элементарный, но важный результат: распределение Эрланга дает верхнюю оценку для вероятности того, что в системе с ВФИ-распределенной наработкой за время (0, t] произойдет к или более отказов, если t меньше чем средняя наработка системы. Оценка (4.32) очень практична, поскольку для того чтобы ею пользоваться, нужно знать лишь математическое ожидание соот- ветствующей функции распределения F(t). Тем не менее, отри- цательным является то, что эта оценка становится непригодной, 95
когда F(t) является функцией распределения из класса НЛИ или t>p. Поэтому приведем оценки для P(N(k)>k). _ Положим в соответствии с формулой (2.23) A(t)=—InF(t). Тогда согласно [28] k-i । Р (N (t) < к) > V (A(t)) e~A(t), t> О, (4.33) «) i! i=l если функция распределения F(t) принадлежит классу НЛИ (НХИ).и k-i . Р (N (t) < к) < V] (kA(t/k)) е-кдц/ю , t 0> (4,34) (=г) 4J i! 1=0 если классу ВФИ (УФИ). Поскольку для каждой функции распределения из класса ВФИ имеет место неравенство A(t)^t/p для Кц, то неравенство (4.33) является более точной границей, чем (4.32). Если накоплен- ная интенсивность отказов A(t) известна, то с помощью выраже- ний (4.33) и (4.34) вероятность P(N(t)<k) легко оценить вруч- ную— требуется лишь таблица пуассоновского распределения. Если, в частности, F (t) = 1—e(t/e) (распределение Вейбулла— Гнеденко, то A(t) = (t/6)₽ и из (4.33) для 0^1 имеем оценку k~i .. P(N(t)<k)> JI t>0. i=t Функции Fk(t) для распределения Вейбулла—Гнеденко можно вычислять приближенно, поэтому данные оценки исключительно полезны. Для дисперсии N(t) известны следующие оценки [232, 31]: D2(N(t))^H(t) + (H,t))2; D2(N(t)) <H(t), если функция распределения F(t) принадлежит классу НЛИ (НХИ), и D2 (N (t)) < f—V—------(H(t))2, G₽) \ P / P если классу НСЛИ (НСХИ). 4.4. ПРЯМОЕ И ОБРАТНОЕ ОСТАТОЧНОЕ ВРЕМЯ Помимо считающего процесса восстановления {N(t)J и про- цесса, образованного моментами восстановления {Тк, к=1, 2, ...}, с процессом восстановления {Хп, п=1, 2, ...} связаны процессы 96
Рис. 4.3. Обратное и прямое остаточ- ное время для процесса восстановле- ния {Хп} дд bi(t) * {Rt, t>0} и {Vt, t>0}, называемые соответственно процессами прямого и обратного остаточного времени, где Rt=t—TN(t); (4.35) Vt=TN(t)+i-t (4.36) Отметим, что Rt есть обратное остаточное время, или возраст, а Vt — прямое остаточное время, или остаточная наработка работа- ющей системы к моменту t (рис. 4.3). При этом {Rt} и {Vt} являются однородными марковскими про- цессами с множеством состояний [0, оо). Они эквивалентны процес- сам {Хп} и {Тк} в том смысле, что по реализациям одного из про- цессов можно взаимно однозначно определить реализации другого. Вычислим функции распределения Rt(x) =P(Rt^x) и Vt(x) = = P(Vt^x) соответственно для обратного и прямого остаточного времени. По формуле полной вероятности и с помощью выражения (4.11) для x<t получим Rt(x) = P(TN(t)>t-x) = SP(t-x<Tk, N(t) = k) k=f = fp(t-x<Tk<t<Tk+1) = k=l oo t t = 2 J F(t—u)dFk(u) = f Fa-^dHJu). k—11—x t—x Отсюда t+x F(t-]-x—u)df*k(u)> x<t, 1, x>t. (4.37) (4.38) Если существует плотность восстановления hi (t) =dHi (t)/dt, to для соответствующей плотности распределения rt(x) =dRt(x)/dx получается выражение r (х) =(F(x)h1(t-x), x<t, . (4.39) ‘ (О, x^t. 7—6301 97
Функция распределения Vt(x) для прямого остаточного време- ни получается аналогично (4.37) после подстановки То=О: Vo(x)=Fo(x)-Fo(O+O)+Fo(O+O)F(x); Vt(x)= SP(Tk<t<Tk+1<t + x) = k=0 = Fx (t 4- x) - Fx (t) + 2> J (F (t+x-u) —F (t-u)) dFi- (u), t>0. k=l 0 Из выражения (4.11) следует t Vt (X) = Fx (t + x) - Fx (t) + j (Fk(t+X - u) - F (t - u))"dHx (u). о Принимая во внимание формулу t Fi^MJ-jFCt-uJdH» (cm. (4.13)), можно записать Vt(x) также в форме t Vt (х) = Fx (t+х) — f F (t + х — u) dHx (u) (4.40) 0 Соответствующая плотность распределения имеет вид t vt (х) = fx (t+ х) — j f (t + X — u) hx (u) du. (4.41) о Математическое ожидание прямого времени E(Vt)=p1+nH1(t)-t, где £ = JtdFx(t) и H=jtdF(t). о о Этот результат можно получить, применяя тождество Вальда (см. лемму 2.1) к уравнению (4.36), определяющему процесс. Замечание. Вероятность Vt(x) = l-Vt(x) (4.42) называется нестационарным коэффициентом оперативной готовности. Это есть вероятность того, что система, работающая к моменту t, не откажет на интер- вале (t, t—|-х]. Этот показатель надежности интересен на практике прежде всего тогда, когда работоспособность системы требуется лишь на определенных интер- валах времени. 98
Пусть теперь имеется процесс восстановления, порожденный функциями Fi и F. Заменим момент начала наблюдения: вместо t=0 выберем t>0. Случайный промежуток времени между момен- том t и следующим восстановлением составит Yi=Vt. Интервалы между восстановлениями Y2 = Xn(D+2> Y3 = XN(t)+3. • • • • Теорема 4.2 [66]. Последовательность {Yn, п=1, 2, ...} образу- ет процесс восстановления, порожденный функциями Vt(x) й F(x). Если {Nt (х)}—считывающий процесс восстановления, соответст- вующий {Yn}, то Nt(x)=N(t+x)—N(t). Отсюда и согласно фор- муле (4.3) имеем Р (N (t -|- х) — N (t) < k) = Vt * F*(k-,) (x). (4.43) 4.5 СТАЦИОНАРНЫЕ ПРОЦЕССЫ ВОССТАНОВЛЕНИЯ Мы предполагаем, что процесс восстановления, наблюдение за которым установлено в момент t=0, начался уже к этому моменту неограниченно давно. В этом случае можно интуитивно предпола- гать, что поведение этого процесса на интервале [t, оо) имеет такие же стохастические закономерности, что и на интервале [0, оо). Другими словами, ожидается инвариантность относительно сдвига свойств рассматриваемого процесса восстановления и, следова- тельно, их независимость от выбора начальной точки. Такой про- цесс восстановления мы называем стационарным. Точнее, мы даем следующее обусловленное теоремой 4.2 и формулой (4.43) опре- деление. Определение 4.4. Процесс восстановления, порожденный функ- циями Fi(t) и F(t), называется стационарным, если соответствую- щий ему стохастический процесс прямого времени {Vt, t^O} яв- ляется стационарным. Процесс {Vt, t^O} является марковским. Поэтому его стаци- онарность эквивалентна тому, что функции распределения Vt(x) не зависят от t: Vt(x) =V(x) для всех х^О и t>=0. Простой критерий стационарности и одновременно вид функ- ции распределения V (х) дает следующая теорема. Теорема 4.3. Если ц<оо, то процесс восстановления, опреде- ленный функциями Fi(t) и F(t), будет стационарным тогда и только тогда, когда Hi(t)=t/p (4.44) 7* 99
или F,(t)aFR(t) (4.45) (Fr(1) задается формулой (4.22)). Доказательство. Если процесс восстановления стационарен, то из соотноше- ния (4.43) следует, что вероятности P(N(t-|-x)— N(t)) =k), k=0, 1, ..., а значит и математическое ожидание E(N(t-(-x)—N(t)=Hi(t-(-x)— Hi(t) не зависят от t. Но таким свойством обладает только одна линейная функция восстановления Hi(t)=at-(-b, а>0. Из условия Hi(-|-0)=0 следует, что Ь=0 и согласно (4.23) должно выполняться равенство а=1/ц. Наоборот, из выражения (4.40) для Hi(t)=t/g следует соотношение Vt(x)=FR(x) для всех t^O и х^О (4.46) и, таким образом, стационарность процесса восстановления. Эквивалентность со- отношений (4.44) и (4.45) и составляет утверждение теоремы. Стационарность процесса восстановления можно интерпретиро- вать в терминах свойств соответствующего считающего процесса восстановления. Теорема 4.4. Процесс восстановления является стационарным тогда и только тогда, когда для произвольных натуральных чисел п, кь к2, ... , кп, а также для произвольных действительных чисел х, to, tb ... , tn, где O^to<ti< ... <tn, вероятности P{N(ti+x) — —N(ti-i+x)=ki}, i=l, 2, ... , n, не зависят от x. Так, стационарному процессу восстановления соответствует считывающий процесс восстановления со стационарными прира- щениями, или стационарный точечный процесс (см. разд. 10.3). Обычный процесс восстановления с непрерывной функцией рас- пределения F(t) является стационарным тогда и только тогда, когда F(t) = l—e“f/^, t2>0. Это следует из теоремы 4.3, если при- нять во внимание тот факт, что в классе непрерывных функций распределения экспоненциальное распределение характеризуется свойством F(t)H=FR(t). Тем не менее, теорема 4.4 свидетельствует что для каждого обычного процесса восстановления, порожденно- го функцией F(t) и такого, что ц<оо, существует однозначно опре- деленный (с помощью функций Fr (t) и F(t)) стационарный про- цесс восстановления. Для стационарного процесса восстановления и соответствую- щего считающего процесса {Nn(t)} имеют место соотношения t Р (Nr (t) > k) = — f (F*(k~l) (x) — F*(k) (x)) dx; (4.47) E (NR (t)) = у J H*(k-l) (x) dx. 0 100
В частности, t D4NR(t)) = AjH(x)dx + -i-- (-L)’. о В [98J доказаны неравенства ±sl---L _ _1Ез_ < 0г ш /н) < ----—-----—. р.» ц Зр.» v RV" и’ и 4ц* Моменты прямого остаточного времени V стационарного процесса восстановления задаются формулой Е (Vk) = f tk dFR (t) = -Л±1— t 0 где nk = JtkdF(t), k = 0, 1,... В частности, E(V) = (cs + Ix2)/2|x, где cs = J(t-i*)*dF(t), о откуда следует, что для а2>0 всегда E(V)>p/2. В то же время интуитивно можно предположить, что E(V)=p/2. Это так называ- емый «парадокс времени ожидания» [119]. Величина V удовлет- воряет тривиальной оценке V(t)=FK(t)Cl-t/H- Другие оценки для V(t)=Fn(t) получаются из выражений (3-29) и (3.31). Если функция распределения F(t) принадлежит классу НСЛИ (НСХИ), то из выражения (3.29) следует P(NR(t)>k)<P(N(t)>k) для всех к>1. (» 4.6. АСИМПТОТИЧЕСКОЕ ПОВЕДЕНИЕ ПРОЦЕССОВ ВОССТАНОВЛЕНИЯ В этом разделе изучается асимптотическое (при t->-oo) поведе- ние процесса восстановления, определенного с помощью распреде- лений наработки F, (t) и F(t). При очень слабых предположениях 101
относительно функции распределения F(t) можно показатель, что этот процесс восстановления ведет себя асимптотически так же, как и стационарный процесс восстановления, соответствующий функции распределения F(t). Это обстоятельство позволяет дать различные приближения для функции восстановления H(t) и для распределения величины N (t). Теорема 4.5. (Элементарная теорема восстановления). Для каждого начального распределения Fi(t) имеют место равенства р (lim -S- _ _L\ = 1; (4.48) kt-^o t p ] lim = J_ (4.49) t-*OO t |X причем ц = оо оба предела равны 0. Доказательство этого утверждения в основном опирается на усиленный закон больших чисел [119, 66]. Поскольку стационарность процесса восстановления эквива- лентна тождеству Hi(t)=t/p, то элементарная теорема восста- новления означает сходимость процесса восстановления к соответ- ствующему стационарному процессу. Говорят, что «устанавлива- ется стационарный режим» процесса. Определение 4.5. Случайная величина X называется арифмети- 00 ческой, если существует число h>0, такое, что S P(X=nh)= 1. п=0 В этом случае функция распределения величины X также называется арифметической. Теорема 4.6. (Основная теорема восстановления). Если F(t) не является арифметическим распределением, a g(t) —интегри- руемая невозрастающая на интервале (0, оо) функция, то для лю- бого начального распределения Fi(t) t оо lim f g‘(t — x) dHt (x) = — C g (x) dx. (4.50) t—>00 J J 0 0 Основная теорема восстановления была впервые доказана в [316]. Она оказалась полезным вспомогательным средством при решении большого числа задач теории надежности. В частности, выбирая специальным образом функцию [1, tG(O, h), g(t) = ] (О, в противном случае, можно получить как непосредственно следствие основной теоремы восстановления следующий результат. 102
Теорема 4.7 (теорема Блекуэлла). Если F(t) не является ариф- метическим распределением и р<оо, то для любого начального распределения Fi (t) и произвольного действительного h lim h) —Hj (t)) = h/t*. (4.51) t->oo Прямое доказательство этого утверждения можно найти, на- пример, в [119, 209]. В то время как элементарная теорема вос- становления выражает глобальную сходимость процесса восста- новления к стационарному режиму, теорема Блекуэлла описывает соответствующее локальное поведение. Из формул (4.38), (4.40) и основной теоремы восстановления получается теорема. Теорема 4.8 (теорема Дуба). Если F(t) не является арифмети- ческим распределением и р.<оо, то для любого начального распре- деления Fi (t) limRt(x) = limVt (х) =Fr(x). (4.52) t->oo t-*oo В качестве следующего вывода из основной теоремы восстанов- ления докажем дальнейшее усиление теоремы 4.5. ео Теорема 4.9. Пусть с2 = J(t — у.)2dF(t) < оо. Тогда о lim (Н, (t) — t» = а2/2|л2 — ^/p + 1/2. (4.53) t->00 Доказательство. Положим z(t)=Fi(t)—Fr(1). Согласно выражению (4.13) и теореме 4.1 t Hi(t) — t/j* = г(t) 4- J z (t— x) dH (x). 0 oo f__ -j- FR(t) dt = —------, из теоремы 4.6 по- о лучаем оо оо lim (Нх (t) - t/ц) = 4- f (F, (t) - FR(t)) dt = — [ (FR(t) - F, (t)) dt = t-»eo I* J 1* J 0 0 _ 1 °2 + P2 _ Pi “ P 2P p ’ 00 где [A, = J Fj (t) dt. 103
В частности, для обычного процесса восстановления (ц=Ц1) lim (Н (t) - t/jx) = А - 1). (4.54) t->OO Л Утверждение для плотности восстановления h(t), соответству- ющее теоремам 4.5 и 4.9, записывается как limh(t) = —. (4.55) t-*00 (Для его справедливости достаточно существования непрерывной плотности распределения f(t) [315]). Следующая теорема утверждает, что для больших t число вос- становлений N(t) распределено приблизительно нормально с ма- тематическим ожиданием t/p, и дисперсией оЧр.-3. Теорема 4.10. Пусть функции распределения Fi(t) и F(t) имеют конечные дисперсии ct2i и а2. Тогда limPf t-ХЭО \ О ]/ t|Ll~* <х) =Ф(х). (4.56) Доказательство. Очевидно, функция распределения Fj(t) не влияет на асим- птотическое распределение случайной величины N(t). Поэтому достаточно вы- вести соотношение (4.56) для обычного процесса восстановления. Воспользуем- ся соотношением / k \ P(Tk<t)=P 2 Xn<t =P(N(t)>k). \n=l / (4.57) Согласно центральной предельной теореме теории вероятностей имеет место ра- венство lim Pl k->oo k 3 Xn-^ <7 _ П=1 k |/Fa (4.58) Для произвольного, но фиксированного t>0 существует числовая последователь- ность {zk}, Zk=Zk(t), для которой lim zk = z и k = t/p. + zk |/T. k->oo Поэтому, принимая во внимание соотношение (4.57), имеем Р N(t)~ t/p |/Т 0]<t/p + zk]/T/ 104
Вследствие равенства (4.48) при t-^oo получаем /N(t) —t/jx \ /zl/ur\ limPl ————>г )=1-Ф[ )• t->0° у у t J \ ° / Подстановка №= zj/^/a в последнее выражение дает limP (> xl = 1 — Ф 6с). t-ню \ ° t|A 8 / Из соотношения (4.56) следует, что число отказов на интерва- ле (0, t] заключено с вероятностью 1—а внутри границ tn-’, —-----U«o * < N (t) < — ц Ц причем ua=ui_а/2 есть (1—а/2) -квантиль стандартного нормаль- ного распределения. Пусть вероятность ошибки первого рода а выбрана произволь- но. Тогда случайная величина N (t) с вероятностью 1—а принадле- жит отрезку [t/|A —Uac j/tp.-8, t/p. + Ueo /t|X“’]. (4.59) Пример 4.3. Пусть t=1000, p=10, 0=2 и <х=0,05. Поскольку ue=Uo,o5=s2, то случайная величина N(1000) с вероятностью 0,95 принимает значения из отрезка [96, 104]. Знание асимптотического распределения случайной величины N(t) при больших t позволяет, помимо всего, ответить на вопрос, поставленный в разд. 4.1: каково минимальное число запасных си- стем, необходимое для бесперебойной работы системы на интерва- ле (0, t] с заданным коэффициентом обеспеченности. Именно с ве- роятностью 1—а имеет место неравенство N(t) — t/p Отсюда находим, что число kmin запасных систем задается форму- лой Knit! “ Vl1 Uj (4.60) причем Ui_a есть (1—а)-квантиль стандартного нормального рас- пределения. Пример 4.4. Пусть t=2000, ц=20, 0=5 и а=0,01. Поскольку и0,от=2,32, то 200 2,32-5 Г 2000 kmin = 1020~ V 16" = 105,8106‘ 105
Итак, требуется по меньшей мере 106 систем, чтобы обеспечить бесперебойную работу системы за время (0, 2000] с вероятностью 0,99. Для t=200, |л=о=20, а=0,01 получается kmin^l7. В примере 4.1 мы пред- полагали, что F(t) = l—е~*/м> и получили число kmin=18. Различие можно объ- яснить тем обстоятельством, что значение t=200 недостаточно велико по сравне- нию со значением ц=20, поэтому отклонение результата, найденного по формуле (4.60), от точного не может быть пренебрежимо малым. Для вычисления второго момента N(t) при больших t можно использовать приближенную формулу Е (N (t))2 - -L +1/|* - I) + о (1). н Отсюда следует (см. с теоремой 4.10) D2(N(t))=tcr2/p,3+o(l). Последний результат можно усилить [93]: D2(N(t)) =to2/p,3+(1/12+5о4/4р,4—2Из/Зц3)+о(1). Для стационарного считающего процесса восстановления Nr(1) D2 (Nr (t)) = — д- (— + — —-М 4-0(1). ' КЛ ” ц’ ( 6 т 2|Х< Зц3 ) 1 ' ’ 4.7. АЛЬТЕРНИРУЮЩИЕ ПРОЦЕССЫ ВОССТАНОВЛЕНИЯ До сих пор мы предполагали, что восстановление отказавшей системы занимает время, пренебрежимо малое по сравнению с на- работкой. Это предположение, однако, на практике часто не вы- полняется. Поэтому рассмотрим следующий процесс восстановле- ния. Первая из наблюдаемых систем отказывает спустя случайную наработку Xi и полностью восстанавливается по прошествии слу- чайного времени Yb Восстановленная система работает время Х2, затем наступает отказ и новое восстановление через время Y2 и т. д. (рис. 4.4). Моменты времени Ti=Xb T2=Xi+Yi4-X2 ,... , в которые система отказывает, называют моментами отказов или моментами 0-восстановлений, а моменты времени Si=Xi+Yb S2=Xi4-Yi+X2+Y2, ... , в которые заканчиваются восстановле- ния— моментами восстановления (или 1-восстановлениями). Определение 4.6. Если {Xn, п^1} и {Yn, n^l}—две последо- вательности независимых одинаково распределенных неотрица- тельных случайных величин, то последовательность {(Xn, Yn), п2>1}, так же как и последовательность {(Tk, Sk), 1}, называ- ется альтернирующим процессом восстановления. Процесс восстановления, заданный определением 4.6, можно эквивалентным образом описать процессом {Z(t), tZ>0} с помо- 106
Z(t) tZZXZ^ZZ5Z£Z5ZZ5 * *1 V, x2 y2 x3 y3 I I I . I I Illi 4---i---*-4- S1 T2 S2 T3 83 Рис. 4.4. Реализации альтернирующе- го процесса восстановления Рис. 4.5. Реализации процесса {Z(t)J щью соотношения (О, 2(t) = (j если t G[Tk, Sk), в противном случае, (4-61) поскольку реализации процесса {(Xn, Yn)} или {(Tk, Sk)} взаимно однозначно определяются по реализациям процесса {Z (t)}. По оп- ределению процесс Z(t) задает состояние системы в момент t: :Z(t) = l, ели система работает в момент t, и Z(t) = 0, если систе- ма в момент t восстанавливается (рис. 4.5). Приведенное определение альтернирующего процесса восста- новления (являющееся обобщением понятия обычного процесса восстановления) подразумевает, что к моменту начала наблюдения t=0 в работу включается новая система и все восстановления происходят полностью. Положим F(t)=P(Xn^t) и G(t) = = P(Yn^t), п=1, 2, ... . Функция F(t), в частности, является функцией распределения времени до первого изменения состояния. Некоторое обобщение заключается в том, что она представляется в виде смеси pF(t) + (1—p)G(t). Здесь р есть вероятность того, что в момент t=0 система начинает работу, а 1—р — вероятность того, что в момент t=0 система начинает восстанавливаться: P(Z(+0) =0) ==1—р и P(Z( + 0) = l) =р. Еще несколько более общее предположение состоит в задании функции pFi (t)-j- (1—р) X XGi(t), где Fi(t)^F(t), Gi(t)^G(t), и интерпретируется, как и ранее. Оно приводит к модифицированным альтернирующим про- цессам восстановления. Однако в дальнейшем будем заниматься исключительно альтернирующими процессами восстановления в смысле определения 4.6. В этом случае P(Z(+O) = 1) = 1. Через No(t) мы обозначим случайное число 0-восстановлений, а через Ni(t)—случайное число 1-восстановлений на интервале (0, t]. Очевидно, N0(t) и Ni (t) являются считающими альтерниру- ющими процессами, которые определяются функциями распределе- ния F(t) и (G>|<F) (t) (соответственно (F>|<G(t)), так что можно применять результаты разд. 4.1—4.6. Согласно формулам (4.2) и (4.3) справедливы соотношения Р (No (t) > к) = Р (Tk < t) = F * (G * F)*(k-1) (t); (4.62) Р (N, (t) > к) = P (Sk < t) = (F * G)*(1° (t). (4.63) 107
Отсюда средние значения 0- и 1-восстановлений на интервале за- даются функциями восстановления Но (t) = Е (No (t)) = £ F * (G * F)*(k-1) (t) (4.64) k=l И Ц(t) = E(Nx(t)) = 3 (F * G)*(k) (t). (4.65) k=l Особый интерес представляют вероятности P(Z(t)=i, W’^x), i=l, 2, где Vt(1) означает остаточную наработкку, а Vt<2)— остаточное время восстановления. Очевидно P(Z(t) = l, Vt<1)>x) означает вероятность того, что исправная к моменту t система не откажет на следующем интервале времени (t, t-|-x]. С учетом соотношения (4.61) по формуле полной вероятности по- лучаем P(Z(t)=l, Vt(n>x) = P(t + x>Xl) + 00 + S P(Sk<t, t-f-x<Sk + Xk+1) = F(t4-x) + k=l oo t + S JP(t + x<u + Xk+1)d(F*G)*<k)(u). k=10 Из (4.65) следует t P(Z(t)=l, Vt^ >x) — F(t-|-x)-p Jf (t-f-x —u) dH^u). (4.66) о Это так называемый нестационарный коэффициент оперативной го- товности для альтернирующего процесса восстановления (ср. с (4.42)). Нестационарный коэффициент готовности определяется соотношением K(t)=P(Z(t) = l)=E(Z(t)). (4.67) Он равен вероятности того, что система работает в момент t. (Оп- ределение (4.67) годится для произвольных систем, которые могут находиться в состояниях 0 или 1, соответствующим образом интер- претированных, независимо от того, можно или нельзя описать про- цесс функционирования системы как альтернирующий процесс восстановления). Если положить в соотношении (4.65) х=0, то для этого частного случая t К (t) = F (t)+ f F (t - u) dHx(u). (4.68) 0 108
Замечание. Соотношения (4.65), (4.66) и (4.68) справедливы также тогда, когда случайные величины Хп и Уп не являются независимыми, независимы лишь суммы (Xn+Yn), п=1, 2, ... (см. теорему 11.1). Нестационарный средний коэффициент готовности определяет- ся соотношением t £(t)=-bjK(u)du. О Согласно (4.68) К (t) можно представить в следующем виде: t_ t К (t) = -L J F (u) du + J- f (Ц (u) — (F * Hj (u) du. о 0 (4.69) Прямые вычисления по формулам (4.62) — (4.66), (4.68) и (4.69), вообще говоря, невозможны или сопряжены с существенными за- труднениями. К сожалению, лишь в немногих частных случаях можно дать точные формулы для рассматриваемых характеристик. Например, для F(t) = 1—e_t/>* нестационарный коэффициент го- товности задается формулой K(t) = Н I v e-(l/H + l/»)t (4.70) если G (t) = 1 — e t/”, и формулой K(t) = у' (t~^)fc e-(t-kv)/ix, k=o 1x41 (4.71) если величина Y равномерно распределена на отрезе [0, v]. Здесь (t/v] означает целую часть t/v. Вместо нестационарных коэффициентов оперативной готовно- сти и готовности и нестационарного среднего коэффициента готов- ности, заданных на интервале (0, t), при t->oo, часто применяются также соответствующие асимптотические величины. Представление о них дает следующая теорема. Теорема 4.11. Пусть функция распределения (FsfcG) (t) не яв- ляется арифметической и пусть p-|-v<oo, где I* = J F (u) du, v = J G (и) du. о о 109
Тогда справедливы соотношения 00 Кх = lim (Р (Z (t) = 1, V(t0 > х) = —— f F (u) du; (4.72) f->00 0 t К = lim к (t) = lim — [ к (u) du = + v). (4.73) t—>GO t->00 t J 0 Доказательство. Положим g(u) = 1—F(u+x). Тогда из (4.50) получим t 00 lim f F (t + x — u) dHj (u) =- f F (u + x) du. t->oo J Ц + v J 0 0 Следовательно, соотношение (4.72) доказано. Аналогично доказывается соот- ношение lim К (t) = ц/(Н + *). t—>00 откуда элементарно следует утверждение (4.73). Таким образом, при t->oo стационарность обусловливает неза- висимость рассматриваемых коэффициентов от времени. Поэтому Кх и К называются также соответственно (стационарным) коэф- фициентом оперативной готовности и (стационарным) коэффици- ентом готовности. По аналогии с процессами восстановления здесь тоже можно добиться стационарности «с самого начала», задавая начальные условия в виде, pFi(t) + (l—p)Gi(t) (см. разд. 10.2). Формулу (4.72) можно записать и так: Kx=K(1-Fr(x)). (4.74) Следовательно, в стационарном режиме вероятность безотказной работы на интервале х равна произведению вероятности того, что система работает к началу данного интервала, на коэффициент оперативной готовности для соответствующего процесса восста- новления с пренебрежимо малым временем восстановления (ср. с (4.42)). Из соотношений (4.72) и (4.74) следует элементарная оценка для коэффициента оперативной готовности: Kx>l-(x+v)/(n+v). Коэффициент готовности К уже согласно формуле К= = (v/jx+1)-1 задан через отношение среднего времени восстанов- ления v к средней наработке р,. Он зависит поэтому от точного ви- да функций распределения F(t) и G(t). Правда, для произволь- ных функций F(t) и G(t) трудно установить, с какой скоростью нестационарный коэффициент готовности K(t) приближается к предельному значению К. Вообще говоря, можно лишь утверждать, что при постоянных средних значениях предельное значение уста- 110
навливается тем медленнее, чем меньше сумма дисперсий нара- ботки и времени восстановления. Если же плотности f(t)=F'(t) и g(t)=G'(t) экспоненциально стремятся к нулю, т. е. если fftXqe-”*1, gOXqe"’*1, то коэффициент готовности K(t) сходится с экспоненциальной ско- ростью к предельному значению К: |K(t)-K|<ce-4 Для частного случая f(t) = 1/у,е-‘/»1 и g(t) = l/ve-*^ из форму- лы (4.70) и соотношения (4.73) следует £0.) _ К - е~(l/H+l/v)t (l/n+!/»)t Если мы, например, хотим, чтобы значения K(t) и К совпадали в четырех знаках после запятой, необходимо, чтобы выполнялось неравенство е—С1/Р.+ 1/»)* 10-4 2 ИЛИ t>-(l/^+Vvr1ln(-^-10-4) 10(1/р,+ l/v)-‘. Для этого, в свою очередь, достаточно, чтобы t>min(p, v). Та- ким образом, значения K(t) и К совпадают, по крайней мере в первых четырех знаках после запятой, после десятикратной сред- ней наработки (ц<М или после десятикратного среднего времени восстановления (p^sv). Полезные характеристики можно получить для процесса, опи- сывающего состояние системы: {Z(t), t^O}. Это прежде всего суммарное время безотказной работы U (t) и суммарное время про- стоя D (t) за интервал (0, t] (см. рис. 4.6): t t и (t) = f Z (u) du, D (t) = t — U (t) = f (1 — Z (u)) du. (4.75) о 6 Очевидно, что U (t) равняется сумме наработок Xj (которые мы интерпретируем здесь как рабочие периоды) до момента t, включая, возможно, неполный рабочий период, непосредственно примыкаю- щий к моменту t. При этом D(t) есть сумма всех времен восста- новления Yi (включая последнее, возможно, неполное) до момен- та t. При изучении случайных величин U(t) и D(t) нередко при- влекают также связанные с ними величины [247, 152] Bi(t)=min(x : U(x)>t}, B2(t) =Bi(t)-t, (4.76) ill
Рис. 4.6. Суммарное время безотказ- ной работы и суммарное время про- стоя причем величина Bi(t) задает случайный момент, в который суммарное время безотказной ра- боты достигает величины t, а B2(t) равняется времени простоя на интервале (0, Bi(t)]. На практике часто задается значение (скажем равное х) суммарного времени безотказной работы,при достижении которого система за- меняется на другую. Случайная величина Bi (х) есть как раз ка- лендарная наработка системы, оценивающяа ее качество. При этом выполняются соотношения P(B1(x)>t)=P(U(t)^x), Р (D (t)<x) = Р (В2 (t—х) <х). Функции распределения случайных величин D(t) и U(t) (а тем самым и B2(t—х) и Bi(x)) и их асимптотическое поведение при t->-oo изучались в [275, 156] (см. также разд. 4.8, теорему 4.15, примеры 4.6 и 4.7). Упомянем здесь, кроме того, что t E(U(t)) = $K(u)du, (4.77) О поскольку по теореме Фубини (t t Jz(u)du) = jE(Z(u))du, о о если один из интегралов существует. Таким образом, нестационар- ный средний коэффициент готовности на интервале (0, t] соответ- ствует согласно (4.77) средней доле суммарного времени безот- казной работы системы на интервале (0, t]. В частности, из соот- ношения (4.73) следует, что коэффициент готовности также озна- чает среднюю долю времени, когда система находится! в рабочем состоянии. 4.8. РЕГЕНЕРИРУЮЩИЕ ПРОЦЕССЫ И ПРОЦЕССЫ НАКОПЛЕНИЯ Мы уже указывали на то, что теория восстановления помимо ее самостоятельного значения является также и теоретической ос- новой для изучения систем. Это справедливо в отношении таких систем, для которых в процессе работы наступают моменты реге- 112
рации. Они примечательны тем, что поведение системы после лю- бого такого момента не зависит от предыстории. Моменты регене- 1 рации разбивают фазовый процесс (стохастический процесс, опи- J сывающий поведение системы во времени) на отрезки, которые на- зываются циклами регенерации. Последние описывают, таким об- разом, поведение системы между двумя последовательными мо- ментами регенерации. Каждый момент регенерации является мо- 1 ментом восстановления. Однако в отличие от теории восстановле- ния здесь представляет интерес не только время между моментами регенерации, но и поведение системы. Определение 4.7. Пара {L, {Z(t), O^t<L}}, образованная по- ложительной случайной величиной L и случайным процессом । {Z(t), O^t<L} со значениями в 3, называется циклом регнера- I ции длины L. ; Вместо цикла регенерации будем говорить обычно просто а । цикле и обозначать его короче: {Z(t), O^t<L}. С помощью цик- Ч лов можно исчерпывающе записать поведение системы во времени. Рассмотрим бесконечную последовательность {{Zn(t), O^t<Ln}> ‘I n^l} независимых, а для n^2 одинаково распределенных слу- I чайных величин, которые удовлетворяют с вероятностью 1 усло- вию 00 j 0 < Ln < ©о, 2 Ln = °°- (4.78} I n=1 Очевидно, моменты I 00 Тп=2Ьь п = 1, 2 1=1 образуют процесс восстановления. Положим ; оо > F1(t) = P(L1<t), F(t) = P(La<t) и »*=jF(t)dt. г о ') Пусть, кроме того, N(t)=max{n : Tn^t} означает считающий про- цесс восстановления, соответствующий процессу {Tn, п^1}. s Определение 4.8. Процесс, заданный на полупрямой [0, со) с помощью соотношения j Z(t)=ZN(t)(t-TN(t)), (4.79} ( называется регенерирующим (стохастическим) процессом с момен- тами регенерации Тп, п^1. Для п^2 имеет место одинаковое ве- роятностное распределение циклов процессов {Zn(t), O^t<Ln}. 8—6301 из !
Замечание. В гл. 10 рассматриваются все классы стохастических процессов, которые важны в теории надежности и которые являются регенерирующими процессами (или их обобщениями, полученными в результате ослабления требо- вания независимости). По этой причине здесь опускается подробное описание математических формальностей. Нетривиальным примером регенерирующих процессов являются введенные в предыдущем разделе альтернирующие процессы вос- становления. В качестве моментов регенерации можно выбрать мо- менты 0-восстановлений. Цикл в этом случае состоит из рабочей фазы и примыкающей к ней фазы восстановления системы. (Точно так же за моменты регенерации можно принять моменты 1-восста- новлений.) Процесс Z(t) может находиться в состояниях 0 или 1 в зависимости от того, восстанавливается система в момент t или нет: 3={0; !}• Другие примеры регенерирующих процессов при- ведем без специальных оговорок в гл. 5. Там будут обсуждаться стратегии технического обслуживания, применение которых порож- дает такие моменты времени (моменты регенерации), в которые система полностью восстанавливается. Для представления одномерного распределения регенерирую- щего процесса обозначим через H(t) функцию восстановления, соответствующую процессу восстановления {Ln, n^l}. В целях упрощения обозначений введем «типично» распределенный цикл {Z(t), 0<it<L} (т. е. имеющий такое же распределение, как все циклы {Zn(t), O^t<Ln}, nl>2), и определим функцию U(t, B)=P(Z(t)G=B, L>t). (4.80) Тогда по формуле полной вероятности t P(Z(t)GB)-P(Z1(t)GB> L1>t) + jU(t-u, B)dH(t). (4.81) о Регенерирующий процесс {Z(t)} называется синхронным, если все циклы распределены одинаково. В этом случае моменты ре- генерации Тп образуют обычный процесс восстановления. Напро- тив, регенерирующий процесс называется асинхронным, если на- чальный цикл {Zi(t), O^t<Li} имеет не такое распределение, как цикл {Z(t), O^t<L}. Таким образом, синхронные (асинхронные) регенерирующие процессы представляют собой обобщение обыч- ных (запаздывающих) процессов восстановления, поэтому нагляд- ная интерпретация этих двух типов регенерирующих процессов пе- реносится из теории восстановления. Синхронный регенерирующий процесс полностью определяется распределением цикла. Он обла- дает— по аналогии с обычными процессами восстановления — сле- дующим свойством инвариантности: для каждого п^1 регенери- рующие процессы {Z(t), t>0} и {Z(t+Tn), t^O} являются сто- хастически эквивалентными, их эволюция определяется одинако- 114
выми вероятностными характеристиками. (Каждый момент реге- нерации может быть выбран в качестве начала отсчета времени.) Из разд. 4.5 известно, что в случае конечной средней наработ- ки каждому обычному процессу восстановления соответствует ста- ционарный процесс восстановления и наоборот. Оба этих процесса определяются функцией распределения наработки F(t). Соответ- ствующее утверждение имеет место для регенерирующих процес- сов. Вместо обычного процесса восстановления выступает синхрон- ный регенерирующий процесс, а роль распределения наработки играет распределение цикла. Точнее, имеет место теорема. Теорема 4.12. Пусть {Z(t), t^O}—синхронный регенерирую- щий процесс, циклы которого распределены как {Z(t), O^t<L}. Если p=E(L) <oo, то существует ровно один стационарный реге- нерирующий процесс {Z(t)}, обладающий следующими свойствами: 1. Циклы {Zn(t), O^t<iLn} процесса {Z(t)} для п^2 распре- делены так же, как величина {Z(t), O^t<L}. 2. Начальный цикл {Zi(t), O^t<Li} имеет распределение, од- нозначно определенное распределением {Z(t), O^t<L}. В част- ности, P(Z(0)GB) = — fU(t, B)dt, ВсЗ, (4.82) И J о где U(t, В) задается соотношением (4.80), а также формулой t р (L, < х) = Fr (х) = — f F (t) dt. (4.83) И о С помощью обычных методов интегрирования получают ут- верждеие, эквивалентное (4.82), но сформулированное в более общем виде: для каждой неотрицательной функции g, заданной на множестве 3 L, Е (g (Z (0))) = А Е М* g (Z (t)) dt). (4.84) 'о ' Это соотношение известно как теорема о среднем значении для ре- генерирующих процессов. Следующая теорема утверждает, что произвольный регенери- рующий процесс, для которого 0<|i<oo, при достаточно больших t ведет себя так же, как соответствующий стационарный процесс с тем же распределением циклов. Теорема 4.13 (теорема Смита). Пусть {Z(t), t^O}—произ- вольный регенерирующий процесс, для которого справедливы нера- 8* 115
венства 0<E(Li)<oo и 0<ц<оо. Если F(t) не является арифме- тической функцией распределения, то 00 limР (Z (t) G В) = — f U (t, В) dt = Р (Z (0) G В). (4.85) t-»oo р J о Утверждение теоремы следует непосредственно из формулы (4.81), если применить основную теорему восстановления (теорема 4.6). Если допустить, что F(t) может быть арифметическим рас- пределением, то в предположениях теоремы 4.13 имеет место бо- лее слабое утверждение (см. также теорему 10.23): T 00 lim — f Р (Z (t) G В) dt = — f U (t, B) dt. (4.86) T-ню T J J 0 0 Стохастические процессы накопления. Наряду с фазовым про- дессом {Z(t)^O}, который описывает поведение системы на от- дельном цикле, интересны также утверждения, которые относятся к интервалу [0, t), состоящему из ряда циклов и, возможно, од- ного неполного цикла. Подобного рода «общие эффекты» можно описать аналитически в виде t C(t) = Jg(Z(u))du, (4.87) о где g — действительная функция на множестве 3- Так, например, определены согласно соотношениям (4.75) характеристики альтер- нирующего процесса восстановления, а именно общее время без- отказной работы и общее время простоя на интервале [0, t), мож- но задать в виде (4.87) при g(u)su и g(u) = l—и. Определение 4.9. Пусть {Z (t)}—регенерирующий процесс, а g — действительная функция на множестве 3- Тогда процесс {С(t), t^O}, определенный с помощью {Z(t), t^O} и функция g, называется (стохастическим) процессом накопления. Моменты Тп, п^1 являются моментами восстановления ре- генерирующего процесса {Z(t), t^O}. Очевидно, что C(t) можно представить в виде N(t) t'-TN(t) C(t)=C1+SC1+ j g(ZN(t)(u))du, (4.88) i=2 0 где Li g(^i(u))du, i = 1, 2..... о 116
•есть составляющая C(t), относящаяся к i-му циклу. Поскольку {Z(t), t>0} является регенерирующим процессом, то величины Ci .для i^2 являются независимыми и распределенными так же, как величина С= Jg(Z(u))du = C2 = J g(Za(u))du. 9 О Пусть {Ln, n^l} —процесс восстановления, a {Cn, п^1}— последовательность независимых и для п^2 одинаково распреде- ленных случайных величин. Пусть, кроме того, независимы век- торы {(Ln, Сп), n^l}. Двойная последовательность {(Ln, Cn), n^l} называется процессом восстановления с доходами. При этом Сп интерпретируется как доход (выигрыш, потери и т. д.), который связан с циклом восстановления Ln или с моментом восстановле- ния Tn=Li+ ... +Ln. Общий доход N(t) C(t)=£Ci, (4.89) i=l полученный за время [0, t), мы также называем процессом накоп- ления, хотя выражение (4.89) нельзя представить в виде (4.88). (Для того чтобы это стало возможным, следует модифицировать определение 4.9 [74].) Среднее значение общего дохода в данном случае определяется как E(C(t))=E(Ci) + (Hi(t)—1)Е(С). Все приводимые ниже асимптотические утверждения для про- цессов типа (4.88) справедливы и для процессов типа (4.89). Пример 4.5. В разд. 3.2 была рассмотрена простая модель ударных нагру- зок: моменты, в которые на систему действуют удары, причиняя повреждения, образуют пуассоновский процесс с параметром а. Цена отдельного удара в общем ущербе (кумулятивном) является случайной величиной с функцией распределения G(t). Согласно выдвинутому в разд. 3.2 требованию независимо- сти динамику общего ущерба можно описать процессом накопления вида (4.89). Тогда математическое ожидание общего ущерба за время [0, t) Е (С (t)) = Е (N (t)) Е (С) = at j G (х) dx. О В разд. 3.2 в рамках этого примера нас интересовало, через какое время процесс накопления достигнет заданного уровня или превзойдет его. Детальное обсуждение этой проблемы проводится в подразд. 7.2.3 для общего класса процессов накопления. Теорема 4.14. Пусть {Z(±), t^O} — регенерирующий процесс, для которого E(Li)<oo и р,<оо. Пусть также процесс накопле- ния {C(t), tz^O}, образованный процессом {Z(t)} и функцией g, 117
обладает свойствами E(|Ci|)<oo, Е(С)<оо и (t \ f g(Z (u)) du I <оо. Тогда справедливы уравнения о / .. C(t) Е(С) / ч ,.ПЛ4 lim -^-г=——- (почти наверное); (4.90) пгаЕ£<1»_е<а. (4.91) t—>00 t Это утверждение получается из выражения (4.88) с помощью усиленного закона больших чисел. Точно так же из выражения (4.88) и центральной предельной теоремы получается централь- ная предельная теорема для процессов накопления. Теорема 4.15. С учетом условий теоремы 4.13 и при дополни- тельном условии 0<о2=Е (c-^lY \ и / для каждого действительного х Р (С (t) - ПГ- С х) = Ф (X). (4-92) Теорема 4.14 означает, что среднее в единицу времени значе- ние С (t) при неограниченном времени работы равно среднему в единицу времени значению C(t) за один цикл. Согласно теореме 4.15 при достаточно больших t оно является приблизительно нор- мально распределенным с математическим ожиданием E(C)=t/p и стандартным отклонением о]/t/i*. Пример 4.6. Для процесса накопления {U(t)}, означающего общее время безотказной работы (см. соотношение (4.75)), по формуле (4.91) или (4.92) получаются асимптотические выражения (здесь p,=E(X)-{-E(Y), Е(С)=Е(Х)) Е (U ft)) ~---------t, D2 (U (ti) ~-----------t, 1 " Е (X) + Е (Y) ’ 1 ' " (Е (X) + Е (Y))» где о2= Е2 (X) Е2 (Y) (D2 (X) Е-2 (X)H-D2 (Y) Е~2 (Y)) (Е (X) -|-Е (Y)) -2. Для процессов накопления справедливо обобщение теоремы Блекуэлла. Теорема 4.16. Если распределение F(t) = P(L^t) не является арифметическим, то в предположении теоремы 4.13, для каждого h>0 lim Е (С (t 4- h) — С (t)) = h Е (С)/ц. (4.93) t->00 118
Пример 4.7. Пусть процесс функционирования восстанавливаемой системы описывается альтернирующим процессом восстановления с рабочей фазой и фа- зой восстановления. Распределения времени работы X и времени восстановления Y не известны полностью, однако с помощью оценок по результатам испытаний получены значения первых двух моментов этих случайных величин: Е(Х) = = 1000 ч, Е(Х2)=1 100 000 ч2, Е(У)=2 ч, Е(У2)=8 ч. Отыскивается вероятность того, что система за время 10 000 ч будет восстанавливаться более 24 ч. Циклы исходного регенерирующего процесса имеют случайные длины L=X-|-Y с пара- метрами p,=E(L)=1002 ч и Е(С) = 1000 ч (С=Х есть длина рабочей фазы на одном цикле). Соответствующий процесс накопления {C(t), t^0} образован по формуле (4.75), если положить C(t)=U(t). Отсюда согласно равенству (4.92) получается приблизительное выражение для искомой вероятности р (С (10 000X9976) = Р (^5 (с (10 000) - 10 000 < 31,7/ 1000Х \ <-^; 9976— 10000—— = Ф(—0,68) =0,248. 1000 \ 1002 ) v ' ГЛАВА 5. ВОССТАНОВЛЕНИЕ ПРИ ВНЕЗАПНЫХ ОТКАЗАХ СПИСОК ОБОЗНАЧЕНИЙ Ск эксплуатационные затраты на k-м цикле Lk длина k-го цикла Ят времена соответственно между двумя последователь- ными аварийными восстановлениями и между двумя восстановлениями произвольного типа при страте- гии 1 Ro, R1/R2 интенсивности эксплуатационных затрат при страте- гиях 0, 1 и 2 (см. разд. 5.3) Hi(t),H2(t) среднее число всех восстановлений за время (0, t] при стратегиях 1 и 2 Хк момент £-го минимального восстановления fк (t) плотность распределения Хк Yk Хк-Хк-ь к> 1, Х0=0 {gt, ^0} нестационарный точечный процесс с параметром A(t) Pk(0 PUt=k) г(т) математическое ожидание остаточной наработки для _ системы, которая проработала время т p(t), p(t) вероятности наступления отказа 1-го и 2-го типа Y время до наступления отказа 2-го типа 119
Yh продолжительность аварийного восстановления эле- ментов в дублированной системе G(t) P(Y^t), P(Yh^t) Zx число отказов 1-го типа, наступивших за время (О, min(Y, х)) Yp продолжительность профилактического восстановле- ния элемента в дублированной системе D(t), B(t) P(r<t), P(Yp<t) Wij(t) переходные вероятности М(т) средняя наработка дублированной системы В этой главе исследуются (вплоть до разд. 5.6) восстановле- ния простых систем (элементов). Простейшая по своей структуре стратегия восстановления таких систем изучалась уже в предыду- щей главе, когда делалось предположение, что система полностью восстанавливается после каждого отказа. Такая стратегия из- вестна в литературе как стратегия аварийных замен. В данной главе основное внимание сосредоточено на оптимальном динами- ческом планировании профилактических замен. В качестве крите- риев оптимальности служат прежде всего средние затраты на вос- становление в единицу времени (интенсивность затрат на восста- новление) и коэффициент готовности. Сравнение этих критериев с соответствующими критериями для стратегии аварийных замен позволяет оценить эффективность стратегий восстановления. В затраты на восстановление могут в данном случае входить также затраты, связанные с ущербом в результате отказов, при- чем описание дается в рамках той же модели. Чтобы учесть это обстоятельство, мы говорим, следуя [35], не о затратах на восста- новление, а об эксплуатационных затратах (интенсивностях за- трат) как критерии оптимальности. Рассматривая простые системы, мы делаем некоторые прин- ципиальные предположения, которые, вообще говоря, в дальней- шем не будем прямо оговаривать: 1. Система находится всегда в одном из двух состояний: рабо- тоспособности или отказа. Переход из состояния работоспособ- ности в состояние отказа наступает в результате внезапного от- каза. 2. Распределение наработки системы принадлежит классу ВФИ. Соответствующая плотность распределения существует и является непрерывной. 3. Процесс функционирования системы продолжается неогра- ниченно долго (достаточно долго). 4. Если прямо не оговорено противоположное, то считается, что все мероприятия по восстановлению осуществляются за пре- небрежимо малое время, после чего система мгновенно начинает работу. Общим для всех стратегий восстановления, рассматриваемых в этой главе и частично в следующих, является то, что спустя опре- 120
деленные случайные или детерминированные интервалы времени производится полное обновление системы. Тем самым время функ- ционирования системы разбивается на циклы, т. е. на интервалы, стохастически эквивалентные относительно длины и затрат. Точ- нее говоря, смысл определения цикла состоит в следующем. Если Ci — эксплуатационные затраты в i-м цикле, имеющем длину Li, то (Ci, Li), i = l, 2,... — независимые одинаково распределенные случайные векторы (через С, L) обозначаем случайную пару с этим же распределением). Таким образом, последовательность {(Ct, Lt), i=l, 2,...} образует процесс восстановления с дохода- ми (см. стр. 117). Поэтому эксплуатационные затраты C(t) на ин- тервале (0, t) задаются выражением (4.89). Точное определение интенсивности эксплуатационных затрат R дается формулой R = lim Е (с (t))/t t-*ao Согласно уравнению (4.91) для Е(С)<оо и E(L)<oo R=E(C)/E(L). (5.1) В этой главе интенсивность эксплуатационных затрат будем нахо- дить с помощью последнего отношения, не делая специальных ого- ворок. 5.1. СТРОГО ПЕРИОДИЧЕСКОЕ ВОССТАНОВЛЕНИЕ Эта стратегия известна под названием «восстановление в зави- симости от возраста». Стратегия 1. Система восстанавливается после отказа. Если она проработала без отказов заданный интервал времени т, то проводится профилактическая замена (рис. 5.1). Восстановления, которые производятся после отказов, называются аварийными. Как профилактические, так и аварийные восстановления являют- ся полными. Пусть и т]т — случайные времена соответственно между дву- мя последовательными аварийными восстановлениями и двумя последовательными восстановлениями произвольного типа. Тогда P(^<t) = 1 —(F(O)nF(t — пт), пт<t < (п + 1) т, п = 0, 1, ...; (5-2) ₽K<t)=(F(t)’ °<;<г (5.3) 11, Т Если обозначить Мь(т)=Е(£т) и М(т)=Е(цт), то 121
00 00 _ (n+1) MhW= [P(Bt>l)dt = 3 (F « J F(t-nx)dt, 6 n=0 nx откуда следует Mh0)= F^fF(t)dt’ ' о 0 (5-4) Моменты, в которые производятся аварийные восстановления, профилактические восстановления или восстановления произволь- ного типа, задают согласно определению 4.1 процессы восстанов- ления. Если обозначим через Профилактическая Профилактическая замена замена I Аварийное | I Восстановление | Т х 2т х-ы Рис. 5.1. Строго периодическое вос- становление Мр(т) математическое ожидание времени между двумя профилак- тиками, то 1ь(т) = 1/Мь(т), 1р(т) = 1/Мр(т) и 1(т) = 1/М(т) будут означать среднее число со- ответственно аварийных восста- новлений, профилактик и восста- новлений произвольного типа в единицу времени (см. равенство (4.49)) и справедливо соотноше- ние I (т) = Ih(r) +1р(т). Из (5.4) следует Мр(г) = ^!_ [F(t)dt. (5.5) F(t) J Лемма 5.1. Пусть функция F(t) непрерывна и принадлежит классу ВФИ. Тогда при возрастании т, т>0 а) среднее число аварийных восстановлений 1ь(т) монотонно возрастает, б) среднее число профилактик 1р(т) монотонно убывает. Доказательство. Докажем 5.1,а. Доказательство 5.1,6 производится анало- гично. Пусть О^х^у<оо. Согласно определению класса распределений ВФИ Fx(t) t Fx(u) du Fy(t) Fy (u) du или 122
F(t + x)-F(x) F(t + y)-F(y) t+к x ^t+y у J F (u) du — J F (u) du J F (u) du — у F (u) du co oo (I) Для x=0 и y=t отсюда получаем Ih(t)^Ih(2t). Если предположить также, что Ih((n— l)t)^Ih(nt), то F(nt) —F((n — 1) t) Ifi ((n 0 Q < "Tit (n—1) t * ( F (u) du — C F (u) du о о Из неравенства (I) при x=(n—l)t и y=nt следует - (II) F (n+l)t_ (nt) f F(u) du — F nt ((n+l)t) fF(u)du< 0 <F((n-I) t) '(n+l)t nt -I (n—1) t J F (u) du—J F (u) du - J F(u)du[F((n-b l)t) — _ 0 0 Jo -F(nt)]. R = limE (C(t))/t. t->00 Но правая часть этого неравенства неположительна вследствие условия (II). Отсюда по индукции выводится Ih(nt)^Ih((n-j-l)t). Итак, имеет место неравен- ство Ih(kt)<Ih((k4-l)t), Ь=1, 2, ... . Поскольку значение t можно выбрать положительным и произвольно малым, утверждение леммы 5.1 следует из непрерывности функции F(t). (Для доказа- тельства мы не использовали плотность распределения наработки, существование которой обусловлено предположением 2.) 5.1.1. ИНТЕНСИВНОСТЬ ЭКСПЛУАТАЦИОННЫХ ЗАТРАТ Пусть си и Ср — средние затраты на аварийное и профилакти- ческое восстановления соответственно, 0<cp<Ch<:oo. Если ин- тервал восстановления равен т, то интенсивность эксплуатацион- ных затрат iR(r)=ChIh(T)+cpIp(x) (5.6) или chF + cpf СО Jf (t)dt (5-7) 123
К представлению (5.7) можно придти также разложением време- ни функционирования на циклы и применением формулы (5.1). При этом в качестве циклов следует выбирать интервалы между последовательными восстановлениями произвольного типа. Тог- да длина цикла имеет распределение (5.3), а случайные затраты за цикл задаются формулой {ch с вероятностью Р(Х<т) = F (г), ср с вероятностью Р (X > т) = F (т). Лемма 5.1 в совокупности с выражением (5.6) наглядно пока- зывают, что при увеличивающемся интервале восстановления т затраты, вызванные аварийными отказами, увеличиваются, а рас- ходы на профилактику убывают. Задача состоит в том, чтобы вы- бором надлежащего интервала восстановления оптимально учи- тывать эти две противоположные в отношении общих затрат тен- денции. Таким образом, отыскивается интервал восстановления т*, обладающий свойством R(x*) = min (/?(т). t£Zz(0, оо) При этом т* является решением уравнения dR(r)/dx=O, или я(т) f F(t)dt — F (t) = c/(l - c), (5.8) о где c=cp/ch. Вследствие приводимой ниже леммы 5.2 всегда су- ществует однозначно определенное конечное решение, если только А (оо) = lim Я (1) > 1/(1 — с). (5.9) t->00 Это неравенство выполняется, если %(t) неограниченно растет. При использовании оптимального интервала восстановления т* соответствующая интенсивность эксплуатационных затрат R(t*) = (сь—ср)Х(т*). (5.10) t _ Лемма 5.2. Функция X(t) j* F(x)dx—F(t) является строго мо- Q нотонно возрастающей по t для t^O. Доказательство. Поскольку, по предположению, X(t) монотонно возрастает, для 0^ti<t2 выполняется неравенство 124
Левая часть этого неравенства является неотрицательной для O^x^ti. Отсюда следует ti_ tt h х (h) J F (x) dx — F (tj) = j [A (tx) F (x) - f (X)] dx < J [A (t2) F (x) - 0 0 0 ta t2 - f (x)J dx < J [A (t2) F (x) - f (X)] dx = A (t2) J F (x) dx — F (tj,). о 0 Пример 5.1. Пусть наработка X равномерно распределена на отрезке [0, T]l r(t)_(‘/T. 0<t<T, U, t>T. Тогда для т такого, что 0<т<Т, интенсивность эксплуатационных затрат в то время как решение уравнения (5.8) имеет вид ’*=73^ (/^(2-с)-с]. (5.11> Задаваемая этим уравнением зависимость между оптимальным интервалом вос- становления т* (отнесенным к Т) и коэффициентом затрат с=сР/сь изображена на рис. 5.2. Пример 5.2. Пусть F(t)==(l—e~at)2, t^O. Соответствующая интенсивность отказов A(t) =2a(l—e~at)/(2—e-at) (5.12) строго монотонно возрастает на интервале (0, сю). Вследствие того, что %(0)=О и %(оо)=а, справедлива оценка O^X(t)^a. Из уравнения (5.8) получается урав- нение для определения оптимального т=т*: 1/(2 — е“ах) — е~ах = с/(1 — с). Согласно условию (5.9), решение т* этого квадратного уравнения (после подста- новки х=е-ат) существует тогда и только тогда, когда с< 1/3: г*= —In [(2 - Зс -/(4- Зс) с)/2 (1 — с)]. (5.13> Л Зависимость интервала восстановления т*, нормированного на 1/а, от парамет- ра с изображена на рис. 5.3. На рис. 5.4 показано поведение минимальной интенсивности производственных затрат R(t*) (нормированной на сь) в зависи- мости от параметра с. Для с=1/3 оказывается, что R(t*) =R(o°)=2aCh/3_ Это — интенсивность производственных затрат, которая получается при страте- гии аварийных замен. В общем случае решение (5.8) не выражается явно, что справедливо, в част- ности, для важной на практике наработки, имеющей распределение Вейбулла — 125.
Рис. 5.2. Оптимальные интервалы вос- становления при строго периодичес- ком восстановлении (пример 5.1) Гнеденко, т. е. когда F(t) = l—e“<t/f>)P. Поэтому в табл. 5.1 приведены опти- мальные интервалы восстановления т=т*(Р) (нормированные на О) для значений параметров 0 и с из отрезков [1, 2; 8, 0] и [0,05; 0,95]. Кро-ме того в [151] рассчитаны диаграммы, с по- мощью которых можно непосредствен- но получать решения (5.8) в зависимо- сти от параметров распределений, а также коэффициента затрат с для на- работок, имеющих распределение Вей- булла, гамма-распределение и усеченное нормальное распределение. (Соответст- вующие таблицы для наработок с рас- пределениями Эрланга, Вейбулла—Гне- денко и обратным гауссовским, приве- дены в [Д21].) Вопросы устойчивости. Для параметров распределения нара- ботки имеются в наличии, вообще говоря, лишь оценочные значе- ния, которые могут более или менее соответствовать «истинным значениям» (см. разд. 3.3). Поэтому интересны следующие во- просы. 1. Какое влияние оказывают отклонения оценочных значений параметров от истинных на оптимальный интервал восстановле- ния и затраты? 2. Как отражаются отклонения от оптимального интервала вос- становления на интенсивность эксплуатационных затрат? Рис. 5.3. Оптимальные интервалы вос- становления при строго периодичес- ком восстановлении Рис. 5.4. Минимальная интенсивность эксплуатационных затрат при строго периодическом восстановлении (при- мер 5.2) 126
Таблица 5.1. Оптимальные относительные интервалы восстановления т*/^ для наработки, имеющей распределение Вейбулла — Гнеденко [367] Р с ,05 ,10 ,15 ,20 ,25 ,30 ,35 ,40 ,45 1,2 ,346 ,686 1,087 1,593 2,272 3,241 4,702 7,018 10,842 1,4 ,240 ,418 ,597 ,789 1,005 1,255 1,556 1,931 2,417 1,6 ,221 ,357 ,483 ,609 ,743 ,887 1,049 1,236 1,456 1.8 ,222 ,339 ,442 ,541 ,642 ,747 ,860 ,986 1,128 2,0 ,230 ,336 ,426 ,511 ,594 ,679 ,768 ,865 ,971 22 ,242 ,341 ,423 ,498 ,570 ,643 ,718 ,797 ,883 24 ,255 ,350 ,425 ,493 ,558 ,622 ,688 ,756 ,829 2.6 ,269 ,360 ,431 ,494 ,553 ,611 ,670 ,730 .794 2.8 ,284 ,371 ,438 ,497 ,552 ,606 ,659 ,714 ,771 3,0 ,298 ,382 ,447 ,503 ,554 ,604 ,653 ,703 ,755 3.2 ,312 ,394 ,456 ,509 ,558 ,604 ,650 ,696 ,744 3,4 ,325 ,406 ,465 ,516 ,562 ,606 ,649 ,692 ,737 3,6 ,339 ,417 ,475 ,523 ,567 ,609 ,650 ,690 ,732 3,8 ,352 ,428 ,484 ,531 ,573 ,613 ,651 ,690 ,729 4,0 ,364 ,439 ,493 ,538 ,579 ,617 ,654 ,690 ,728 4,5 ,394 ,465 ,515 ,557 ,594 ,629 ,662 ,694 ,727 5,0 ,421 ,489 ,536 ,575 ,609 ,641 ,671 ,701 ,731 6,0 ,468 ,530 ,573 ,607 ,637 ,665 ,691 ,716 ,741 7,0 ,508 ,566 ,604 ,635 ,662 ,686 ,709 ,731 ,753 8,0 ,54? ,596 ,631 ,659 ,684 ,706 ,726 ,746 ,765 ,50 ,55 ,60 ,65 ,70 ,75 ,80 ,85 >90 ,95 17,462 29,572 53,289 103,896 224,561 558,779 1705,2 7185,9 54568,2 1746185, 3,074 4,003 5,373 7,503 11,030 17,399 30,395 62,395 171,941 972,645 1,726 2,068 2,522 3,153 4,076 5,524 8,013 12,942 25,438 80,762 1,293 1,492 1,739 2,061 2,501 3,142 4,153 5,950 9,877 23,491 1,091 1,230 1,398 1,606 1,879 2,256 2,821 3,761 5,642 11,284 ,978 1,086 1,213 1,366 1,561 1,820 2,193 2,787 3,908 6,963 ,909 ,998 1,100 1,222 1,372 1,568 1,841 2,261 3,021 4,956 ,863 ,939 1,026 1,127 1,250 1,406 1,620 1,940 2,499 3,854 ,832 ,899 ,974 1,061 1,165 1,296 1,471 1,727 2,163 3,180 ,810“ Л70 ,937 1,014 1,104 1,217 1,364 1,577 1,932 2,732 ,795 ,849 ,910 ,978 1,059 1,157 1,285 1,467 1,765 2,418 ,784 ,834 ,889 ,951 1,024 1,112 1,225 1,384 1,639 2,188 ,776 ,822 ,873 ,930 ,996 1,076 1,178 1,318 1,542 2,013 ,770 ,814 ,861 ,914 ,974 1,047 1,140 1,266 1,465 1,876 ,766 ,807 ,851 ,901 ,957 1,024 1,109 1,224 1.402 1,767 ,761 ,797 ,835 ,878 ,926 ,982 1,053 1,147 1,289 1,572 ,761 ,793 ,827 ,864 ,906 ,955 1,016 1,095 1,214 1,445 ,767 ,793 ,821 ,851 ,885 ,925 ,972 1,034 1,124 1,291 ,775 ,798 ,822 ,848 ,877 ,910 ,949 1,000 1,072 1,204 ,785 ,805 ,826 ,849 ,874 ,902 ,936 ,979 1,040 1,150 Проиллюстрируем связанную с этими вопросами проблему на примере распределения Вейбулла — Гнеденко. Пусть для пара- метра р имеется оценка р, а параметр О известен точно. В табл. 5.2 дано представление о порядке величин, относящихся к вопро- 127
су 1, когда в выражения (5.7) и (5.8) вместо параметра 0 под- ставляется оценка 0. В ней наряду с оптимальными значениями интервала восстановления т* и соответствующими значениями R(t‘), отнесенными к затратам сь, помещены дополнительные ха- рактеристики, содержащие полезную информацию: = iooo/e> юо%, р ,'*(р) AR = R(x*®)-R(t*(0)) R ('*(₽)) 100%. При положительных значениях Д0 соответствующие значения AR отрицательны и наоборот. Для постоянного параметра с от- клонение AR возрастает, когда параметр 0 увеличивается. Ситуация, связанная с вопросом 2, наглядно пояснена рис. 5.5. На нем изображена зависимость интенсивности эксплуатацион- ных затрат (нормированной на Ch) от т (отнесенного к 0) при различных параметрах 0 и постоянном коэффициенте с=0,2. Чем меньше параметр 0, тем более пологие функции R((t) в окрестно- сти оптимального значения интервала восстановления т*=т*(0). Таблица 5.2. Влияние отклонений параметроформы в распределении Вейбулла — Гнеденко на оптимальный интервал восстановления С fi 4fi% г‘(й Jt°/o Rfr*(g» Ch JR % 0,25 1,5 0 0,8387 0 1,0303 0 5 0,7624 - 9,10 1,0107 -1,90 10 0,7090 - 15,46 0,9896 -3,95 - 5 0,9533 13,66 1,0472 1,64 -10 1,1393 35,84 1,0598 2,56 3,0 0 0,5541 0 0,6909 0 5 0,5566 4,51 0,6704 -2,97 10 0,5597 1,01 0,6516 -5,69 - 5 0,5526 - 0,26 0,7134 3,25 -10 0,5523 - 0,32 0,7382 6,84 0,75 1,5 0 8,7259 0 1,1077 0 5 6,0995 - 30,09 1,1136 0,53 10 4,6400 - 46,82 1,1185 0,97 - 5 14,1982 62,71 1,1001 -0,68 -10 23,5321 169,68 1,0905 — 1,55 3,0 0 1,2165 0 1,1099 0 5 1,1705 - 3,78 1,1048 -4,59 10 1,1330 - 6,86 1,0995 -9,37 - 5 1,2737 - 4,70 1,1147 4,32 -10 1,3463 10,67 1,1191 8,29 128
Следовательно, при малых р за- метное отклонение от оптималь- ного интервала восстановления (вызванное, например, техноло- гическими требованиями) более приемлемо с точки зрения за- трат, чем при больших р. Анализ устойчивости для во- проса 1 в указанном здесь смыс- ле приведен в [333]. Другие ре- зультаты получены в [248, 56]. Обобщенные затраты. С тече- нием времени мощность работаю- щей системы, вообще говоря, О -с/8 Рис. 5.5. Интенсивность эксплуатаци- онных затрат в зависимости от ин- тервала восстановления [333] уменьшается, начинается потеря качества, возрастает число отказов. Учет этих факторов ведет к за- висящим от времени затратам на восстановление. Если система восстанавливается спустя время t после момента предыдущего восстановления, то к обычным затратам на восстановление сь и Ср прибавляют еще величину v(t). Функцию v(t) будем считать монотонно возрастающей на полупрямой [0, оо) и непрерывно дифференцируемой, v(0)=0. Таким образом, профилактика всег- да требует затрат cp-|-v(t), в то время как аварийное восстанов- ление спустя время t после предыдущего восстановления (t<x) сопряжено с затратами cn+v(t). Если вновь определить цикл как время между двумя соседними восстановлениями произвольного типа, то согласно формуле (5.1) интенсивность эксплуатационных затрат [с, + v (г)] F (г) 4- ( Гс2 + v (t)J dF (t) R (г) =-------------------------Л---------------------------- [ F (t) dt 0 Если обозначить v(t) = (ch—cp)w(t), то оптимальный интервал восстановления удовлетворяет уравнению (5.14) Если интенсивность отказов Х(т) неограниченно возрастает, то всегда существует решение т*, оптимальное относительно R(t). В этом случае R (т*) = (сь—ср) (X(т*) +w'(т*)). 9—6301 (5,15) 129
В отличие от (5.8) положительное конечное решение (5.14) мо- жет существовать также при постоянной интенсивности отказов в системе, если только v(t) растет «достаточно быстро». Рассмот- рим следующий пример. Пример 5.3. Пусть X(t) = a, a>0, и v(t) = (ch—cP)tp, p>0. (Этот специаль- ный вид затрат рассмотрен в [300].) Уравнение (5.14) принимает вид % - (₽ - 1) [ ^-“‘dt = - J ₽(1—с) о Для Р>1 всегда существует однозначное решение т*, причем R(-r*) = (cb-cP) (а+₽(т*)-'). 5.1.2. КОЭФФИЦИЕНТ ГОТОВНОСТИ Предположим теперь, что аварийное и профилактическое вос- становления требуют времени, равного соответственно dn и dp, O^idpCdh. В этом случае первостепенный интерес представляет коэффициент готовности системы. Для его вычисления можно вос- пользоваться формулой (4.73), поскольку процесс функциониро- вания системы представляет собой альтернатирующий процесс восстановления {(Xi, Yi), i=l, 2,...}. Здесь величины Xi, которые означают рабочие периоды системы, распределены согласно вы- ражению (5.3). Величины Yi соответствуют интервалам времени, на которых система восстанавливается, и определяются соотно- шением у I djj для X , * |dp для X > т, i = 1, 2..... Отсюда следует E(Y1) = dhF(x) + dpF(x), так что коэффициент готовности системы К(т) задается в виде fF(t)dt К(’) =------------------г-----. (5.16) dhF(t) + dpF(t)+J F(t) dt о Задача состоит в максимизации коэффициента готовности К(т) надлежащим выбором интервала восстановления т. Поскольку, однако, величины 1/К(т)—1 и R(t) имеют одинаковый функцио- нальный вид, оптимизационные задачи «минимизации R(t)» и 130
«максимизация К(т)> эквивалентны. Вследствие этого оптималь- ное относительно К(т) значение т=т* вновь является решением уравнения (5.8), если подставить в него c=dp/dh. Предположение (5.9) гарантирует существование конечного интервала восстановления т*. Соответствующий максимальный коэффициент готовности К = l + (dh + dp) (Аг*)" Частный случай dP=0. На практике время на профилактиче- ское восстановление в отличие от длительности аварийного вос- становления часто бывает пренебрежимо малым. Это связано с тем, что определенная потеря времени, например замедленное рас- познавание неисправности или время на переезд ремонтной бри- гады, не присуща профилактическому восстановлению, а собст- венно профилактика длится пренебрежимо мало. В таких случаях вычисленный по формуле (5.16) коэффици- ент готовности [F(t)dt К(г) =-----2---1------ (5.17) dhF(t) + j F(t)dt или, если использовать формулу (5.4) (5.18) Согласно лемме 5.1 функция М*(т) и, следовательно, К(т) моно- тонно возрастают при убывании т, поэтому в расчете на достиже- ние максимального коэффициента готовности предлагается про- водить профилактики возможно чаще, т. е. выбирать интервал восстановления т достаточно малым. Однако на практике сильно- му уменьшению т препятствуют возрастающие при этом затраты на восстановление. Вследствие этого интервал восстановления оп- ределяется из соображений заданного коэффициента готовности системы (и, возможно, с учетом связанных с ним производствен- ных затрат). Это означает, что при заданном коэффициенте го- товности Ко интервал восстановления т=то находят из условия К(т)=Ко- (5.19) Чтобы обеспечить существование конечного решения этого урав- нения, предполагается, что р/(ц-В1ь)<Ко<1. (5.20) 9* 131
В противном случае требуемый коэффициент готовности системы Ко можно обеспечить, если применить стратегию аварийных за- мен. С учетом (5.18) уравнение (5.19) может быть записано также в виде Mh(T)=M0, (5.21) где Mo=dhKo/(l—Ко). Условие (5.20) эквивалентно неравенству Mo>Mh(oo). Пример 5.4. Рассмотрим систему «1 из 2», которая состоит из двух идентич- ных элементов. Пусть наработки элементов экспоненциально распределены с па- раметром а. (Независимо от структуры система с точки зрения восстанавливае- мости рассматривается как простая.) Эта модель представляет особый интерес для систем безопасности движе- ния. Например, красный свет в светофорах, регулирующих уличное движение, обеспечивается двумя лампами накаливания, одна из которых работает в на- груженном резерве. Очевидно, в этом конкретном случае условие dP=0 выпол- няется с хорошим приближением, поскольку сама замена лампы накаливания производится за пренебрежимо короткое время. Однако согласно вышеназван- ным причинам потерями времени, обусловленными аварийными отказами, пре- небречь ни в коем случае нельзя. Функция распределения наработки есть F(t) = (l—e-at)2, t^O (см. при- мер 5.2). Поэтому 3_е-«(4-е-") Mh(x) =--------~Т- 2a (1 —е )2 В предположении (5.20) решение квадратного (после подстановки x=e-at) урав- нения (5.18) или (5.21) имеет вид 1 , Г ,/Г2аМ0 —2 12 2аМ0 —3 , 2аМ0 — 2 1 ''° а ,п [ К L2aM0—1 J —гаМ,—1+2аМ0—1 <5’22) Пусть, в частности, а=10-4 ч и dh=10 ч. Восстановление системы организовано так, что по мере надобности можно обеспечить значения коэффициента готовно- сти Ко(1)=0,9990, Ко(2)=0,9995 и Ко(3) = 0,9999. (Эти численные данные прибли- зительно соответствуют данным в приведенном примере системы безопасности движения, см. [123].) Такие требования к коэффициенту готовности эквивалент- ны, тем самым, гарантированию следующих средних значений между двумя ава- рийными восстановлениями: Мо((1) = 999О ч, Мо(2) = 19 990 ч и Мо(3) = 99 99О ч. Средний интервал времени Мь(оо)=3/2о=15 ООО ч уже обеспечивается при- менением стратегии аварийных замен, поэтому, для того чтобы обеспечить коэф- фициент готовности, равный 0,999, не требуется профилактических восстановле- ний (т0(1) = оо). Напротив, согласно выражению (5.22) для обеспечения значения коэффициента готовности Ко(2) и Ко(3) нужно использовать интервалы восста- новления т0(2>= 11 002 ч и соответственно т0(3)=1ИЗ ч. 132
Рис. 5.6. Интенсивности эксплуатаци- онных затрат при различных требова- ниях к коэффициенту готовности (пример 5.4) Учитывая численные данные этого примера, следует обсудить влияние ко- эффициента затрат c=cp/ch на коэффи- циенты готовности Ко<‘> для интервалов восстановления т0(1) = 1, 2, 3. 10‘,R(l/ch О 0,05 0,10 0,15 0,20'0,25 0,30 cp/ch Полагая в выражении (5.7) F(t) = (l— e-at)2, получаем интенсивность экс- плуатационных затрат cp(2e“ax —e^"2ax) +ch(l—e~ax)2 R (т) = 2a 3 —-e—ax(4 —e~ax) Отсюда следует R(i)=o,6667chlO-4, R(2)= (0,50Ch4-0,6238cP) IO-4, R(3)==(0,lch4-8,9210cP)10-4. Из сравнения коэффициентов при сь и ср становится ясно, что с уменьшением интервала восстановления т возрастает доля затрат, связанных с профилактиче- ским восстановлением, в то время как доля затрат на аварийное восстановление уменьшается. На рис. 5.6 изображены зависимости интенсивностей затрат 104Ri/ch, i=l, 2, 3, от коэффициента с=сР/сь. Их поведение показывает, что для с>0,27 с точки зрения затрат выгодна стратегия аварийных замен. На интер- вале 0,05^с<;0,27 наименьшая интенсивность эксплуатационных затрат полу- чается при Ко(2\ т. е. если используется интервал восстановления То(2)= 11 002 ч. Наконец, для с<0,05 наиболее выгодно с точки зрения затрат брать интервал восстановления т0(3) = 1113 ч. Если продолжительность профилактики пренебре- жимо мала, то увеличение коэффициента готовности не всегда приводит к уве- личению интенсивности эксплуатационных затрат, поскольку при малых значе- ниях коэффициента затрат с частные профилактики (предписываемые малыми интервалами восстановления) благоприятно отражаются как на коэффициенте готовности, так и на затратах. На практике малые значения с бывают прежде всего тогда, когда в коэффициент Си помимо чистых затрат на восстановление входят также стоимость повреждений, сопряженных с отказами. 5.1.3. НЕПОЛНАЯ ИНФОРМАЦИЯ О РАСПРЕДЕЛЕНИИ НАРАБОТКИ Во многих случаях,‘особенно при вводе в эксплуатацию новой системы, отсутствует или имеется лишь частичная статистическая информация об отказах. Тогда функция F(t) неизвестна и урав- нение (5.8) нельзя применить для отыскания оптимальных интер- валов восстановления. Для того чтобы принимать обоснованные 133
решения о выборе интервалов восстановления и в этих случаях, часто прибегают к минимаксным критериям. Обозначим через % множество всех функций распределения, обладающих свойством F(0)=0 (таким свойством обладают функции распределения на- работки), и вместо критерия затрат R(x), заданного формулой (5.7), будем писать R(r, F). Пусть известно, что функция F при- надлежит подмножеству SP^S. Тогда есть смысл ввести по ана- логии с теоретико-игровым подходом критерий Rp (t) = sup R (t, F) (5.23) FeSP и искать интервал восстановления тр, оптимальный относительно Rp(r) (минимаксный интервал восстановления): Rp(x ) = min Rp0). (5.24) *е<о. оо)v Легко убедиться, что для 8?Р=8? (нет никакой информации о функ- ции распределения наработки) при всех т.>0 Rp(t) = oo, поэтому применять в этом случае критерий Rp(t) бессмысленно. Рассмот- рим некоторые частные случаи, когда 5Р является собственным подмножеством S, т. е. когда имеется частичная информация о распределении наработки. Известно математическое ожидание. Пусть для постоянных ре (0, оо) P=pdF(t)l, (5.25) I 6 J т. e. предполагаем, что заранее известна средняя наработка си- стемы ц=Е(Х). В [28] показано, что в этом случае minRp(x) = ch/p. т Таким образом, стратегия восстановления, основанная на мини- максном подходе, является тривиальной и совпадает со стратеги- ей аварийных замен (тр=оо). Если, однако, помимо математического ожидания известна и дисперсия, то существует конечный минимаксный интервал вос- становления. Известны математическое ожидание и дисперсия. Пусть для заданных р и о, 0<р<оо, 0<а<оо, °2 = J(t-p)MF(t)|. I о J Информация «Fe5n,o> соответствует той ситуации, когда извест- ны первые два момента распределения наработки. В [158] дока- зана следующая теорема. 134
Теорема 5.1. Пусть Fe{Jg>a. Если с^1—2о/ц, то не существу- ет конечного минимаксного интервала восстановления тР(с = = cp/Ch). Если 0<с<1—2а/щ то существует конечный, однознач- но определенный интервал тр, причем Отсюда следует, что если разность 1—2о/ц—с достаточно ма- ла, то тр=р,(1 + с)/2 является удовлетворительной оценкой для Тр. В [158] предложен эффективный метод вычисления тр с про- извольной точностью. В [28] множество 5м,а ограничено еще больше. Там предпола- гается, что функция распределения принадлежит классу ВФИ: 5р = 3$?®= {F:FG&p,о, F принадлежит классу ВФИ}. (5.26) Доказано, что в этом случае конечный интервал восстановления существует тогда и только тогда, когда с<1—о/ц. (Таким обра- зом, при переходе от множества а к множеству ЗрГ?а увеличи- вается область значений с, для которых существует конечный ин- тервал восстановления тр.) Найденные в [28] нижние и верхние оценки для функций Мь(т) и Мр(т), определенных формулами (5.4) и (5.5), позволяют в итоге отыскать критерий Rp(t). Соот- ветствующий интервал восстановления тр можно, вообще говоря, определить численными методами. В [149] рассмотрена иная, аналитически более легкая мини- максная задача, связанная с использованием информации С помощью оценок для функций распределения типа ВФИ в [25] оценены затраты R(t, F) сверху и определен опти- мальный интервал восстановления относительно этой верхней оценки. Принципиально иной подход к планированию профилактиче- ских замен в условиях, когда информация о функции распределе- ния отсутствует или неполна, избран в [126]. Там использовано то обстоятельство, что в процессе работы о функции распределе- ния наработки собирается все больше информации. Она исполь- зуется постепенно по мере надобности для планирования после- дующих профилактических восстановлений. 5.2. ВОССТАНОВЛЕНИЕ БЛОКАМИ Если применяется строго периодическая стратегия восстанов- ления, то моменты, в которые осуществляются профилактические мероприятия, не известны, поскольку очередное профилактиче- ское восстановление осуществляется через время т лишь с веро- ятностью F(t). Это обстоятельство затрудняет организацию про- 135
Профилактическая Профилактическая замена замена Аварийное । босстаноб- I । пение I т: 3*г Рис. 5.7. Восстановление блоками цесса технического обслужива- ния. В этом разделе обсуждается стратегия восстановления бло- ками, при которой моменты осу- ществления профилактик уста- новлены заранее. Эти стратегии особенно пригодны, когда про- филактики требуют основатель- ной подготовки или сопряжены со значительными затратами, как, например, при комплексном ремонте большого технического объекта или сложного электрон- ного оборудования. Стратегия 2. В случае отказа система подвергается аварийно- му восстановлению. Независимо от возраста системы, в фиксиро- ванные моменты времени т, 2т, ... планомерно проводятся профи- лактики (рис. 5.7). Пусть аварийные и профилактические (планомерные) восста- новления снова проводятся полностью и требуют затрат соответ- ственно bh и bp, 0<bp<bh. Процесс функционирования системы разбивается на стохастически эквивалентные циклы [пт, (п+1)т], п=0, 1,.... Средние эксплуатационные затраты на цикл состав- ляют Е(С) =Ьр-|-ЬьН(т), где Н(т) означает математическое ожи- дание числа аварийных восстановлений (отказов), происшедших на интервале (0, т). Функция восстановления Н(т) соответствует F(t) и поэтому удовлетворяет уравнению восстановления (4.14). Отсюда интенсивность эксплуатационных затрат R (т) = Ьр Ь——. (5.27) Оптимальный интервал восстановления т=т* удовлетворяет урав- нению тИ(т)— Н(т)=Ь, (5.28) где b=bp/bh, h(t)=H'(t) есть плотность восстановления. Если интервал т* существует, то минимальная интенсивность эксплуа- тационных затрат R(T*)=h(T‘). (5.29) Для постоянной интенсивности отказов Ц1)=а выполняется со- отношение H(t)=at, и уравнение (5.28) в этом случае не имеет конечного решения. Соответствующие таблицы для наработок с распределениями Эрланга, Вейбулла — Гнеденко и обратного га- уссовского приведены в [Д.21]. 136
Пример 5.5. Пусть снова F(t) = (1— e~at)2, t>0. Преобразование Лапласа соответствующей плотности f (t) =2ae~at(l—e~at) имеет вид 2 i 1 H(t) = —a h+— (e~3at—1) 3 [ 3a Рис. 5.8. Оптимальные интервалы восстановления при восстановле- нии блоками (пример 5.5) (s 4- a) (S + 2a) ’ Принимая во внимание выражение (4.20), получаем преобразование Лапласа соответствующей плотности восстановления: 2a2 h (s) =-------—. ' ' S (S + 3a) Обратное преобразование дает h (t) = —a (1 — e—3at). (5.30) Интегрированием выражения (5.30) получаем функцию восстановления (5.31) Подстановка выражений (5.30) и (5.31) в (5.28) приводит к уравнению для оптимального интервала восстановления т*: (1 + Зат) е“Зах = 1 - 9Ь/2. (5.32) Однозначное решение существует, если Ь<2/9. Для диапазона Ь^2/9 более выгодной с точки зрения затрат является стра- тегия аварийных замен. На рис. 5.8 показано поведение величины ат* в зависи- мости от be (0, 2/9). Недостаток стратегии 2 (с точки зрения практических прило- жений) состоит в том, что иногда профилактическому восстанов- лению подвергаются вполне «но- вые» системы (хотя при bp<Cbh использование оптимального ин- тервала восстановления т* в зна- чительной степени исключает отка- зы системы на интервале (0 т*)). Поэтому проанализируем еще два варианта, в которых этот недоста- ток устранен введением «зон без- действия». Стратегия 2'. Между двумя про- филактиками не производится ни- каких мероприятий по восстанов- лению, а после отказов система восстанавливается только при сле- дующем запланированном восста- новлении (рис. 5.9). 137
Если отказ системы наступил в момент х, где пт<х^(п + 1)т, п = 0, 1, то система в тече- ние времени t= (n+ 1) — —х остается неработо- способной. Этот период простоя обходится в v(t) условных единиц затрат, где v(.0)=0 и v(t) предполагается монотонно возрастающей дифференцируемой функцией. Соответствующая интенсивность эксплуатационных за- трат Запланированное Запланированное Запланированное Восстановление Восстановление Восстановление восстановление Восстановление ! Зона ВезВей.-! 2Т зт Рис. 5.9. Восстановление блоками с зонами бездействия о т. \ О J I Оптимальный интервал восстановления удовлетворяет уравнению pw'(’-t)-v(.-t)]dF(t) = bp. О Положительное конечное решение существует, еслиlim v (t)/t = оо. t-»QO В этом случае минимальная интенсивность эксплуатационных за- трат X* J v'O*-t)dF(t). о Стратегия 2". В основном используется стратегия 2. Однако если только при некотором фиксированном t0,0<to<T наступает отказ на интервале (пт—to, пт), п=1, 2,..., то аварийного вос- становления не производят, а система восстанавливается в мо- мент следующего запланированного восстановления (см. 1331]). В отличие от предыдущих задач, интервал восстановления т теперь задан и отыскивается значение to=to*, оптимальное отно- сительно средних эксплуатационных затрат с момента наступле- ния отказа до очередного восстановления. Если отказ наступает за время t до запланированного восстановления и если не произ- водится аварийное восстановление, то затраты, связанные с про- стоем, составят Vo(t)=v(t). Если же аварийное восстановление производится, то средние эксплуатационные затраты за указанное время Vi(t)=bh+£ v(t—x)dF(x). (Выражение для Vi(t) явля- о ется, впрочем, корректным лишь когда t «достаточно близко» к t0*. Но поскольку to* как раз следует определить, такое предполо- 138
жение может быть сделано без ограничения общности.) При оп- тимальном решении относительно проведения аварийного восста- новления за время t перед запланированным ремонтом эксплуа- тационные затраты V(t)=min(V0(t), Vi(t)). (5.33) Как функция Vo(t), так и функция Vi(t) монотонно возрастают со временем. Поэтому время to=to*, если оно существует, удов- летворяет уравнению v (t) = bh + J v (t -x) dF (x). (5.34) о Пусть, в частности, v(t)=at, а>0. Тогда V (t)= at-j- aminjo, bh/a —p.-f-J (x—t) dF (x)}. 00 Функция u(t)= J(x—-t)dF(x)—положительная, выпуклая и t строго монотонно убывает [164]. Для существования конечного времени to* необходимо и достаточно, чтобы и(т)<?ц.—Ьь/а. Если это условие выполнено, то to*=u-1(p—bh/a). Например, для F(t) = l—е—t^sO, to*=—|*1п(1—bh/(ap)). Сходные варианты восстановления блоками исследованы в [61] (формулировка за- дачи восходит к [93]). В качестве критерия оптимальности там взята интенсивность эксплуатационных затрат, а т, кроме того, считалось переменным. Другие модификации стратегии 2. а. Между последовательными плановыми восстановлениями проводится только минимальный (временный) ремонт. (Кроме тех случаев, когда тип отказа требует полного восстановления). Та- кие стратегии анализируются в разд. 5.4 и 5.5. б. Отказавшие системы заменяются не на новые, а на уже бывшие в употреблении. При этом речь может идти о системах, замененных в предыдущих профилактических восстановлениях и тем не менее еще пригодных к использованию [57, 335, 249]. в. В [55] рассмотрен вариант стратегии 2, при котором профи- лактика системы, не достигшей к моменту пт, п=1, 2,..., задан- ного возраста а, 0<а<т, переносится на момент (п-М)т. г. В подразд. 5.1.1 описаны обобщенные затраты для страте- гии со строго периодическими восстановлениями. По аналогии с этим в [345, 55] рассмотрены зависимые от времени затраты на восстановление для стратегии 2. 139
5.3. СРАВНЕНИЕ СТРОГО ПЕРИОДИЧЕСКОГО ВОССТАНОВЛЕНИЯ И ВОССТАНОВЛЕНИЯ БЛОКАМИ В этом разделе сравнивается эффективность стратегий 1 и 2 относительно интенсивности эксплуатационных затрат. Пусть при этом, как и раньше, с=Ср/си для строго периодического восстанов- ления и b = bp/bh для восстановлений блоками. Без ограничения общности полагаем Ch=bh=l. Сравнение основывается на крите- риях (5.7) и (5.27), которые в дальнейшем для различимости и большей точности обозначим через Ri(t, с) и Кг(т, Ь): Rx (г, С) = (F (г) + СЁ (г)) / f F (t) dt, R2 (г, b) = (Н (г) + Ь)/г. / О Пусть соответствующие оптимальные интервалы восстановления Т1*=Т1*(с) и Т2*=Т2*(Ь). Можно легко показать, что при Ь^р оптимальная строго периодическая стратегия восстановления всег- да выгоднее, чем оптимальное восстановление блоками [52]. Од- нако на практике обычно Ь<с, поскольку профилактики при ис- пользовании восстановления блоками носят детерминированный, плановый характер. В таких случаях нельзя сразу ответить на во- прос, какую из двух стратегий, 1 или 2, следует применять. Наша цель — указать в единичном квадрате (b, с), O=g7b=g71, O^c^l области, в которых оптимальна та или иная стратегия. При этом оказывается, что в этом квадрате может также существовать об- ласть, в которой всегда выгоднее применять стратегию аварий- ных замен, чем каждую из стратегий, 1 и 2. Поскольку dh= 1, то интенсивность эксплуатационных затрат Ro для стратегии ава- рийных замен (последнюю будем называть также стратегией 0) Ro=l/p. (5.35) Положим Rx*(c) = inf Rx (s c), R2*(b) = infR2(t, b), c0=sup{c : Ri*(c)<R0}, b0=sup{b : R2‘(b)<R0}. Тогда Ri*(c)=Ro и R2(b)=R0 соответственно для c>c0 и b>b0. Из выражения (5.8) (соответственно из (5.7)) следует: если ин- тервал восстановления ri*(c) (тг*(Ь)) конечен, то все Т1*(с')(т2*(Ь')) для c'<c(b'<b) конечны. Отсюда Ri*(c)< <Ro(R2*(b)<Ro) для 0<c^c0(0^b^bo), так что сравнение эффективности стратегий 1 и 2 требуется лишь в прямоугольнике (O^c^Cq, O^b^bo). Лемма 5.3. Функция Ri* (с) (R2* (b)) строго монотонно возра- стает по с (по Ь), 0^с<со (O;Cb<bo). 140
Доказательство. Покажем, что функция Ri*(c) монотонно возрастает. (До- казательство подобного утверждения для функции R2*(b) проводится анало- гично.) Для 0^с^с.<со V £) = R1 (ч* (с), £) <R1 (ч* Я “) • (5.36) С другой стороны, поскольку функция Ri(t, с) для произвольных, но фиксиро- ванных т<оо, строго монотонно возрастает по с, то R1 ftl* (с). С) < R1 (т=1* (с), cj = R/ (с). Отсюда, а также из выражения (5.36) следует, что Ri*(c)<R2*(c).G Для произвольного фиксированного с из интервала (0, со) обо- значим через Ь*(с) такое однозначно определенное значение Ь, которое удовлетворяет условию R2(b)=R1*(c). (5.37) Согласно лемме 5.3 и равенству Ro=Ri*(co) =R2*(bo) величина b*(c) обладает следующими свойствами: 1) она строго монотонно возрастает по с; 2) b*(c)^bo для с<со; 3) R2*(b)SSR1*(c) для b=gb*(c). Эти свойства подытоживает следующее утверждение, которое да- ет принципиальные указания относительно выбора наивыгодней- шей стратегии. Теорема 5.2. При заданном се [0, со] оптимальной является стратегия 1 (2), если b.>b*(c) (b<b*(c)). При заданном с>с0 оптимальной является стратегия 2 (0), если b<bo (Ь.>Ьо). Значение Ь*(с) может быть вычислено следующим образом. Для заданного се[0, Со] с помощью формулы (5.10) вычисляет- ся Ri*(c). Согласно (5.29) уравнение (5.37) для Ь*(с) эквива- лентно равенству h(T2*(b))=R1*(c). (5.38) Если функция h(t) строго монотонно возрастает по t, то сущест- вует однозначное решение тг*(Ь). Подставив его в уравнение (5.28), получим непосредственно значение Ь‘(с). Уравнение (5.38) может иметь несколько решений тг*. Каждому из них со- ответствует значение Ь, полученное из уравнения (5.28) и мини- мизирующее функцию R2 (т, b). С помощью леммы 5.4 легко убе- диться, что все эти значения совпадают и равны Ь*(с). Значение Ь*(с), при заданном с находится, вообще говоря, чис- ленными методами. В следующих частных случаях можно полу- чить точные выражения для функции Ь*(с), О^с^со. 141
Рис. 5.10. Сравнение эффективности стратегий 0, 1 и 2 (пример 5.6) Рис. 5.11. Сравнение эффективности стратегий 0, 1 и 2 (пример 5.7) Пример 5.6. Пусть X равномерно распределена на интервале (0, Т). Тогда для 0<t<T имеем (см. разд. 4.2) X(t) = l/(T-t), h(t) = -^e‘/T, H(t)=et/T— 1. Согласно формулам (5.10) и (5.11) для 0^с^1 Ri*(c) = (1 + /с (2-c))<Re = 2/Т. (5.39) Отсюда с0=1. Далее из уравнения (5.28) следуег V (b) = Rs(4*, b) = “у-ех’’/т. Таким образом, неравенство R2*(b)<Ro эквивалентно неравенству Тг*(Ь)<Т1п2. Левая часть уравнения (5.28) монотонно возрастает по т. Вследствие этого R2*(b)<Ro тогда и только тогда, когда Ь<21п2—1. Поэтому Ь0=21п2— ^0,386. Учитывая (5.38), получаем, наконец, из (5.28) b*(c) = l-TRl*(c)[l-ln (TRi*(c))], где величина R*i(c), О^с<со задана с помощью формулы (5.39). На рис. 5.10 проиллюстрирован критерий выбора стратегии восстановления сформулированный в теореме 5.2. Пример 5.7. Пусть F(t) = (1—e”at)2, t>0. В этом случае R0=2a/3, с0=1/3, Ьо=2/9, а величина Ri*(c) задана для 0^с^1/3 в виде (5.40) 2 — с + ]/ (4 — Зс) с (см. примеры 5.2 и 5.4). 142
Согласно выражению (5.30) функция h(t) строго монотонно возрастает по t, поэтому т*г(с) является однозначным решением уравнения (5.38) для 0^ гСс<с0: V(c)= -^-ln(l~3R1*(c)/2a). Подстановка т2*(с) в уравнение (5.28) для О^с<со дает = У(с) 2а~3у(с) За 9а 2а 2a-3R1*(c) где величина Ri*(c) задана с помощью соотношения (5.40) (рис. 5.11). Изучавшиеся до сих пор способы сравнения эффективности стратегий 1 и 2, основанные на сравнении затрат, заимствованы из [54]. В то же время в [28] стратегии 1 и 2 сравнивались отно- сительно математического ожидания соответствующего числа вос- становлений. Эти результаты следует здесь привести, поскольку они интересны сами по себе и, кроме того, с их помощью легко построить оценки (4.30) и (4.31) для функции восстановления H(t) простого процесса восстановления с ВФИ-распределением наработки. Пусть Hi(t) и H2(t) означают среднее число всех вос- становлений за время (0, t], a Hih(t), Hip(t), и H2h (t), H2p(t) — среднее число всех аварийных восстановлений за это же время соответственно для стратегий 1 и 2. Пусть интервал восстановле- ния т одинаков для обеих стратегий, произволен, но фиксирован. Очевидно, справедливы соотношения H1(t)=H1b(t)+Hip(t); H2(t)=H?(t)+H2p(t). (5.41) В [28] доказано, что при постоянном предположении о нали- чии ВФИ-распределения у наработки справедливы неравенства Hi(t)<H2(t); (5.42) H2h(t)<Hih(t). (5.43) Согласно соотношениям (5.41) из них следует, что Hip(t)^H2p(t). Из выражений (5.4) вытекает, что для стратегии 1 интеграл С F (t) dt равен математическому ожиданию интервала между двумя произвольными последовательными восстановлениями, по- этому по теореме 4.5 (элементарная теорема восстановления) .. н. (t) 1 11Ш ------- t-> оо t « — lF(t)dt © (5.44) 143
? Непосредственно из определения стратегии 2 следует .. Hg(t) Н(Х) H2(t) Н(т)4-1 ,с II lim —-—=—lim -g-L2= v 7 . (5.45) | t-> oo t т t-> oo t T E Отсюда с учетом неравенств (5.42) и (5.44) I 1<Н(г). (5.46) jF(t)dt----------------------------------------------' 0 Далее работают элементарная теорема восстановления и формула | (5.3): I lira!lll=s_L(l)_. (5.47) < t—>G0 t л ___ J F(t)dt о Наконец из неравенства и соотношений (5.43) и (5.45) — (5.47) получаем __Е------1<H(T)<-/F(t)...... о о Для наработок, имеющих распределение Эрланга, Вейбулла — Гнеденко и обратное гауссовское, сравнение различных стратегий приведено в [Д.21]. 5.4. МИНИМАЛЬНОЕ АВАРИЙНОЕ ВОССТАНОВЛЕНИЕ С ПЕРИОДИЧЕСКОЙ ПОЛНОЙ ЗАМЕНОЙ В предыдущих разделах всегда предполагалось, что система как при профилактическом, так и при аварийном восстановлени- ях обновляется полностью. Однако на практике подобного рода стратегии ремонта часто либо не реализуются технически, либо сразу отвергаются по экономическим соображениям. Поэтому в этом разделе рассмотрим случай, когда полные восстановления предпринимаются только в определенные моменты времени. Если же система откажет на интервале между двумя последователь- ными полными восстановлениями, то производится лишь мини- мальное восстановление. Определение 5.1. Говорят, что осуществляется минимальное восстановление системы, отказавшей в момент t, если наработка 144
Ft(x) восстановленной системы имеет функцию распределения F(t-f-x) —F (t) F(t) Согласно (2.24) Ft(x) является функцией распределения «ос- таточной наработки» системы, уже проработавшей время t. Та- ким образом, минимальное восстановление делает систему .снова работоспособной, но по его окончании интенсивность отказов си- стемы такая же, как непосредственно перед отказом. Влияние ми- нимального восстановления на степень износа системы, тем са- мым, пренебрежимо мало. Минимальное восстановление соответ- ствует тому, что на практике часто принято проводить в интерва- ле между капитальными ремонтами только самые необходимые восстановительные работы. Ниже анализируются некоторые возможные стратегии восста- новления, включающие минимальное восстановление, которые от- личаются друг от друга различными планами проведения полных восстановлений. Однако сначала подготовим определенные пред- варительные теоретические основы. 5.4.1. ПРЕДВАРИТЕЛЬНЫЕ ЗАМЕЧАНИЯ Предположим, что с помощью минимального восстановления система после отказа возвращается в работоспособное состояние и тотчас же возобновляет работу. Пусть Хи, к==1, 2,..., — момен- ты наступления к-го отказа (к-го минимального восстановления) с начала эксплуатации системы, Yk—интервал между (к—1)-м и к-м минимальными восстановлениями: Yk=Xk—Xk-i, к=1, 2,...; Хо=О. Величины Yk, к=1, 2,..., взаимно независимы. Вначале требуется определить плотность распределения случайного векто- ра (Xi, Х2, ...,Хк); k^sl. Величина Xi идентифицируется со слу- чайной наработкой системы X, поэтому F(t) = P(Xi^t) и для xi<x2 имеем Xi Р (Xi< xv Х2 < Xg) = f Ffal~F-^ dF (t). (5.48} J F(t) t _ С учетом критерия (2.23) At= j %(x)dx=—InF(t). Следова- тельно, после интегрирования выражения (5.48) получаем P(Xi< Cxi, X2<x2)=F(xi)—A(xi)F(x2). Дифференцирование дает f (Xj = = г (Xi) f (Ха) 10—6301 145
Наконец, полная индукция по к^2 приводит к соотношению «а, у у \_________((xj)Я(Xj)... Л(xk_j)f(xk), если Xj<^Xj<^...<Cxk) 10—в противном случае. (5.49) Пусть |t означает число отказов системы, наступивших на интер- вале (0, t): {|t=k}={Xk<t^Xk+1}, k=0, 1,...; Хо=О. Используя обозначение pk(t) =P(|t=k), из соотношения (5.49) при k^l получаем dxs ... dxk+1. (5.50) Для произвольной интегрируемой функции g(x), xJ>0, для всех п>1 Г 4 1п f хп X, X, n Jg (х) dx IJ g (Х|) dXjdXg... dx = . (5.51) П! 0 0 0 0 i=l Применение этого соотношения к (5.50) приводит к формуле pk(t) = H^e-A(t), k = 0, 1, (5.52) Отсюда следует, что {£t}ts>o— нестационарный пуассоновский процесс с параметром A(t) (ср. с примером 4.1), поэтому E(|t)=A(t). (5.53) Из соотношения (5.49) получаем плотность распределения слу- чайной величины Хк: ... (5.54) Поскольку f(t)=X(t)e-A<t), имеем эквивалентное представление интегрирование которого по частям дает рекуррентные уравнения для математического ожидания времени до k-го отказа, к=1, 2...: Е (X.) = f t (-А^^к—* е-А (t)X (t) dt = [t 4 к J (к —1)1 w L kl о е-А (О 146
(Л W)Е 2 к! о е~А (t)A (t) dt — V <Л е"л (t)dt = •J к! о (5.55) = Е(Хк+,)-f-^^e-A(t,dt. J КI о Математическое ожидание времени между (к—1)-м и к-м отка- зами системы Е (Yk) = ( (A(t))k~‘ е-А (t) dt. v к' J (к—1) о Содержание следующей леммы соответствует теме этой гла- вы, поскольку мы предположили, что наработка имеет ВФИ-рас- пределение. Лемма 5.4. Последовательность {E(Yk), k=l, 2 ...} строго мо- нотонно убывает: E(Yk+i)<E(Yk), k=l, 2,... Доказательство. Если положить ОО — . . (5.56) (5.57) с FtW r(t)= —-----dx и Fk(t) =P (Xk<t), j F (x) то для всех k^l имеем E(Yk)=Jr(t)dFk_! (t). 0 Поскольку r(t) — монотонно возрастающая функция и Fk-i(t)^Fk(t) для всех t>0, справедливость неравенства (5.57) вытекает из теоремы 1.2.2 [327]. В Мы полагаем .... E(Xt) + c(k-l)+d' где а, Ь, с и d — произвольные действительные числа, 0^а<с. (Символы а, b и с не связаны с обозначениями предыдущих раз- делов.) Лемма 5.5. Пусть к* — наименьшее натуральное число, удо- влетворяющее условию Е (Хк) - (к - 1 + у) Е (Yk+1) > С — 3 (5.58) 10* 147
где у= (d—b)/(c—а). Пусть к*=оо, если не существует конечно- го числа к с указанным свойством. Тогда М (к*) = sup М (к). к=0, 1,... Если к* = оо, то последовательность {М(к), к=1, 2,...} монотон- но возрастает. Число к* определено однозначно, за исключением тех случаев, когда верхняя грань М(к) достигается на двух по- следовательных числах к. Доказательство. Положим Дк=Е(Хк)—(к— 1+у) Е (Ук-ы), к=1, 2 ... . Легко убедиться, что М(к)—М(к +1)^0 тогда и только тогда, когда Ak \ ad—be) / (с—а). Далее для к=1, 2, ... из неравенства (5.57) вытекает Дк-Дк-1= (к-1 +у) Е (Ук) —Е (Yk-i)) >0. -Следовательно, последовательность {Дк, к=1, 2, ...} строго монотонно возрас- тает. Объединяя оба полученных утверждения, приходим к утверждению лем- мы. 5.4.2. СТРАТЕГИИ ВОССТАНОВЛЕНИЯ Вначале займемся стратегией минимальных восстановлений с периодическими полными заменами. Стратегия 3. В моменты т, 2т, ... проводятся полные замены. Отказы в промежутках между ними исправляются с помощью ми- нимального восстановления. Затраты на полное восстановление составляют cv, а на мини- мальное восстановление — ст. Согласно формуле (5.53) на каж- дый цикл (интервал между полными восстановлениями) прихо- дится в среднем A(t) = J X(t)dt минимальных восстановлений, о Поэтому интенсивность производственных затрат R(t) = Cv + CxmA(T) (5.59) Оптимальный интервал восстановления т* является решением уравнения т%(т)—А (т) =Cv/cm- (5.60) Если интенсивность отказов X(t) неограниченно возрастает, то всегда существует однозначное решение. В этом случае получен- ная из уравнений (5.59) и (5.60) интенсивность производственных затрат R(t*) =стХ(т*). (5.61) 148
Пример 5.8. Пусть наработка X системы имеет распределение Вейбулла — Гнеденко F(t)=i—0>1. Уравнение (5.60) однозначно разре- шается: т* 0 k;₽—i>cm/ Минимальная интенсивность производственных затрат с’ R(t*) = с -—------ 0 m^(0-1)cJ На рис. 5.12 и 5.13 показана зависимость оптимального интервала восстанов- ления т*, а также минимальной интенсивности производственных затрат R(t*) от отношения cv/cm для 0 = 2 и .р=3 (т* нормируется на 0, a R(t*) —на ст/0). Следует обратить внимание на то, что для 0 = 2 (0=3) стратегия аварийных замен (стратегия 0) всегда выгоднее с точки зрения затрат, чем стратегия 3, если Cv/Cm<3,1416 (Cv/Cm<4,8068). В общем случае сравнение эффективности по затратам между стратегиями 0, 1 и 3, а также 0, 2 и 3 можно провести методом, подробно рассмотренным в разд. 5.3. Если время минимального восстановления dm и время полно- го восстановления dv не являются пренебрежимо малыми, то ко- эффициент готовности системы K(x)-T + dmA(t) + dv- Оптимальный относительно К(т) интервал восстановления т* получается как решение уравнения .(5.60) при подстановке в него cv/cm вместо dv/dm. Максимальное значе- ние коэффициента готовности K(T*) = r+v(T*)- <5-63) Рис. 5.12. Оптимальные интервалы восстанов- ления при минимальном восстановлении с пе- риодическими полными заменами (пример 5.8) (5.62) Рис. 5.13. Минимальная интен- сивность эксплуатационных за- трат при минимальном восста- новлении с периодическими пол- ными заменами (пример 5.8) 149
В [331] изучена модификация стратегии 3, в которой (по ана- логии со стратегией 2 из разд. 5.2) непосредственно после полно- го восстановления наступает время бездействия. В [64] рассмот- рена стратегия 3 в предположении, что последовательность {cm(i)^ i=l, 2,...} монотонно возрастает, где cm(i) — затраты на i-e мини- мальное восстановление после прошедшего полного восстанов- ления. Стратегия 4. Система восстанавливается полностью после пер- вого отказа, который произошел спустя время т после предыдуще- го полного восстановления. Промежуточные отказы устраняются с помощью минимального восстановления [242]. При равных затратах (временах) на восстановление эта стра- тегия эффективнее стратегии 3, так как при специально подоб- ранном графике полных восстановлений в достаточной мере исчер- пывается наработка системы. По сравнению со стратегией 3 цик- лы увеличиваются на остаточную наработку Хт, причем без допол- нительных затрат на восстановление. С этим связано увеличение математического ожидания длины цикла на величину Г (,) = f E^±2EL dx = еА <t) Г е-д(х) dx (5.64) o’ J (см. (2.26)). На практике, тем не менее, затраты на полное вос- становление cv в целом выше для стратегии 4, чем для страте- гии 3, так как моменты проведения полных восстановлений явля- ются случайными, даже если длительности восстановлений прене- брежимо малы. При этом достигнутое увеличением длины цикла преимущество может сводиться на нет. Интенсивность эксплуата- ционных затрат к (х) — т + г • (5-65) Оптимальный интервал восстановления т* является решением уравнения (Л (т) +Cv/cm— 1) г (т) = Т. Если он существует, то соответствующая интенсивность эксплуа- тационных затрат R (т*) = с т/г (т*) = (cv+cm (Q (т*) -1)) /т*. Описанная стратегия обобщена в [334]. Стратегия 4'. Полные восстановления проводятся, как и в стратегии 4, но не позднее, чем через время Т (относительно мо- мента последнего полного восстановления). Частными случаями этой (т, Т)-стратегии являются страте- гия 1 (для т=0, Т<оо), стратегия 3 (для Т=т<оо) и страте- гия 4 (для Т=оо). Для стратегии 4' случайная длина цикла за- 150
R(x,T) = дается выражением Ьт,т=т4-ппп{Хт, Т—т}, а ее математическое ожидание E(Lt.T)=T+r(T, Т), T-t _ где г(т, Т) = FT(t)dt. Поэтому соответствующая интенсив- 6 яость эксплуатационных затрат cmA (т) + cvFt(T —т) + cPFx(T~ 'с) г + г(т,Т) Здесь Ср — затраты на профилактику в момент Т. Оптимальная по затратам пара (т*, Т*) удовлетворяет системе уравнений «3R(т, T)/dr=<?R(T, Т)/дТ=0, или A (t) г (т, Т) +FT(Т-т)-Cm/(cv-cp) =0; (5.66)] Х(Т) —(стЛ(т) +CV—Ст)/ ( (Cv—Ср)т) =0. В [334] показано, что для неограниченно возрастающей ин- тенсивности отказов и в предположении выполнения неравенства Cv>-Cm>Cv—cm>0 всегда существует однозначное решение (т*, Т*) этой системы уравнений, причем 0^т*<Т*<оо, В этом слу- чае R(t*, Т*) = (Су—ср)%(Т*). (5.67) Пример 5.9. Пусть X(t)=t, cm=5, сР=6 и cv=10. Система уравнений (5.66) имеет вид т Т j e-(x’-T’>/2dx + — 5/4 = 0; (5.68) 8тТ—5т(2)—10=0. (5.69) Решение однозначно и т*= 1,032, Т* = 1,856. Отсюда и из выражения (5.67) ^получается минимальная интенсивность эксплуатационных затрат R(t*, Т*)= =7,425. Согласно уравнению (5.69) Т=5(т2+2)/(8т). Обозначим левую часть уравнения (5.68) через ф(т). Поведение функции ф(т) показано на рис. 5.14. Следующая стратегия восходит к работам [219—221], а так- же [263]. Стратегия 5. Первые п—1 отказов устраняются с помощью ми- нимального восстановления. После n-го отказа система восстанав- ливается полностью. Длина цикла равна времени Хп до наступления n-го отказа. «Согласно формуле (5.1) интенсивность эксплуатационных затрат К(П) = 1°~Е«”1+" • (5-70) Е(хп) 151
В отличие от всех рассмотрен- ных стратегий восстановления ин- тенсивность эксплуатационных за- трат зависит теперь не от непре- рывной, а от дискретной перемен- ной, а именно, от числа отказов на интервале между двумя последова- тельными восстановлениями. Рис. 5.14. График функцииф(т) Минимизация R(n) по п экви- (пример 5.9) валентна максимизации 1 /К (п). Поэтому применима лемма 5.5 и после подстановки a=b=0, с=ст и d=cv условие (5.58) пере- ходит в неравенство Е (Хп) - (п-1 +cv/cm) Е (Yn+1) > 0. (5.71) Оптимальное значение п = п* равно наименьшему натуральному числу п, удовлетворяющему условию (5.71). Для существования конечного п* достаточно неограниченного роста интенсивности от- казов X(t). Если не существует такого конечного п*, то п* = оо. В общем случае невозможно из неравенства (5.71) получить точное выражение для п*. Исключение составляет важный на практике частный случай, когда наработка системы имеет рас- пределение Вейбулла — Гнеденко. Итак, пусть для р>1 При этом предположении из уравнений (5.55) получаем Е (X.) = 0 -Г (к + -/Я-, к—1,2, .... к (к—1)! Из свойства гамма-функции Г(х+1)=хГ(х) (см. также подразд. 5.3.2) и равенства E(Yk+i) =E(Xk+i)—E(Xk) следует Е (Yk+1) = 0 Г (к ^--/Р) , k = 1, 2. Тем самым, имеет место соотношение E(Xk)=kE(Yk+1), k=l, 2... Поэтому условие (5.71) в случае распределения Вейбулла—Гне- денко имеет простой вид ₽п—(п—l+cv/cm)>0. Следовательно, п* (5-72) 1 /Су ₽-Лсп> где [х] означает целую часть числа xJ>0 (полагаем [х]=0, если х<0). Обращает внимание то, что п* не зависит от масштабного 152
Таблица 5.3. Сравнение эффективности стратегий 3, 4 и 5 (пример 5.10) «Л. 1 2 3 4 5 6 7 Стратегия 10,0 14,1 17,3 20,0 22,4 24,5 26,5 Стратегия—^*) 0,0 6,9 11,4 15,0 17,8 20,4 22,6 Стратегия 5(п*) 1 2 3 4 5 6 7 параметра 0 распределения Вейбулла — Гнеденко, и это соответ- ствует нашим интуитивным представлениям. Пример 5.10. Пусть наработка X системы имеет распределение Вейбулла — Гнеденко с параметрами 0=10 и р = 2. В табл. 5.3 приведена зависимость опти- мальных значений т и п от отношения коэффициентов cv/cm для стратегий 3, 4 и 5. На рис. 5.15 показано поведение соответствующих минимальных интенсив- ностей эксплуатационных затрат R(t*) и R(n*) (отнесенных к сш). Стратегия 5 оказывается, таким образом, эффективнее стратегий 3 и 4. Если продолжительности минимального восстановления dm и полного восстановлени dv не являются пренебрежимо малыми, то коэффициент готовности системы для стратегии 5 К(П) = ——Е(Хп) E(Xn) + (n-l)dm + d, Для вычисления значения п=п*, оптимизирующего коэффициент готовности К(п), снова можно применить лемму 5.5. Если а=Ь= =0, c=dm и d = dV) то условие (5.58) переходит в равенство E<XJ-(и— 1+^'';Е(¥„,)Э.О. \ ш / Поэтому для наработки системы, имеющей распределение Вей- булла— Гнеденко, п* задается по формуле (5.72), если в ней за- менить коэффициент Cv/cm на dv/dm. В работах [220, 221], а также [242] определена следующая общая стратегия восстановления. Пусть {ai, i=l, 2, ...} — заданная последова- тельность неотрицательных чисел. Минимальное восстановление осуще- ствляется до тех пор, пока Xi<ai, i= = 1, 2 ... Если для некоторого и впер- вые Хп^ап, то в момент Хп осущест- Рис. 5.15. Сравнение эффективностей стратегий 3, 4 и 5 (пример 5.10) 153
вляется полное восстановление. Частными случаями этой страте- гии являются, например, стратегия 4 (ai=T для всех i=l, 2, ...)г а также стратегия 5 (ai=a2=.. .=an-i= оо и an=an+i = .. .=0) . Обсуждение этого общего варианта едва ли имеет практическое значение. В [251, 271] сделан обзор стратегий восстановления с минимальным восстановлением и проведено сравнение их эффек- тивностей. 5.5. ВОССТАНОВЛЕНИЕ ПРИ РАЗЛИЧНЫХ ТИПАХ ОТКАЗОВ Обсуждавшиеся в предыдущем разделе стратегии восстанов- ления 3—5 можно применять лишь тогда, когда каждый насту- пающий отказ может быть устранен с помощью минимального восстановления. Однако в многочисленных практических ситуаци- ях встречаются отказы, для устранения которых нужны восстано- вительные мероприятия, не описываемые или неудовлетворитель- но описываемые с помощью минимального восстановления. На- пример, восстановление сильно поврежденного в дорожной аварии автомобиля не является «минимальным». Чтобы аналити- чески описать ситуации этого рода, введем два типа отказов си- стем: Тип 1. Отказы устраняются минимальным восстановлением. Тип 2. Отказы устраняются аварийным восстановлением. В дальнейшем исходя из анализа обобщенной модели отказов проанализируем некоторые стратегии восстановления и покажем их связь со стратегиями 1—5. Изложение проводится в соответст- вии с [39, 41, 42, 46]. Аналогичные модели изучались в [88, 250]. 5.5.1. ПРЕДВАРИТЕЛЬНЫЕ ЗАМЕЧАНИЯ Пусть p(t) и р (t) = 1—p(t)—вероятности того, что отказ, на- ступающий в момент t, имеет соответственно тип 1 и 2. Естествен- но предположить, что функция p(t) монотонно возрастает: P(-t1)^p(t2) для ti<t2. (5.73) Впрочем, это свойство почти не используется. Особое значение имеет функция распределения G(t) случай- ного времени Y от начала работы до наступления отказа второго типа. Для того чтобы ее вычислить, введем случайные события Bk(t), k = 0, 1, 2,...: Bk(t) = {Ha интервале (0, t) произошло к отказов первого типа и не произошло ни одного отказа второго типа}. 154
Очевидно, G(t) = 1 — G(t) = Jj P(Bk(t)). (5-74) к=0 Принимая во внимание соотношения (5.49) и (5.51), выводим P(Be(t)) = F(t); р (Bi (0) = F(t) | Р (х) X (х) dx, а для к^2 оо t хк хзХя р (В, (*» = Ш • -И П Р WЛ W ,IF <v. |) = f ° 0 0 0 i=l / t \k I 1 P (x) (x) dx I -----------^-P(t). (5.75) После перемены порядка суммирования и интегрирования в урав- нении (5.74) получаем (t \ — J р (х) Я, (х) dx к (5.76) Интенсивность отказов, соответствующая функции распреде- ления G(t), задается в виде g(t) =p(t)%(t). Поэтому, по предпо- ложению (5.73), функция g(t) строго монотонно возрастает, если таким свойством обладает %(t). Другой важной характеристикой является случайное число от- казов первого типа Zx, наступивших на интервале (0, min(Y, х)) и восстановленных согласно договоренности с помощью мини- мального восстановления. Сначала вычислим условные вероятно- сти rk(x) =P(Zx=k|Y=x), k=0, 1, 2...... По определению Р(2х = кПх<У<х + Дх) г. (х) = lim-----------------------= k дх-»о p (x < Y < x + Дх) = lim дх-*о p (x < Y < x + Дх) 155
Из соотношения (5.49) получается Р(х<У=Хк+1<х + Дх) = х+Дхх^! xg ха к = J J •••JJ np(xi)^xi)dxip(xk+i)f(xk+i)dxk+J = х 0 0 0 i=«l х + дх /хк+1 \к = f 4г\ f р <у)Л<у) <*у ) P<xk+1)f(xk+1)dxk+1. J к! \ J J х \ о / Разделим числитель и знаменатель в выражении (5.77) на Дх и перейдем к пределу при Дх->0. Тогда гк (х) = -Jj- (J Р (у)А (у) dy)k ехр ( — [ Р (у)* (у)dy) • (5.78) хо о Таким образом, условное распределение {гк(х)} определяет не- стационарный пуассоновский процесс с параметром Е (Zx I Y = х) = J р (у) А (у) dy. (5.79) о Отсюда E(Zt 1 Y<t) = JE(ZX | Y = x)dG(x)/G(t) = 0 = J J P (y) A (y) dy dG (x)/G (t); (5.80) 0 0 t_ E(Zt | Y>t) = E(Zt | Y = t) = Jp(x)A(x)dx; (5.81) 0 E(Zt) = E(Zt|Y<t)G(t)+E(Zt | Y>t)G(t) = t__ = C G(x) dA(x) — G(t). (5.82) 5.5.2. СТРАТЕГИИ ВОССТАНОВЛЕНИЯ Стратегия 6. Система восстанавливается способом, зависящим от типа отказа. Для изучаемой модели отказов эта стратегия является обоб- щением стратегии аварийных замен. Разумно использовать ее как основу для оценки последующих стратегий 7 и 8. 156
Соответствующая интенсивность эксплуатационных затрат име- ет вид R=[cmjE(Zx| Y = x)dG(x)-|-ch'j /е(У). Интегрируя выражение (5.79) по частям, получаем cJj G (t)dA(t) — 1 j + ch R = Vo . (5.83} J G (t) dt о До сих пор мы исходили из предположения, что специфика каждой системы, а также условия ее восстановления позволяют задать функцию p(t). Однако произвольный ее выбор также дает возможность управлять объемом восстановительных работ. На- пример, при P(t)= - .. (1, t> t, стратегия 6 формально идентична стратегии 4. В этом, кроме того, можно убедиться, сравнивая интенсивности эксплуатационных затрат, заданные формулами (5.83) и (5.65). Стратегия 7. Система восстанавливается способом, зависящим от типа отказа. Если на интервале (0, т) не наступает отказа вто- рого типа, то в момент т проводится профилактика. Соответствующая интенсивность эксплуатационных затрат имеет вид [СЮЕ (Zx I Y<t) + chJ G W + [cmE (Zx I Y>x) + cp] G (г) K(t) =--------------------;------------------------, j* G (t) dt о а с учетом выражений (5.80) и (5.81) cm f ° ГО dA ГО — G ГО + chG (t) + CpG (t) R (г) =----2---------—J---------------------. (5.84) JG(t)dt 0 Оптимальный интервал восстановления т=т* является решением уравнения (р (г)+ С) Л (г) J G (t)dt - с J G (t) dA (t) - G ГО = сср/сю, (5.85) о о 157
где c=cm/(ch—ср—cm). Если с>0 и %(оо) = оо, то из леммы 5.2 и того факта, что функция J(Z(x)-X(t))G(t)dt о строго монотонно возрастает по т, следует, что всегда существует однозначно определенное решение. Оценивая левую часть урав- нения (5.85), получаем достаточное условие существования ко- нечного решения при 1(оо)<оо; | (* (°°) — * (t)) G (t) > (ch — cm)/cm. Для оптимального интервала восстановления эксплуатационных затрат R (т*) = [ (ch—Ср—ст) р (т*) +cm] X(т*). т* интенсивность (5.86) В случае граничных значений p(t) = l и p(t)s=0 различие в от- казах системы исчезает и стратегия 7 совпадает соответственно со •стратегиями 1 и 2. Точно так же для ст=0 совпадает функцио- нальный вид уравнений (5.7) и (5.84). Пример 5.11. Пусть p(t) = p, 0<р<1. Тогда g(t)=pX(t), G(t)=(F(t))p и 1 — р 1 — ch + — cm G(T)+CpG(T) R (*) = ------t-v-J-------------- f G (t) dt (5.87) При этом интенсивность эксплуатационных затрат, очевидно, имеет тот же функ- циональный вид, что и для стратегии 1. В частности, оптимальное значение т=т* является согласно выражению (5.8) решением уравнения С- Рср g (г) j G (t) dt - G (г) = -n—-rRr-?y— . О “Если наработка имеет распределение Вейбулла — Гнеденко, F (t) = 1 — то это уравнение принимает вид (5.88) Пусть, например, 0=10, ст=1, Ср=20, сь=50. На рис. 5.16 и 5.17 изображены -зависимости решения уравнения (5.88) т* и интенсивности эксплуатационных .затрат R(t*) от р, полученные для этих значений параметров. 158
Рис. 5.16. Оптимальные интервалы восстановления при двух типах отка- зов (пример 5.11) Рис. 5.17. Минимальная интенсив- ность производственных затрат при* двух типах отказов (пример 5.11) Если продолжительности восстановлений dm, dh и dp не явля- ются пренебрежимо малыми, то коэффициент готовности системы^ для стратегии 7 J G (t) dt К(’) =----------------------------------------------------——--------------. (5.89> dm J G (t) dA (t) — G (x) + dhG (x) + dpG (t) Г G (t) dt .o J о Интервал восстановления т*, оптимизирующий коэффициент го- товности К (т), является решением уравнения (5.85), в котором затраты на восстановление следует заменить на соответствующие времена. Коэффициент готовности системы при использовании т* К = 1 + [(dh -dp - dm) р (х*) + dm] х (г*) • Стратегия 8. Система профилактически восстанавливается в моменты т, 2т.... На интервалах между ними тип восстановления соответствует типу отказа. Для граничных значений p(t)sl и p(t)s0 стратегия 8 совпа- дает соответственно со стратегиями 2 и 3. Пусть Hm(t) и Hh(t) означают среднее число отказов первого» и второго типа, наступивших за время (0; t); t=sCr. Тогда интен- сивность эксплуатационных затрат R (т) = (cmHm (т) -f-ChHh (т) -|-Ср)/т. (5.90)* 15»
Для tigjr среднее число отказов первого типа Hm(t) удовлетворя- ет следующему интегральному уравнению: Hm (t) = Е (Zt | Y > t) G (t) + j (Е (Zx| Y = х) + Нт (t — x)) dG (x). о Из соотношений (5.80) — (5.82) следует Hm(t) = T(t)+ (Hra(t-x)dG(x), 0 (5.91) где T (t) = E (Zt) = J G (x) dA (x) — G (t). 0 Моменты наступления отказов второго типа образуют простой процесс восстановления с функцией восстановления Hh(t), кото- рая поэтому удовлетворяет уравнению восстановления (см. (4.14)) 'Ч С) = G (t) + J Hh —x) dGi(x)- (5-92) 0 Преобразования Лапласа и Лапласа — Стилтьеса для функций Hm(t) и Hh(t) сразу получаются из выражения (2.48) (см. также /4.19)). Однако обратные преобразования так же, как прямые решения уравнений восстановления, получаются, вообще говоря, численными методами. Оптимальный интервал восстановления т* удовлетворяет не- обходимому условию | [Cm (hm (х) - (t)) + ch (hh (г) - hh (t))] dt = cp, (5.93) где hm(t) = dmH(t)/dt и hh(t) =dHh(t)/dt. Если т* существует, то R(T*)=cmhm(x*) + chhh(x*). (5.94) Пример 5.12. Пусть p(x)sp, 0<р^1 и p = l—p. Тогда T(t)=pG(t)/p и Hm(t) =pHh(t)/p. Уравнения (5.90), (5.93) и (5.94) принимают вид R А) = — т PCm + ^h —-------Hh(x)+cp P PCp *h(’) - HhW = - , c • Pcm + cP PC +pch R(T*)=—-------- hh(z*). (5.95) (5.96) (5.97) 160
Таблица 5.4. Влияние отказов 2-ео типа на оптимальный интервал вос- становления и на интенсивность производственных затрат (при- мер 5.12) р 0 0,2 0,4 0,6 0,8 1 т*(р) 13,6 9,9 9,1 8,3 7,6 7,0 R(t*(p)) 0,552 0,737 0,887 0,983 1,066 1,137 Пусть, в частности, Ст=1, Ср=5, ch= 10 и Mt) =0,003t2. В табл. 5.4 приведены значения величин т*=т*(р) и R(r*(p)), соответствующие некоторым значе- ниям р. В этом примере стратегия 3 (р = 0) оказывается значительно эффектив- нее, чем стратегия 2 (р=1), ибо интенсивность эксплуатационных затрат R(t*) для р=1 вдвое больше, чем для р=0. Кроме того, для всех рассмотренных зна- чений р R(t*(0))^R(t*(p))^.R(t*(1)). В общем случае можно показать, что это неравенство справедливо всегда, когда т*(р) существует для всех O^p^l. Замечание 1. Уравнения (5.95) — (5.97) уже встречались (с другими коэф- фициентами) при анализе стратегии 2. Поэтому сравнение стратегий 6—8 для p(t) =р можно провести методом, обсуждавшимся в разд. 5.3. Замечание 2. При т=оо стратегии 6 и 8 идентичны, так что для всех cm, Ch и ср справедливо соотношение R— limR(T), причем интенсивности эксплуатацион- Т->00 ных затрат R и R(t) заданы соотношениями (5.83) и (5.90). Из сравнения кри- териев (5.83) и (5.90) следует 00 С g (t) ал (t) — 1 lim--------оо "" ’ Jaiodt О 5.6. ВОССТАНОВЛЕНИЕ ДУБЛИРОВАННЫХ СИСТЕМ Повышение надежности технической системы за счет повыше- ния надежности ее элементов, вообще говоря, имеет свои техни- ческие и экономические границы. Проведение эффективной стра- тегии восстановления' также во многих случаях не позволяет до- стичь требуемого уровня надежности. Например, заранее ясно, что нельзя произвольно увеличивать коэффициент готовности, когда время, требуемое на проведение восстановительных мероприятий, не может превосходить технологически обусловленных границ (см. подразд. 5.1.2). В таких случаях требуемые надежностные харак- теристики часто могут быть достигнуты только за счет структур- но избыточной конструкции системы. Правда, надо отметить, что для определенных систем одной лишь структурной избыточностью 11—6301 161
нельзя достигнуть требуемых предельно высоких коэффициентов готовности — необходимо сочетать ее с надлежащей стратегией восстановления. Раскроем глубже эти соображения на примере системы, состо- ящей из двух идентичных элементов (основного и резервного), причем будем предполагать, что длительности восстановления не являются пренебрежимо малыми. В задачах с избыточными си- стемами проблема затрат часто не является первостепенной, по- этому критериями оптимальности служат средняя наработка си- стемы (время до первого отказа системы) и ее коэффициент го- товности. 5.6.1. СТРУКТУРА СИСТЕМЫ И СТРАТЕГИЯ ВОССТАНОВЛЕНИЯ Пусть к моменту ввода системы в эксплуатацию t=0 один эле- мент находится в ненагруженном резерве. После отказа основного элемента его функции берет на себя резервный и начинается пол- ное (аварийное) восстановление отказавшего элемента. По окон- чании восстановления элемент перемещается в резервное состоя- ние (ненагруженный резерв). Если, однако, основной элемент от- кажет до завершения восстановления, то это приведет к отказу системы. Итак, мы описали известную модель дублированной системы с ненагруженным резервом, которая проанализирована в [156]. Цель этого подраздела состоит в том, чтобы обобщить получен- ные в указанной работе результаты, введя в описанную модель профилактики. При этом ограничимся следующими стратегиями. Если основной элемент не откажет на интервале (0, т), то в мо- мент т он полностью профилактически восстанавливается. Во вре- мя профилактики одного элемента его функции берет на себя дру- гой элемент, который тем самым становится основным и остается им вплоть до профилактики через время т либо до своего отказа. Если к предусмотренному моменту профилактики одного эле- мента другой еще не работоспособен, т. е. сам находится в ста- дии восстановления, то проведение профилактического восстанов- ления повлечет за собой отказ системы. Поэтому мы модифициро- вали стратегию восстановления следующим образом: если к за- планированному моменту профилактического восстановления ос- новного элемента резервный не работоспособен, профилактика первого передвигается на момент завершения восстановления ре- зервного элемента. Все переключения системы из одного состояния в другое (име- ются основное и резервное состояния, а также состояние восста- новления) совершаются абсолютно надежно и за пренебрежимо малое время. Через X, Yp, Yh и т обозначим соответственно нара- 162
ботку основного элемента, длительность профилактики, длитель- ность аварийного восстановления и длину интервала восстановле- ния. Пусть при этом речь идет о взаимно независимых случайных величинах с конечными математическими ожиданиями и непре- рывными функциями распределения F(t)—P(X^t), B(t) = = P(YP<t), G(t)=P(Yh^t) и D(t)=P(r^t). (В отличие от моделей, рассмотренных до сих пор, предполагаем, что случай- ной величиной является и интервал восстановления.) Для- того чтобы профилактические восстановления были осмысленными, по- требуем, чтобы распределение F(t) принадлежало классу ВФИ и вероятность отказа основного элемента за время проведения про- филактики была меньше, чем вероятность отказа основного эле- мента за время проведения аварийного восстановления: jB(t)dF(t)< jG(t)dF(t). (5.98) о о Дублированные системы с ненагруженным резервом и профи- лактиками рассмотрены в многочисленных работах. Укажем лишь обзорную статью [252], книгу [320], а также работы [8, 328]. Этот раздел основан на работах [38, 42]. В гл. 11 излагается бо- лее мощный метод изучения этой и подобных моделей. 5.6.2. СРЕДНЯЯ НАРАБОТКА В процессе эксплуатации система может находиться в четырех состояниях. Состояние 0: один элемент работает, другой находится в ре- зерве (исходная ситуация). Состояние 1: один элемент работает, другой подвергается ава- рийному восстановлению. Состояние 2: один элемент работает, другой подвергается профилактике. Состояние 3: оба элемента не рабо- тают. Возможные переходы между состоя- ниями изображены на рис. 5.18. Состоя- ние 3 является поглощающим. Пусть Si(t) означает вероятность безотказной работы системы при усло- вии, что к моменту t=0 (начало рабо- ты) система находится в состоянии i(i=0, 1, 2). (Функции Si(t) и S2(t) яв- ляются для нас вспомогательными, Рис. 5.18. Диаграмма на- дежности для вычисления средней наработки поскольку по договоренности система к началу работы находится в со- стоянии 0.) Прежде всего нужно 11* 163
определить преобразование Лапласа для функции S0(t) и с его помощью получить из формулы (2.50) среднюю наработку систе- мы. Для этого обозначим через Wij(t)(i=O, 1, 2; j=l, 2, 3) веро- ятность того, что система, находившаяся в момент t=0 в состоя- нии i, попадает на интервале (0, t) непосредственно в состояние j (без промежуточных состояний 0, 1 и 2). Если, кроме того, обо- значить W0(t) = l— W0i(t)-W02(t); Wi(t) = l— Wn(t)— WI2(t)— W13(t), i=l, 2, (5.99) то по формуле полной вероятности функции Si(t), i=0, 1, 2, удов- летворяют системе уравнений S, (t) = J S, (t - x) dWu (x) + f S2 (t - x) dWe (x) + W, (t), i = о 6 = 0, 1, 2. (5.100) Пусть Si(s) и Wi(s) означают преобразования Лапласа соот- ветственно для функций Si(t) и Wi(t) и пусть W*u(s)—преобра- зование Лапласа — Стилтьеса для функции Wij(t), i=0, 1, 2; j = = 1, 2. Применяя преобразование Лапласа к обеим частям инте- грального уравнения (5.100), с помощью (2.47) и (2.48) получаем линейные алгебраические уравнения (s) = Wi’j (s) (s) + W,*2 (s) % (s) + Wi (s), i = 0, 1, 2. Разрешая систему относительно So(s), получаем (s) (s) -j- W8 (s) (s) . . oO Ns(s) oU’ где N, (s) = Ww (s) (1 - W22 (s)) + (s) W2\ (s), n, (S)=w; (S) w;2 (s)+w; <s> (i - wjj (s», n, (S)=(i - w;, (S)) (i - w;2 (S)) - w;2 (s) w;t (s>. Согласно формуле (2.50) средняя наработка системы M=^(s)|s=0. (5.Ю1) Для того чтобы применить последнюю формулу, надо определить переходные вероятности Wq(t), соответствующие стратегии вос- становления. 0. Если начальное состояние в момент t=0 есть 0, то возмож- ны два случая: 164
а) основной элемент отказывает до момента запланированной профилактики; тогда система переходит в состояние 1 и вероят- ность того, что этот переход произойдет на интервале (0, t), мож- но представить в виде W01(t) = jD(x)dF(x); О б) профилактика начинается в запланированный момент (ос- новной элемент не отказал до этого момента); тогда система пе- реходит в состояние 2 и W02(t) = jF(x)dD(x). О 1. Если начальное состояние в момент t=0 есть 1, то возмож- ны три случая: а) момент проведения профилактики наступает уже после от- каза основного элемента, в то время как аварийное восстановле- ние резервного элемента заканчивается до наступления отказа; в этом случае система переходит в состояние 1, а вероятность то- го, что этот переход происходит па интервале (0, t), определяется как Wu(t)= [D(x)G(x)dF(x); 6 6i) к моменту завершения аварийного восстановления основ- ной элемент еще не отказал, однако его профилактика предусмот- рена до этого момента; б2) аварийное восстановление закончено до проведения запла- нированной профилактики основного элемента. Оба случая, 61) и б2), взаимоисключающие друг друга, пере- водят систему в состояние 2, поэтому t _ t W12(t) = J F (x) D (x)dG (x) + J F (X) G (x) dD (x); 0 0 в) система отказывает — это возможно при начальном состоя- нии 1, если только отказ основного элемента наступает раньше окончания аварийного восстановления, поэтому Wis(t)= fG(x)dF(x). 6 2. Если начальное состояние в момент t=0 есть 2, то формаль- но имеем ту же ситуацию, что и в случае 1, полагая, начавшую- ся в этот момент профилактику аварийным восстановлением. От- 165
сюда непосредственно получаем переходные вероятности W2j(t), если в выражении для Wij (t) функцию распределения G(t) заме- нить на B(t): Wai(t) = p(x)B(x)dF(x), Wa,(t) = jB(x)dF(x), 0 0 t _ t _ WM (t) = j F (x) D (x) dB (x) + J F (x) В (x) dD (x). 0 0 Вероятности того, что система, находясь в начальный момент в со- стоянии 0, 1 или 2, не изменит его на интервале (0, t), задаются как W0(t)=D(t)F(t), W1(t)=F(t)[l-D(t)G(t)], W2(t) = F(t) [1-D(t)B(t)]. (5.102) Наработка системы M определяется соотношением (5.101) в тер- минах преобразования Лапласа — Стилтьеса. Однако чтобы иметь возможность задавать наработку системы М в более явном виде, « ниже будет рассмотрен важный частный случай постоянного ин- тервала восстановления т, а именно D (t) = (°’ 1 < x = const- (5.103) (1, т. В этом случае [ Wu (s) = J e-st dF (t), W;2 (s) = F (г) e-st, 0 WL (s) = f e~stG (t) dF (t), W2#( (s) = f e~stB (t) dF (t), 0 0 > W;2 (s) = J e-stF (t) dG (t) + e-s'F (г) G (г), W2*2 (s) = J e-stF (t) dB (t) + e~st F (г) В (г), т I Wo (s) = j e-stF (t) dt, (s) = J e~stF (t) dt- j e~stF (t) G (t) dt, | 0 от < W2 (s) = J e-stF (t) dt — J e-s,F (t) G (t) dt. 0 % 166
Средняя наработка М=М(т) получается из этих соотношений тождественными преобразованиями (для простоты переменные ин- тегрирования не указываются): M(x)= I F(t)dt+ Wx (0) paF (г) + J В dF + Ф2 (0) ptF (г) + J G dF o Pife + Pi f BdF+ pa jGdF 0 i (5.104) где |Л= (F(t)dt и (0) = и-J F (t) G (t) dt, Фа (0) = ft - Jf (t) В (t) dt, X tl а также ₽, = jG(t)dF(t), pa= jB(t)dF(t). 0 0 (5.105) Величины Pi и Рг — это вероятности того, что в момент отказа ос- новного элемента аварийное восстановление или профилактика еще продолжаются. Согласно неравенству (5.98) р^Рг. Интересны частные случаи т=оо и т=0. Для т=оо из выра- жения (5.104) получается средняя наработка системы без профи- лактики М(оо) = Ц1₽?|л. Ра (5.106) В случае т=0 практикуется такая стратегия восстановления, при которой после окончания каждого восстановления начинается профилактика основного элемента. Соответствующая средняя на- работка системы 00 М (0) = ~ f F (t) В (t) dt. (5.107) Ра J О Для выполнения неравенства М(оо)>М(0) достаточно потребо- вать условия Pi/(1+Pi) <р2. 167
Таблица 5.5. Влияние интервала восстановления на среднюю наработку (при- мер 5.13) T h 10 20 46.1 240 1000 X M(t) 4 149234 252190 327260 20^430 169481 169249 4M(t) О/ /О -11.8 49,0 93,4 20,8 0,14 0 Влияние интервала восстановления на среднюю наработку си- стемы проиллюстрируем на примере. Пример 5.13. Пусть F(t)= 1 —(1 +at)e-at, G(t)= 1—e-‘/d\ В (t) = 1 — e-t/dP. (5.108) Таким образом, наработка элемента имеет распределение Эрланга при п=2 (см. подразд. 3.1.3), а времена восстановления распределены экспоненциально. Из определения Pi и р2 с помощью соотношений (5.105) получаем Л Г a “I2 Л Г a I2 ,6JW) Пусть, например, a=0,008 ч-1, dP=l ч, dh = 5 ч. (5.110) Тогда ₽i=0,14793 -10-2, р2=0,630 10-4. (5.111) В табл. 5.5 сведены значения величины М(т) для некоторых интервалов восстановления т, а также отклонение ДМ(т) от М(оо) в процентах дм (г) = 1ОО«/0. М (оо) Математическое ожидание наработки основного элемента =2/а==250 ч, так что согласно (5.106) М(оо) = 169 249 ч. Из табл. 5.5 отчетливо видно, что интервал восстановления сильно влияет на среднюю наработку системы. Слишком малень- кие интервалы восстановления (т^11 ч) оказывают отрицатель- ное воздействие на среднюю наработку, в то время как слишком большие (т^ЮОО ч) не дают заметного выигрыша. Напротив, для т=46,1 ч средняя наработка системы возрастает в 1,93 раза по сравнению со случаем, когда профилактики отсутствуют. Это подчеркивает необходимость поиска оптимального для на- работки М(т) значения интервала восстановления т=т*. В част- ности, с учетом (5.108) из необходимого условия бМ(т)/бт=0 получается следующее уравнение для определения т*: yd— {(2at + е"«) [(a + 1 /dp)2 + (a + l/dh)2] - a2 fe"^’^ ' - -e"(a+I/dh)1J} = (a4-l/dp)2. (5.112) 168
Если т* является решением этого уравнения, то средняя наработ- ка системы (2аг* + е'-«#) [(a + l/dh)2 + a2l -a2e-(“+1/dh)x’ м (г*) = ------------------------------------ Для численного примера (5.110) решением уравнения (5.112) оказывается значение т*=46,1 ч, уже имевшее место в связи с табл. 5.5. Отсюда средняя наработка системы для оптимальной профилактики М(т*) =327 260 ч. Без специальных предположений о распределениях X, Y и Z минимизация средней наработки М(т) по т приводит к громозд- ким, мало пригодным для практики соотношениям и здесь следу- ет отказаться от их разбора (см. [252, 253]). Напротив, введя не- которые дополнительные условия (которые на практике часто вы- полняются), получим приближенное выражение для М(т), мини- мизация которого сводится к уже решенной задаче. Приближенное решение. Разумно выбирать интервал восста- новления т с самого начала таким большим, чтобы аварийное и профилактическое восстановления с большой вероятностью закан- чивались за время т. Из этих соображений полагаем В(т)^1 и G(t)^1. (5.113) Это приводит к приближениям Рх=* jG(t)dF(t), [B(t)dF(t). (5.114) о о Практически интервал восстановления т*, минимизирующий сред- нюю наработку М.(т), удовлетворяет условиям (5.113) и (5.14), если dh«Cp и dpCp. и имеет такой же порядок величины, что и ц. С учетом выражений (5.113) и (5.104) после тождественных преобразований получаем f F(t) dt М(г)^М(*)= ° (1+pj. . (5.115) PiF W + P2F Функция М(т) имеет, очевидно, тот же вид, что и функция 1/R(t), где R(x)—заданная с помощью выражения (5.7) интен- сивность эксплуатационных затрат простой системы со сторого периодическим восстановлением. Поэтому значение т=г*, оптими- зирующее функцию М(т), является решением уравнения (5.8), в котором надо заменить с на Рг/Рь В частности, табл. 5.1 может быть использована для получения интервалов восстановления т* в случае наработки, имеющей распределение Вейбулла — Гнеденко. 169
Пример 5.14. Условие (5.114) выполняется, если при подходящем значении т имеют место выражения (5.108) и (5.110). В этом случае т* удовлетворяет уравнению (0,008t4-e-°’008t— 1) / (14-0,008t) =к, (5.116) где к=02/(Р1—0s) ,а с учетом соотношений 5.111) к=0,0445. Решение т* = 46,4 ч; поэтому м (~*) = —— Ф1-₽2)Х(г*) 1 Pl 1 + ах* «2 (Рх + ₽2) = 326 505 ч. Величина %(t)=a2t/(l-pat) является интенсивностью отказов основного элемен- та. Найденные значения т* и М(т*) отклоняются от оптимальных т*=46,1 ч и М(т*)=327 260 всего на 0,7, или на 0,2 %. Этот результат подчеркивает важ- ность приближенной формулы (5.115). Постоянные времена восстановления. Для постоянных времен восстановления dh и dp функции G(t) и B(t) имеют вид G(t) = 0, 1, 0<t<dh dh<t B(t) = 0, 0<t<dp .1, dp<t. (5.117) Если, кроме того, dp< dh^Jx, (5.118) то средняя наработка системы Функциональный вид М(т) такой же, как М(т). Это следует из предположения (5.118), из которого следует и соотношение (5.113). Отсюда значение т=т*, оптимизирующее М(т), получа- ется как решение уравнения (5.8) с заменой с на F(dp)/F(dh). Пример 5.15. Пусть, как и в примере 5.13, времена восстановления dp=l и dh=5, а также F(t) = l—(l-|-at)e~at, где a=0,008. Тогда имеем F(dh) =0,768-10-3 и F(dP) =0,640-10~4. Оптимальный интервал восстановления есть решение урав- нения (5.116), после подстановки в которое k=F(dP)/(F(dh)— F(dP))=0,0909 получаем т*=73,9 ч и М(т*)=478 254 ч. Из сравнения с результатом примера 5.13 ясно, что, несмотря на одинако- вые математические ожидания времен восстановления и тождественные распре- деления наработок основного элемента, оптимальные решения существенно отли- чаются друг от друга. Так, при переходе от экспоненциально распределенного 170
времени восстановления к постоянному оптимальный интервал восстановления увеличивается на 60,3 %, а средняя наработка — на 46,1 %. Увеличение средней наработки при одновременном уменьшении числа профилактик понятно, посколь- ку при переходе к постоянному времени восстановления исчезает элемент слу- чайности. Подобный эффект наблюдается, когда профилактики отсутствуют. Тогда средняя наработка М(оо) = 1 +F(dh) 192 000 ч, а для экспоненциально распределенных времен аварийных восстановлений М(оо) = 169 249 ч. 5.6.3. КОЭФФИЦИЕНТ ГОТОВНОСТИ Будем вычислять коэффициент готовности при условии, что имеется лишь один прибор обслуживания. Таким образом, оба элемента не могут восстанавливаться одновременно. Состояния 1, 2 и 3 определены, как в предыдущем разделе. В состоянии 3 (состояние отказа) один элемент восстанавливается, а другой ждет ремонта. Интервалы между моментами перехода из состояния 3 в состояние 1 разбивают время функционирования си- стемы на циклы (восстановления). Случайная длина одного цикла L слагается из двух характерных составляющих: L = L(0)-j-L(1). Здесь L(0) и означают длины той части цикла, когда система находится в состоянии работоспособности или отказа. Если {Ln= =Ln(0)+Ln(1), n=l, 2, ...} — последовательность длин циклов с момента начала работы системы, то последовательность {Ln(0), Ln(1), п>1} не образует альтернирующего процесса восстановления в смысле определения 4.6, так как L(0) и — зависящие друг от друга случайные величины. Все же с учетом замечания, сделанно- го после соотношения (4.68), коэффициент готовности системы К можно также и в этом случае вычислять с помощью выражения (4.73). Итак, K=E(L(°))/E(L). (5.119) Обратим внимание на то, что средняя наработка E(L(0)) опре- деляется не с помощью выражения (5.104), а из следующего со- ображения: в момент t=0 одновременно с началом работы одно- го элемента начинается аварийное восстановление другого. Коэф- фициент готовности системы получается с помощью соотношений (2.50) и (5.119) из системы интегральных уравнений, которая, как и система (5.100), записывается раздельно для функций P(L(0)> >t) и P(L<1)>t) и которая решается с использованием преобразо- вания Лапласа [40]. Этим способом в предположении (5.103), т. е. при постоянном интервале восстановления т, получается коэффи- 171
циент готовности (5.120) где у = J(l—F (t)G(t))dt, О 8= J(l-F(t)B(t))dt. о (5.121) В частности, при отсутствии профилактики (т=оо) коэффициент готовности системы К(оо)=и/Т, (5.122) а в случае «профилактики основного элемента после окончания восстановления другого элемента» (т=0) к ,0 = (H + dh-Y)fe + (H + dp-8)(l-p1) U d^ + dpU-fe) где dh и dp — средние времена проведения аварийного и профи- лактического восстановления: dh=[G(t)dt, dp = jB(t)dt. 0 9 Интервал восстановления т=т*, оптимальный относительно ко- эффициента готовности К(т), является решением уравнения dK(T)/dx=0. Это уравнение не приводится в развернутой форме по тем же причинам, что и уравнение для средней наработки. Сравним значения интервалов восстановления, полученные опти- мизацией средней наработки и коэффициента готовности при оди- наковых характеристиках системы. Пример 5.16. Пусть распределения времен восстановления и наработки ха- рактеризуются соотношением (5.108). Тогда согласно формулам (5.109) 2 2a-|-l/dh 2 2a+l/dp y = du 4- ——, 6 = dn 4- — ~-----------------L-i— • 7 a (a 4-l/d|,)a P a (a-|-l/dp)» Пусть, в частности, a=2 ч-1 и dh=l ч. Тогда ц=2/а=1 ч, а=4/9 и у=13/9. Из соотношений (5.106) й (5.122) следует М(оо)=3,25 ч, К(°°) =0,6923. 172
Таблица 5.6. Сравнение интервалов восстановления, оптимальных от- носительно средней наработки и коэффициента готовности (при- мер 5.16) А», тм ** ЛМ -ЛК 3,0 h"’ 1,750 h 0,402 h 0,4% 13,4% 3,5 1,141 0,312 2,0 15,7 4,0 0,857 0,257 4,6 17,7 4,5 0,689 0,218 7,7 19,5 5,0 0,577 0,191 и,з 21,2 5,5 0,496 0,170 15,2 22,6 6,0 0,435 0,153 19,3 24,0 6,5 0,388 0,139 23,5 25,2 7,0 0,349 0,128 27,9 26,4 7,5 0,318 0,118 32,3 27,4 8,0 0,292 0,110 36,8 28,4 8,5 0,270 0,103 41,3 29,3 9,0 0,251 0,096 46,0 30,2 9,5 0,234 0,090 50,5 31,0 10,0 0,219 0,086 55,3 31,7 В табл. 5.6 [252, 253] показана зависимость от величины 1/dp интервалов восстановления т*м и т*к. оптимизирующих со- ответственно М(т) и К(т), и относительных выигрышей при ис- пользовании оптимальных профилактик: дм= 1001/ дк _ 1001/1. М (со; К (оо) Из табл. 5.6 видно, что в рассматриваемом частном слу-чае оп- тимальный относительно коэффициента готовности интервал вос- становления в 2—4 раза мень- ше, чем интервал, оптималь- ный относительно средней на- работки. Это обстоятельство можно объяснить повышенной опасностью отказа системы во время профилактического вос- становления. Коэффициент го- товности в отличие от нара- ботки определяется не только моментом отказа, но и долей времени эффективной работы. Интересно и то, что с умень- шением средней продолжи- тельности профилактики выиг- рыш в коэффициенте готовно- сти растет не так быстро, как выигрыш в средней наработке. (Независимо от того, что при l/dp^6,5 абсолютные зна- чения выигрыша в коэффициенте готовности больше, чем абсо- лютные значения выигрышей в средней наработке.) Причину сле- дует искать в следующем: положительное влияние на коэффициент готовности при уменьшении dp компенсируется, например, при уве- личении числа профилактик. Приближенное решение. Если выполняются соотношения (5.113), то из выражения (5.120) получаем приближенное значение для коэффициента готовности J F (t) dt К (г) К (х) = ----------2-----------;------. (Y - И) F (г) + (8 - ц) F(z)+ J F (t) dt о Функциональный вид К(т) —тот же самый, что и для коэффици- ента готовности простой системы при строго периодическом вос- 173
становлении (формула (5.16)). Отсюда интервал восстановления т*, оптимизирующий К(т), является решением уравнения (5.8), в котором следует заменить с на (6—и) / (т—и). Для примера 5.14 оптимальное относительно К(т) значение ин- тервала восстановления т*=17,9 ч, в то время как относительно М(т), т*=46,4 ч. Постоянное время восстановления. Если выполняются соотно- шения (5.117) и (5.118), то коэффициент готовности системы jF(t) dt о dh______________dp т • F (т) j F (t) dt+F (t) f F (t) dt + J F (t) dt о oo Аналогия с выражением (5.16) здесь особенно бросается в глаза. Оптимальный интервал восстановления удовлетворяет уравнению (5.8), если положить dp / dh с= J F(t)dt / j F(t)dt. о /о ГЛАВА 6. КОНТРОЛЬ ПРИ ВНЕЗАПНЫХ ОТКАЗАХ СПИСОК ОБОЗНАЧЕНИЙ S стратегия контроля Sn стратегия контроля с и проверками © множество всех стратегий контроля U запланированный момент k-й проверки R(S, F) средние затраты за цикл для стратегии S, если распре- деление наработки есть F R*(F) infR(S, F) L(S, F) средняя длина цикла Q(S, F) интенсивность затрат PF2 плотность Пойа второго порядка р условная вероятность отказа системы между двумя проверками q 1—р 174
Практическое использование моделей, исследованных в преды- дущей главе, предполагает, что состояние системы — работоспо- собности или отказа (другие состояния в этой главе не рассматри- ваются) — известно в каждый момент времени. Однако процесс восстановления многих технических систем, особенно полностью автоматизированных, часто осложняется тем, что это предположе- ние не выполняется. В этих случаях неотъемлемую составную часть мероприятий по восстановлению составляют контрольные проверки, которые дают сведения о состоянии системы. Посколь- ку, с одной стороны, отказ системы приводит или может привести к потерям, а с другой стороны, контроль также сопряжен с затра- тами, возникает задача оптимального с точки зрения общих затрат планирования проверок. Если на первом месте стоит коэффициент готовности системы, то возникает задача его максимизации при заданных затратах. Займемся решением этих задач для простых систем. Обсуждаемая модель восходит к работам [100] (распре- деление наработки известно) и [22] (распределение наработки не- известно) . 6.1. ОПИСАНИЕ МОДЕЛИ Эксплуатация системы начинается в момент t=0. После этого можно узнать о состоянии системы только с помощью контроля. Каждый контроль осуществляется за пренебрежимо малое время и обусловливает постоянные затраты Ci, 0<Ci<oo. Наработка си- стемы есть случайная величина X с функцией распределения F(t)= =P(X^t). Если от момента отказа системы до момента его об- наружения с помощью контроля проходит время t, то затраты опи- сываются функцией v(t), которая предполагается непрерывной и строго монотонной для t>0, т. е. v(t)=0, t<0, limv(t)=oo t-»oo (рис. 6.1). Различают случаи: а) контроль без восстановления (см. разд. 6.2); б) контроль с восстановлением (см. разд. 6.3). Это означает, что в случае а) вмешательство завершается при обнаружении отказа, а в случае В последнем случае процесс кон- троля и восстановления продол- жается неограниченно долго (до- статочно долго). Наконец, для обоих случаев рассмотрим вари- анты, когда распределение нара- ботки известно полностью, час- тично и совсем неизвестно. Если восстановления нет, еще более обобщим ситуацию, предположив, система восстанавливается. Обнаружение отказа I Отказ | I I I I О t] tz -К X tк*.] Рис. 6.1. Модель контроля 175
что интерес представляет работа системы только на конечном от- резке [О, Т], т. е. при отказе после момента Т (Х^Т) учитываются только затраты на контроль до этого момента. Условимся, что если Т<оо, то в момент Т всегда проводится контроль. Это согла- шение, однако, не существенно для математического анализа си- стемы. Пусть, помимо этого, T^sup {t: F(t) <1}. Задача состоит в определении оптимальной относительно то- го или иного критерия стратегии контроля. При этом под стратеги- ей контроля понимается элемент множества ©, где для Т<оо ©={S={tk}, O=to<t!< ... <tn<tn+1 = T, 0^n<oo}, (6.1) а для T=oo <s = /s={tk}, o = t0<tx<tk<.... и [tk. tk+4 = |0,oo)|. I k=o J (6.2) Здесь tk — фиксированные (для заданного SeS) числа. (В момент tk производится й-й контроль, если отказ системы не был обнару- жен к этому времени.) Для Т<оо, когда важно число и контроль- ных проверок, обозначим через Sn стратегию, которая предписы- вает ровно п проверок (помимо той, которая совершается в мо- мент Т). Поскольку каждая стратегия S={tk} полностью харак- теризуется заданием интервалов dk=tk+i—tk, k=0, 1 ..., между проверками, вместо S = {tk} пишут S={6k}. Особый интерес пред- ставляют строго периодические стратегии. Определение 6.1. Стратегия S=S(6) называется строго перио- дической с интервалом 6 между контрольными проверками, если существует 6е(0, оо) такое, что бк=б, k=0, 1 .... 6.2. КОНТРОЛЬ БЕЗ ВОССТАНОВЛЕНИЯ 6.2.1. РАСПРЕДЕЛЕНИЕ НАРАБОТКИ ИЗВЕСТНО Зафиксируем стратегии Sn={tk} для Т<оо и S={tk} для Т=оо и определим при Os^x^y функции gk(x, y) = (k+l)ci+v(y—х), k=0, 1.....Затраты при условии tk<X^tk+i составляют gk(X, tk+i). Тем самым получаем математические ожидания всех затрат на отрезке [0, Т]: n *k+i _ R (Sn, F) = S J gk (tk, tk+1) dF (t) + (n + 1) cxF (T), T < oo, (6.3) k=o tk 00 *k+l R(5,F) = 2 J gk(t W^)- T=°°- M k=0 ‘k 176
Для Т<оо R* (F) = inf R (S, F). Стратегия S*={t*k}, которая удовлетворяет условию R(S*, F)== =R*(F), называется оптимальной. Для Т<оо также имеет место более точная запись S* = S^«. При заданных ц=Е(Х)<оо и бе(0, оо) оценим затраты R(S(d), F) (см. также п. 6.2.2) следующим образом: R(S<8),F)=J J [(k+l)C1 + v((k+l)8-t)]dF(t)< k=0 kS oo (k+1) 6 f [(k:+l)c1 + v(8)JdF(t)< k=0 k6 oo J] (k8) [F ((k + 1) 8)- F (k8)I + cx 4- v (8) < k=0 <-t-ci4-ci4-v(8). 0 Отсюда r*(F)<JLc1 + C1+v(8). 0 (6.5) Таким образом, для конечных р величина R*(F) всегда ограни- чена. Легко убедиться в справедливости функционального уравнения R*(Fx) = inf У У _ J V (у — t) dFx (t) 4- R* (Fx+y) Fx (y) 4- (cx) (6.6) где Fx задано с помощью выражения (2.24), O^x<T. Если функ- ция F(t) непрерывна, а для Т=оо выполняется, кроме того, усло- вие ц.<°о, то нижняя грань в уравнении (6.6) достигается при некотором у*=у*(х) [36]. В этом случае последовательное при- менение уравнения (6.6), начиная с х=0, позволяет сконструиро- вать оптимальную стратегию. Этот прием одновременно доказы- вает следующую лемму. Лемма 6.1. Пусть S*={t*k} (или S*={6*k}> 6*k=t*k+i—t*k, k=0, 1...) — оптимальная стратегия. Тогда б*к — первый опти- мальный относительно затрат R(S, F •) момент контроля (t*k< *k <Т). 12—6301 177
Этот набросок доказательства существования оптимальной стратегии при указанных предположениях не дает, однако, желае- мого численного метода ее отыскания. Вычислением S* будем за- ниматься ниже, всегда предполагая, что функция v(t) непрерывно дифференцируема на интервале (0, оо), а плотность распределения f(t)=F'(t) существует и, более того, является РР2-плотностью (плотность Пойа второго порядка, см. разд. 3.2). Оптимальная стратегия удовлетворяет необходимым условиям 6R({tk}, F)/6tk=O, которые согласно выражениям (6.3) и (6.4) можно записать в эквивалентной форме: ‘k-‘k-4(tk-t) v(tk+i-tk)= J f(tkj dv(t) = cv k= 1, 2, ...; k<oo. 0 В частности, для v(t)=c2(t), c>0, получаем X _ x р(*к) —F^k-l) _____ k+1 k f(tk) (6.7) (6.7') Если ti>0 уже выбрано, то моменты t2, ts, ..., определяются с помощью формулы (6.7) однозначно. Таким образом, задача по- иска оптимальной стратегии свелась к нахождению оптимального момента ti=t*j. Решение последней задачи требует ряда новых определений. Пусть <p(ti)={tk} — числовая последовательность, полученная из формулы (6.7) для некоторого ti>0. Условимся, что она обры- вается на элементе tn, если для k=n правая часть соотношения (6.7) неположительна. Пусть, кроме того, то — наименьшее число такое, что для произвольного ti^To последовательность <p(ti) = QO ={tk} удовлетворяет условию (J [tk, tk+i) Э [О, Т). Существование к=0 то следует из утверждения, приводимого ниже. Лемма 6.2. Элементы tk определенной выше последовательно- сти <p(ti)={tk} являются диференцируемыми и строго монотонно возрастающими функциями ti. Доказательство проводят исходя из факта принадлежности рас- пределения F (t) классу PF2. Каждому ti^to с помощью последовательности <p(ti) поставим однозначно в соответствие стратегию S(ti)s© следующим обра- зом: положим либо S(ti)={*b t2,..., tn, Т), если Т<оо, и tn<T< ^tn+1, либо S(ti) =<p(ti), если Т=оо. Определение 6.2. Стратегия S(ti), порожденная с помощью по- следовательности <p(ti)={tk}, называется допустимой, если либо Т=оо, либо для Т<оо существует tn+i такое, что tn+i=T. Согласно этому определению, стратегия S(to) всегда допу- стима. 178
dt/ Случай 1 (Т<оо). Пусть N — наибольшее натуральное число п, для которого существует решение (6.7) Sne©. Тогда, согласно лемме 6.2 существуют решения (6.7): Sm, m<N. Вообще оптималь- ную стратегию S n*={t*k} можно получить перебором значений R(Sm, F), m=0, 1, .... В следующем утверждении говорится о способе, который в важном частном случае рациональнее, по край- ней мере для больших N. Теорема 6.1. Пусть T=sup {t: F(t) <1}. Тогда t*i=To и n*=N. Доказательство. Утверждения теоремы эквивалентны, поэтому достаточно доказать первое. Пусть для некоторого ti>To S(ti) = {tb t2, .... tn, Т). Тогда п —1 -dR (S-?t'= [ f(tn-t)dv(t)-f(tn) (V (Т — tn) 4-сж) а4 J О (6.8) Согласно лемме 6.2 dtn/dti>0. Выражение в квадратных скобках в правой части выражения (6.8) равно нулю тогда и только тогда, когда стратегия S(ti) до- пустима. В противном случае оно всегда положительно, если ti>To. Так как по определению т0 не может иметь место неравенство ti*<T0, то теорема дока- зана. Из этой теоремы для T=sup {t: F(t)<l} получается следую- щий приближенный метод вычисления однозначно определенной оптимальной стратегии. Алгоритм 1. 1. Выбрать ti>0 таким малым, чтобы последовательность (p(t1) = {ti, t2, ..tn)} обладала свойством tn<T. 2. Увеличивать ti до тех пор, пока первый раз не выполнится равенство tn=T (и следовательно, равенство ti=t*i=r0). Таким образом, применение алгоритма требует лишь много- кратного вычисления элементов <p(ti). При этом длину шага для увеличения ti нужно выбирать в зависимости от конкретных об- стоятельств. Пример 6.1. Пусть наработка системы X равномерно распределена на интер- вале (О, Т). Для п<д* система уравнений (6.7) имеет вид п v (8k) = v (V1) -с1> k=l,2...п,Е\ = Т. (6.9) k=0 Утверждение. Число n*=N является наибольшим целым чис- лом, удовлетворяющим условию п 2 v-(kC1)<T, (6.10) k=0 причем v~'(x) есть функция, обратная к v(t). 12* 179
Для доказательства утверждения достаточно показать, что условие (6.10) необходимо и достаточно для существования решения Sn={6k}. Если Sn= = {6k}— решение системы уравнений (6.9), то согласно неравенству v(60)>nc справедливы также неравенства v(6k)>(n—k)cb к=0, 1, ..., откуда в силу п 2 6к=Т следует необходимость условия (6.10). Пусть, наоборот, условие (6.10) к=о выполняется для некоторого п. Исходя из произвольного 60 такого, что v(60)— —nci>0, образуем последовательность {6k, k=0, 1, ..п}, которая является п п решением уравнений v(6k) =v(6k-i)~ сь k=l, 2, ..., п. Тогда S > S k=o k=o v^kci), и поэтому из-за непрерывности функции v(t) всегда можно опреде- п лить 61 так, чтобы 6к=Т. к—о В частности, для линейной функции затрат v(t)=C2(t), с2>0, решение (6.9) имеет вид 4 = к Нп+£-(”-к+ •>] • к = 1-2.........“ + 1- (6J1) L и "Г * J Вместо условия (6.10) получаем п(п+1)<2с2Т/с1. (6.12) Случай 2 (Т=оо). Если ввести усеченную функцию распреде- ления F(t)=|F^F^’ 0<t<x> (6.13) (1, x<t, то и в этом случае, выбрав х достаточно большим, согласно тео- реме 6.1 можно так задать стратегию S, чтобы выполнялось нера- венство R(S, F)—R*(F)<e. При этом проверки, предписываемые стратегией S на отрезке [0, х], определяются с помощью алгорит- ма 1, в котором надо заменить F на F. Проверки на интервале (х, оо) могут распределяться произвольно, например через равные промежутки времени. Нижеследующие рассуждения дают другую возможность вы- числения стратегии с произвольной точностью. Лемма 6.3. Пусть <p(ti)={tk} или <p(ti)={6k) —последователь- ности, соответствующие некоторому Л>то- Тогда всегда существу- ет ш^О такое, что подпоследовательность {dv, v=m, m+1,...} не- ограниченно монотонно возрастает. Доказательство. Исходя из (6.7) легко убедиться в справедливости нера- венств dv(«k) fOJdv^) ----5»----------, k = 1, 2, ... dt, f(tk) dtx 180
При к->оо отношение f(ti)/f(tk) неограниченно возрастает и всегда справедливо неравенство dv(6i)/dti>0, поэтому увеличение й (начиная со значения т0) при- водит к тому, что члены последовательности <p(ti) = {6k} для достаточно боль- ших к имеют произвольно большие значения v(6k). Следовательно, последова- тельность {6к} неограниченно возрастает. В частности, существует ш>0 такое, что С учетом (6.7) о L (m+J f(tm) dv (t)^5 0. Итак, dm+1^6m. Теорема 6.2. Пусть p=E(X)<oo. Тогда оптимальная страте- гия S*={t*k} (S*=S(t*i)) обладает следующими свойствами: 1. t*!=T0. 2. Последовательность {6*k} монотонно убывает. Доказательство. По определению т0 случай ti*<T0 исключен с самого на- чала. Для ti*>T0 последовательность {д^, ...} неограниченно монотонно возрастает. Поэтому из уравнения (6.6) имеем а* V R* (F .)> f v(<-t) dF . (t)-oo. V n V V"*°° Но согласно неравенству (6.5) функция R*(FX) равномерно ограничена по х, так как вместе с f(t) классу PF2 принадлежит и F(t). Поэтому математическое 0° _________________ ожидание ц(х)= I Fx(t) монотонно убывает с ростом х. Получено противоречие, о и первое утверждение теоремы доказано. Второе утверждение по лемме 6.1 не- посредственно следует из первого. И Из этой теоремы, а также из леммы 6.3 вытекает следующий приближенный метод вычисления оптимальной стратегии. (Он со- ответствует методу из [22] для линейной функции v(t).) Алгоритм 2. 1. Выбрать t>0 и вычислить последовательность q>(ti)={6k}. 2.1. Если для некоторого и выполнено неравенство 6n>6n-i, то уменьшить ti и повторить шаг 1. 2.2. Если последовательность {6k} обрывается для k=n, то увеличить ti и повторить шаг 1. При этом, по-видимому, целесообразно выбрать начальное зна- чение ti так, чтобы с, = J v(t,-- t)dF(t). О 181
Здесь затраты на контроль сравниваются с затратами на необна- руженный отказ. Таблица 6.1. Отклонение затрат от оптимальных при использовании метода [244} Ci/CCjff) P* R(S^,F) (S*,F) Лй,°/о 0,01 0,0985 0,2155 0,1988 7,75 0,03 0,1734 0,3625 0,3434 5,27 0,05 0,2234 0,4632 0,4436 4,23 0,10 0,3103 0,6501 0,6308 2,97 0,30 0,4927 1,1413 1,1256 1,38 0,50 0,5897 1,5092 1,4962 0,86 1,00 0,7189 2,2661 2,2572 0,39 2,00 0,8278 3,5471 3,5417 0,15 3,00 0,8769 4,7170 4,7133 0,08 5,00 0,9229 6,9317 6,9295 0,03 Применение этого алгоритма в тестовых примерах показало его малую вычислительную эф- фективность. Поэтому рекоменду- ется уже упоминавшийся прием: выбрать достаточно большое Т и, перейдя с учетом распределения (6.13) к усеченному распределе- нию (х=Т), вычислить «почти» оптимальную стратегию с по- мощью алгоритма 2. Этот вариант имеет еще то преимущество, что позволяет оценивать отклонения от величины затрат R*(F). В [244] предложен другой метод приближенного вычисления оптимальной стратегии. Для заданного р, 0<р<1, определяется последовательность времен контроля tk=tk (р): Ftk (*к+1) = (F (tk+i) - F (tk))/(l -F (tk)) = p, k = 0. 1 ... (6.14) Это означает, что равны вероятности отказа системы на любом из интервалов между проверками при условии работоспособности системы к моменту предыдущего контроля. Последовательно ре- шая уравнения (6.14), получаем Zk(p)=F-1(l-qk), k=\, 2, ..., (6.15) где q=l—р. В частности, F(ti)=p. Для стратегии Sp={tk(p)} со- ответствующие затраты R (Sp, F) = сг/р 4- с2 2 tkqk-‘p - с2ц. (6.16) к=1 гдеЪ=1к(р). Надо определить значение параметра р, минимизи- рующее затраты R(SP, F). Вычисление такого значения р=р* тре- бует, конечно, некоторых усилий. В [244] в качестве приближения для S* рекомендуется стратегия Sp# ={tk(p*)}. Потери эффек- тивности при использовании стратегии Sp. вместо S* оценим на примере. Пример 6.2. Пусть наработка X распределена нормально с математическим ожиданием ц и стандартным отклонением о(3о<р) и пусть v(t)=c2t. В табл. 6.1, в основном взятой из [244], представлена зависимость от отношения С|/(с2<т) величин р*, R(SP», F)/(с2а), R(S*, F)/(c2o), а также показателя эффективности AR = R(Sp#, F,-R(S*. F) R(SP., F) 100»/e. 182
(После подстановки tk=azk-J-|LL в выражения (6.4) и (6.15) выясняется, что затраты R(S*, F) и R(Sp», F) не зависят от р.) Оказывается, что для Ci/(c2o)^0,5 потери эффективности составляют не более 1 %. Аналогичные чис- ленные исследования были проведены в [245, 332] для наработок, имеющих рас- пределение Вейбулла — Гнеденко и гамма-распределение. Замечание. Естественно сравнить затраты R (So*, F) и R (S<5)*, F) = min R 8£Х(0, оо) (S<s\ F), которые получаются при использовании оптимальной строго перио- дической стратегии, поскольку обе стратегиям, Sp и полностью задаются одним параметром. Однако общие результаты пока неизвестны. Пример 6.3. Пусть F(t) = l—e-at, a>0. Из леммы 6.1 и того, что F(t) = =Fx(t), х5>0, оптимальная стратегия S* строго периодична. (Уравнения (6.15) также определяют в этом частном случае строго периодическую стратегию, по- этому S*= Sp*). Из выражения (6.4) следует Г 5 R (S(5), F) =----J—- с, + e““* f v (t) e+ at dt . 1 _ e-“5 J 0 Оптимальный интервал контроля удовлетворяет уравнению г v(6) = Je+atdv(t) — cv (6.17) Оно всегда имеет при наших предположениях однозначное решение 6*. В част- ности, R*(F)=v(6*)4-cb При v(t)=c2t R(S(5), F) = (C1-hc26)/(l-e-a5)-c2/a, и это уравнение упрощается: e+a5—а6= l-j-aci/c2. Для достаточно больших наработок ц=1/а хорошим приближением является 6* = /2сгр./с2. (6.18) В заключение следует упомянуть, что если времена контроль- ных проверок не являются пренебрежимо малыми, то это не соз- дает дополнительных математических трудностей в рамках этой модели. Нужно лишь предположить, что система не стареет во время контроля. Полученные с помощью алгоритмов 1 и 2 зна- чения 6k задают как раз время от окончания k-й проверки до на- чала (к-|-1)-й. 183
6.2.2. РАСПРЕДЕЛЕНИЕ НАРАБОТКИ НЕИЗВЕСТНО Критерий оптимальности R(S, F) невозможно использовать, когда относительно функции F нет информации или она не пол- ная. Рассмотрим эту ситуацию. Итак, относительно функции F известно лишь то, что она принадлежит подмножеству Sp множе- ства § всех функций распределения, обладающих свойством F(0) = =0. По аналогии с подразд. 5.1.3 определим критерий R(S) = supR(S, F). (6.19) Feffp Задача состоит в определении стратегии S*=S*(5P), такой, что R(S*) = minR(S). See Если 8P=S, т. е. функция F полностью неизвестна, S* называ- ют минимаксной, а в случае 5Рс:5—частично минимаксной страте- гиями. Соответствующие затраты R(S*) называют (частично) ми- нимаксными. 6.2.2.1. МИНИМАКСНАЯ СТРАТЕГИЯ Чтобы задача была нетривиальной, положим Т<оо. Для Sn= ={tk} из выражения (6.3) следует п R(S„,F)<S gk(tk, tktl)[F(W-F(lk)J.+ k=0 + (n+l)C1F(T)< max gk(tk, tk+1). (6.20) k=»0, 1, ...» n Эта оценка является строгой, поэтому R(Sn)=I=o,I?aX.,ngk(tk’ tk+1)' Теорема 6.3. Существует одна минимаксная стратегия. Она со- впадает с оптимальной относительно критерия R(S, F) стратегией Sn» = {t*k}, если F—функция распределения наработки X, рав- номерно распределенной на интервале (0, Т). Доказательство. Очевидно, система уравнений (6.9) эквивалентна системе go(O, t1)=g1(t1, t2)= ... =gn(tn, T). (6.21) Отсюда следует, что стратегия Sr с г>п*-(-1 контрольными проверками не мо- жет быть минимаксной, поскольку из определения п* и условия (6.10) следуют неравенства у(й*)<(п*+1)сь R (s;.) - R (Sr) < V (ф + с, - (г + 1) Cl < v (<) - (п + 1) сх < 0. 184
Покажем теперь, что если S'n={t,k}, О^п^п* — решение системы уравнений (6.21), то для произвольной стратегии Sn={tk} всегда выполняется неравенство R(S'n)^R(Sn). Чтобы убедиться в этом, остановимся сначала на двух очевид- ных свойствах функции gk(x, у), х^у: при фиксированном х она строго монотонно возрастает по у; (I) при фиксированном у она строго монотонно убывает по х (II) Предположим, что имеется стратегия Sn={tk}> отличная от S'n, для которой R(Sn)<R(S'n). (6.22) Пусть тогда число t'i — наименьшее среди tk и такое, что Но ti<t'{, пото- му что иначе согласно свойству (I) имело бы место неравенство gi-i(ti-i, tj)> >R(S'n). А это противоречило бы стратегии (6.22). Точно так же заключаем, что ti+i<tzi+i, поскольку при tI+i>t'i+i предположение (6.22) опять не было бы выполнено из-за свойств (I) и (II). Наконец получаем tn<t'n и отсюда, с уче- том свойства (II), gn(tn, T)>R(S'n), что противоречит предположению (6.22). Таким образом, не существует стратегии Sn, которая обеспечивала бы меньшие по сравнению с S'n минимаксные затраты. Аналогично доказывается справедливость следующего утверждения. Если = {О» = Ок }, пх < п2 < п — решения системы уравнений (6.21), то всегда R(S"<R(Sna). Из теорем 6.1 и 6.3 вытекает следствие. Следствие. Число и* является наибольшим целым числом, для которого существует решение Sn системы уравнений (6.21), а мо- мент t*i является при этом наименьшим возможным моментом контроля. Итак, для v(t)=czt минимаксная стратегия задается с помо- щью выражения (6.11), где п=п*—наибольшее целое число, удов> летворяющее условию (6.12). Соответствующие минимаксные за- траты R (Sn») = —— п* + 2, 2 v Этот результат был получен уже в [100], где к тому же рассмот- рен контроль с возможными ошибками. Пример 6.4. Пусть v (t) =|/Т (t > 0), с, = 1 и Т = 100. В этом случае при 6 7 2 к2 = 91 и 2 к2= 104, получаем п*=6. Система (6.21) имеет вид к=0 к=0 V »к+1-^к = ^Ч-к, к = 0, 1.....6. Отсюда вычисляются моменты контроля: й*=38,5; t2*=65,5; t3*=83,l; t4*=93,3; ts*=98,2; t6*=99,6 (t,*=100). Минимаксные затраты составляют 7,25. 185
6.2.2.2. ИЗВЕСТНО МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НАРАБОТКИ На практике часто ничего не известно о распределении нара- ботки, кроме ее математического ожидания. Это положение вы- звано тем, что математические ожидания, вообще говоря, легко оцениваются на основе экспериментальных данных. Поэтому осо- бое значение имеет частично минимаксная стратегия 5% относи- тельно множества §Р=5ц, где F:Feg, J idF(t) = const, 0 0 < OO (6.23) Эту задачу будем решать для Т=оо. При этом снова предполага- ем, что v(t) непрерывно дифференцируема на интервале (0, оо). Покажем, что существует периодическая частично минимаксная стратегия, для которой интервал между проверками 6% удовлет- воряет уравнению 6V(6)=nci. (6.24) Вследствие условия limv(t)=oo существует, по крайней мере, t->oo одно решение. В частности, для v(t)=C2t имеем однозначное ре- шение (сравните с приближением (6.18)) 8^. = y^/Cjj. (6.25) Частично минимаксные затраты, соответствующие множеству 5ц, определяются согласно критерию (6.19) как R (S) = supR (S, F). В рамках более общей модели в [172] доказано, что sup R (S, F) = sup R (S, F), Feffp, R=$(2) где 5ц(2) — подмножество 5ц, элементы которого имеют не свыше двух точек роста. Исходя из этого соотношения с помощью эле- ментарных оценок получаем представление R(S) = supG,,(S). (6.26) j>m При этом натуральное число m=m(S) определяется неравенст- вами tm+l, а для iy= j справедливо выражение Л t{ — р. и — t, +1> + 1W (6.27) (6.28) 186
Легко убедиться в том, что для строго периодической стратегии S<6) всегда Gij(S(e))=Ci-|-v(6)+cip,/6 для всех пар (i, j), где 0^ s^is^mCj. Отсюда (см. также неравенство (6.5)) R(S(&)) = ±^.4-C1 + v(8). (6.29) О В соответствии с этим оптимальной строго периодической называ- ют стратегию S(V , обладающую свойством r(s<5^)= min R(S(S)). (0, ОО) Тогда б* является решением уравнения (6.24), а для v(t)=C2t r(s(^’) =2/^ + cr (6.30) Основным утверждением является следующая теорема. Теорема 6.4. Оптимальная строго периодическая стратегия s(O « « о* ° н* является одновременно минимаксной стратегией 5*ц. Доказательство. Предположим, что существует стратегия S={tk}, обладаю- щая свойством R (S) <R (S * ). (I) Запишем Gij(S) в виде Gij(S)=(i+l)c14-v(6i)4-(|.i-ti)c1wiJ, где (j —i) СХ -Н V (dp — V (а.) WiJ“ (tj-toc, Пусть, кроме того, wi=supwli и w = minwj. j>m J 0<i<m Для любого i существует j такое, что Wij>0. Поэтому w>0. Если положить 6=1/w, то с учетом выражения (6.29), свойства (I) и определения w для всех i^m (i + 1) с, + v (8j) + (р.— ti)c1w<c14-v H-nqw. Из этих неравенств по индукции получаем 6i<l/w, (II) Определим i0 из услов 1Я wio = w. Тогда fj-ioJCt + vpp-vf», ) ------------------------w, 1 > m. 187
Рис. 6.2. Сравнение затрат при контроле без восстановления (пример 6.5) Принимая во внимание неравенства (II), по индукции определим, что < dj для всех j>m. Но тогда должно быть спра- ведливо неравенство w что противоречит (II). Поэтому не суще- ствует стратегии Se@, обладающей свой- ством (!). Одновременно из доказатель- ства теоремы следует, что каждая частично минимаксная относитель- но множества 8ц стратегия является строго периодической. Аналогичная задача, но с извест- ным квантилем распределения вме- сто р=Е(Х) изучалась в [6, 36, 38, 181]. Пример 6.5. Пусть ц=50 и v(t)=C2t. На рис. 6.2 показана зависимость от отношения c2/ci затрат R(So*, F)/ci и R(S^*)/ci при известной экспоненциально распределенной наработке, F(t) = 1—e_t/50, а также при неполной информации о наработке. Для сравнения приведен график затрат R(Sp*, F)/ci (см. пример 6.3). Эти затраты имеют место, если F является фактической, хотя и неизвест- ной, функцией распределения наработки и применяется стратегия 5Ц*. Неболь- шое различие между затратами R(S*, F) и RfS^*, F) позволяет предположить определенную робастность оптимума по затратам в «окрестности» оптимальной стратегии S*. 6.3. КОНТРОЛЬ С ВОССТАНОВЛЕНИЕМ В предыдущем разделе считалось, что процесс заканчивается с обнаружением отказа. В отличие от этого здесь полагается, что после обнаружения отказа система полностью восстанавливается, а по окончании восстановления вновь начинает работу. Этот про- цесс контроля-восстановления продолжается неограниченно, т. е. ниже везде полагаем Т=оо. Затраты на каждое восстановление равны сз, а время каждого восстановления d. 6.3.1. ПРИНЦИП ОПТИМИЗАЦИИ Интервал между началом работы восстановленной системы и окончанием очередного восстановления разделяет процесс на цик- лы. Для стратегии S={tk} средние затраты на цикл, а также средняя длина цикла соответственно определяются как 00 tk+i H(S,F)=S J gk(t, tk+i + d)dF(t) + c3; k=0 *k 188
00 ‘k-t-l L(s,F) = l*+2 j (tk+i-t)dF<t)+:<i = k=0 ‘k 00 -2 U.IP(V,)-F(VJ+<1- k=0 Согласно формуле (5.1) интенсивность затрат (средние затраты на единицу времени) Q(S, F)=H(S, F)/L(S, F). (6.32) В дальнейшем всегда предполагается, что v(t)=C2t. Это позволяет использовать в рассматриваемой ситуации результаты, полученные для контроля без восстановления. В частности, можно записать H(S, F) в виде H(S, F)=R(S, F)+c2d+c3, где затраты R(S, F) заданы с помощью выражения (6.4). Критерием оптимальности является величина Q(S) = supQ(S, F), обозначение и интерпретация для которой взяты по аналогии с предыдущим разделом. Выбирая различным способом множество 8Р, получаем случаи полной, частичной и отсутствующей инфор- мации о распределении наработки. Следующая теорема является основополагающей для дальней- ших рассуждений. Для ее формулировки положим D(S, F, x)=H(S, F)— xL(S, F) и D (S, x) — sup D (S, F, x), Fe$P где 0^xs^c2, Feg, Se®. Теорема 6.5. Для любого x, 0^x^c2 существует одна и только одна стратегия S(x), обладающая свойством D (S (х), х) = minD (S, х). See Если существует х*е(0, с2) такое, что D(S(x*), х)=0, то имеется одна и только одна стратегия S*, обладающая свойством Q(S*) = minQ(S), See 189
причем S* = S(x*), а также x*=Q(S*). Замечание. Если бы для х^с2 выполнялось неравенство inf D(S, x)J>0, Se© то тогда выполнялось бы и неравенство inf Q (S) х с2, Но в этом случае и ses наилучшая стратегия не содержит ни проверок, ни восстановлений. Доказательство. Из уравнения D(S(x*), х*)=0 следует, что х* = sup ^^X*^P = Q(S (х*)). (I) Fe$pL(S(x*), F) " По определению S(x) для любого Se© 0=D(S(x*), x*)^D(S, х*). Но неравенство 0^.D(S, х*) влечет за собой выражение H(S, F) х*<su£ Т7ё р Feffp L (S, F) Отсюда и из условия (I) следует x* = Q(S(x*))^Q(S) для любого Se© и, тем самым, оптимальность S(x*) относительно Q(S). Чтобы завершить доказательство, допустим существование стратегии S, S=/= =/=S(x*), удовлетворяющей условию Q (S) =sinf_Q (S). (П) Пусть тогда х определяется из уравнения D(S, х)=0. По определению S (х) D(S(x), х) <D(S,"x) = 0. Тогда Q(S(x)) <x=Q(S), что противоречит условию (II). В дальнейшем всегда полагаем (Сз+С1)/р,<С2. (6.33) В противном случае интенсивность затрат при «идеальной» стра- тегии контроля и восстановления (отказы немедленно обнаружи- ваются и за пренебрежимо малое время устраняются) была бы не меньше, чем затраты в единицу времени при простое сг. Но'тогда контроль и восстановление были бы заранее невыгодны, и мы ис- ключаем этот случай. 6.3.2. ИЗВЕСТНО РАСПРЕДЕЛЕНИЕ НАРАБОТКИ Критерием оптимальности является интенсивность затрат Q(S, F). Для определения оптимальной стратегии можно приме- нить теорему 6.5, полагая §P={F}. В частности, D(S, x) = D(S, F, 190
х) и после элементарных вычислений получаем 00 fk+l D (S, F, х) = S J [(к+1)С1 + (с2-x)(tk+I - t)JdF(t) + к=0 ‘к + (с2 — X) d + с, — их. (6.34) Для 0^х<с2 величина D(S, F, х) как функция S имеет тот же вид, что и R(S, F). Поэтому существование стратегии S(x) обес- печено (см. предыдущий раздел), а ее приближенное вычисление можно осуществить с помощью алгоритма 2 или (согласно сделан- ным ранее замечаниям) с помощью алгоритма 1. При этом усло- вие (6.7) перейдет в систему уравнений F (*к) —F (*к—1) С1 к= 1, 2 ... Очевидно, D(S(0), 0) >0, а вследствие предположения (6.33) D(S(c2), с2)=с1+с3—с2ц<0. Функция D(S(x), х) непрерывна [70] и строго монотонно убывает, поэтому существует в точности одно число х* такое, что D(S(x*), х*)=0. Согласно теореме 6.5 имеем следующий алгоритм вычисления оптимальной стратегии S* = =S (х*). Алгоритм 3. 1. Определить для заданного х, 0<х<с2 стратегию S(x). 2.1. Если D(S(x), х)>0, то увеличить х и повторить шаг 1. 2.2. Если D(S(x), х)<0, то уменьшить х и повторить шаг 1. 2.3. Если D(S(x), х)=0, то стратегия S(x) оптимальна. Пример 6.6. Пусть F(t) = l—e~ai, t>0 и d=0. Оптимальная стратегия строго периодична. Для строго периодической стратегии S<6> интенсивность затрат , Г 1 ,1 1_е—Cj Q (S<*>, F) = [1 - (1 - в"»8) ]с2 +-j--cs + -j- • Оптимальный интервал контроля удовлетворяет уравнению 1 _е“аб (1+«6) =aci/ (с2—с3а). Если при p=l/ia справедливо неравенство (6.33), то существует, по крайней мере, одно решение. 6.3.3. ИЗВЕСТНО МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НАРАБОТКИ Минимаксная стратегия заключается в том, чтобы не контро- лировать (и не восстанавливать). В то же время нетривиальная минимаксная стратегия опять-таки существует, если положить ®р=8ц> гДе Sp определено по формуле (6.23). 191
Обобщая выражение (6.28), положим для S={tk}, i#=j, и дей- ствительных а и b ti — U Оц (S, а, Ь) = Г-f(i +1) сх + a (tI+1 - t,)J+ ц — t. +7—rlO+ncx+b^-tpl. Как уже отмечалось, функции R(S, F) и D(S, F, х) для 0^х<С2 имеют одинаковый вид, поэтому, принимая во внимание представ- ление (6.26), получим D (S, х) ’= sup G. (S, с1( са — х) -j- (с2 — х) d -|- с, — хр. 0<i<m J j>m Согласно теореме 6.4 стратегия S(x), оптимальная относительно D(S, х), строго периодична, причем с учетом решения (6.25) соот- ветствующий интервал между проверками 8 (х) = V схр/(са — х), 0 < х < с2. (6.35) Поскольку Ои(8(х), сх> са — х) = 2J/uCj(са — х)-]-сх, 0<i<m<j, имеем ’ D(S(x), х) = 2]/(*с1(с2 — х) + сх4-с, + (с2 — x)d — хр.. Справедливы неравенства D(S(0), 0)>0 и D(S(ca), Сг)<0. Более того, функция D(S(x), х) монотонно убывает по х, хе [0, Сг]. От- сюда существует однозначное решение уравнения D(S(x), х)=0: x,=^[c'+c-d+c-+^+ + 2Virn(v-c--c-+^)]- (6-S6> Теорема 6.6. Частично минимаксная стратегия 5% является строго периодической с интервалом между проверками б(х*), при- чем б(х) и частично минимаксная интенсивность затрат х*= = Q(S*u) заданы формулами (6.35) и (6.36). Доказательство следует непосредственно из теоремы 6.5. Задача о минимаксном контроле восстанавливаемой системы в предположении, что известно не среднее значение, а квантиль рас- 192
пределения наработки, рассмо- трена на основе подобной модели в [38, 286]. Пример 6.7. Пусть ц=50, сз=5С1 и d=0. На рис. 6.3, 6.2, показана за- висимость от отношения C2/C1 интен- сивностей затрат Q(S*, F)/cb Q(SM*, F)/ci, Q(SM*)/ci для F(t) = 1—e-t/5°. Из рисунка видно, что на интервале 0^c2/ci^0,12 определенном с помощью неравенства (6.33), частично минимакс- ная стратегия 8Ц*, а также стратегия S*, оптимальная относительно Q(S, F), совпадают с минимаксной стратегией (ни контроля, ни восстановления). (Ми- нимаксная интенсивность затрат при- ведена на рис. 6.3 в виде прямой.) Рис. 6.3. Сравнение затрат при контроле с восстановлением (при- мер 6.7) 6.3.4. МАКСИМАЛЬНЫЙ КОЭФФИЦИЕНТ ГОТОВНОСТИ ПРИ ОГРАНИЧЕНИЯХ НА ЗАТРАТЫ Коэффициент готовности системы определяется как K(S, F)=p/L(S, F), где средняя длина цикла L(S, F) задана выражением (6.31). Зна- чение коэффициента готовности системы, произвольно близкое к максимально возможному, равному ц/(p+d), можно получить с помощью стратегии S={tk} с достаточно малыми интервалами между проверками 6k=tk+i—tk. Однако если величина sup dk про- k извольно мала, то затраты R(S, F) и интенсивность затрат Q(S,F) неограниченно возрастают. Поэтому естественно максимизировать коэффициент готовности исходя из того, что заданы ограничения на затраты. 6.3.4.1. ИЗВЕСТНО РАСПРЕДЕЛЕНИЕ НАРАБОТКИ Рассмотрим следующую задачу: для заданного ограничения на затраты Ro, min R(S, F)^Ro требуется найти стратегию S* та- Se® кую, что K(S*,F) = maxK(S,F), (6.37) SGES0 где @o={S:R(S, F)=Ro}. Эквивалентная запись этой задачи име- ет вид L(S, F)->min; R(S, F)—Ro=O. (6.38) 13—6301 193
Речь идет о задаче оптимизации с ограничениями, поэтому для ее решения рекомендуется метод неопределенных множителей Ла- гранжа. Применительно к этой задаче он формулируется следую- щим образом. Лемма 6.4. Пусть M(S, a)=L(S, F)+a(R(S, F)—Ro), a^O и пусть для каждого а существует стратегия S(a) такая, что M(S(a, a)=minM(S, а). Если существует a*eA= {a: S (a)e©0} такое, что M(S(a*), a*)=minM(S(a), a), to S(a*)=S* является aeA решением задачи оптимизации (6.37). Из выражений (6.4) и (6.31) получим 00 ‘к+1 M(S,a) = 2 J f(k+l)ac1 + (14-ac2)(tk+1-t)]dF(t) + к=0 {к (S(a) совпадает со стратегией, определенной в подразд. 6.3.2 фор- мулой (6.34), лишь тогда, когда а(с2—х)=1-|-ас2. Однако этот случай невозможен.) Поскольку M(S, а) и R(S, F) имеют одина- ковый функциональный вид, для любого а^О согласно предполо- жениям подразд. 6.2.1 существует стратегия S(a). Она может быть вычислена с произвольной точностью с помощью алгоритмов 1 и 2. Тогда вместо уравнений (6.7) имеем . t _ р<М-р(Ч-1) aci ‘к+1 Тс — ----, к=1,2, ... 1 +“С2 f(tk) В соответствии с леммой, значение а=а* для стратегии S* удов- летворяет условию R(S(a), F)=R0. (6.39) Можно показать, что R(S(a), F)—строго монотонно убывающая функция а. Поэтому, если limR(S(a), F) = oo и limR(S(a), F) = а->оо а->0 =minR(S, F), то существует ровно одно решение уравнения Se® (6.39) а=а*. Его можно вычислить следующим образом. Алгоритм 4 1. Выбрать а>0 и вычислить S(a). 2. Вычислить R(S(a), F) 2.1. Если R(S(a), F)<Ro, то уменьшить а и повторить шаг 1. 2.2. Если R(S(a), F)>Ro, то увеличить а и повторить шаг 1. 3. Если R(S(a), F)=Ro, то а=а* и S*=S(a*)—решение за- дачи (6.37). В частном случае экспоненциально распределенной наработки (F(t)=l—е~‘^) точно вычислить значение а* для стратегии S* 194
нельзя. В соответствии с подразд. 6.2.1 функция S(a) при этом для всех а^О является строго периодической, причем интервал между проверками 6(a) есть решение уравнения ее/ц—б/|щ,= (1 -+-аС1) / (1 -|~ас2) р.. Отсюда и функция S*=S(a*) является строго периодической, а интервал между проверками для нее б*=6(а*) удовлетворяет уравнению R(S(8), F) = ^±^-ca(u-d) = R0. Существуют два решения этого уравнения. Поскольку функция L(S<6), F)=6/(l—e"^/^)+d монотонно возрастает по б, то б*—наи- меньшее из двух. Замечание 1. В отличие от разд. 6.2 и 6.3.3. постановка задачи этого под- раздела интересна для практики, когда с2=0. Например, затраты в единицу времени при бездействии военно-оборонительных систем, вообще говоря, пренеб- режимо малы, но в то же время требуется высокий коэффициент готовности. Алгоритм 4 можно применять также при с2=0. Замечание 2. Замена в записи (6.38) условия R(S, F)=R0 на Q(S, F)=Q0 приводит для Qo<c2 к оптимизационной задаче того же типа, поскольку новое условие можно записать в виде H(S, F)—Q0L(S, F)=0. Функциональная зави- симость от S для R(S, F) и H(S, F)—QoL(S, F) одна и та же. Применима лем- ма 6.4, причем M(S, a)=L(S, F)+<x(H(S, F)—Q0L(S, F)). 6.3.4.2. ИЗВЕСТНО МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НАРАБОТКИ Пусть вновь информация о распределении наработки системы содержится во включении Feg^. Тогда вместо (6.37) рассмотрим задачу определения такой стратегии S*r, что K(Sk) = maxK(S), (6.40) Sge^o но теперь ©0={S:R(S)=R0}, а также К (S) = inf К (S, F), R (S) = sup R (S, F). Вследствие равенства K(S)=p/L(S), где L(S)=supL(S, F), можно записать эту задачу в следующем виде: L(S)->min; R(S)— Ro=O. 13* 195
Согласно выражению (6.3) необходимо ограничить Rot С1 +'2 V l*cics < Ro< 00 • (6.41) Если выбрать с2=0, то из представления (6.26) для R(S) следует L (S) = sup G.. (S, 0, 1) и 4- d. (6.42) teSKm 1 j>m В частности, для строго периодических стратегий L(S(«))=6+H-d. Будем решать задачу (6.40), предполагая, что допускаются лишь стратегии с монотонно убывающими интервалами между провер- ками, т. е. стратегии S={6k}, содержащиеся в множестве ®о, удов- летворяют дополнительному условию 6k+i^6k, k=0, 1 ... Поэтому стратегии S={6k=tk+i—tk}e©o обладают свойствами lim 8 /tk = 0; (6.43) k->oo supk/tk > l/80. (6.44) Согласно неравенству (6.29) строго периодическое решение задачи ( 8*) (6.40) S R имеет интервал между проверками где C=(R0—ci)/c2. Из-за предположения (6.41) подкоренное вы- ражение положительно. (б*) Теорема 6.7. Для оптимизационной задачи (6.40) S R явля- ется решением. Доказательство. Предположим, что существует стратегия S={dk=tk+i— —tk}e©o такая, что <**) L(S)<L(S R )=«;+r. (I) (Без ограничения общности полагаем d=0.) Отсюда, принимая во внимание вы- ражение (6.42), где m=m(S), получаем SUp(«o+4LPj-«o)l<«R- j>m I lj J Вследствие свойств (6.43) отсюда вытекает неравенство 6o<6R* (II) С другой стороны, полагая в представлении (6.26) i=0, имеем ci + с2^о ~Ь SUP “J {j ci с2 Р,- — d0)} Ro. j>m lj J Это неравенство по определению 6r* дает другое неравенство: с Н~С2бо4~М-с 1 /6о^==с14“С2б R *-|-р.С 1 /6 R*. 196
Рис. 6.4. Сравнение коэффициен- тов готовности при ограничениях на затраты Но последнее невозможно, так как функ- ция R(S(6)) на интервале (О, 6Ц*) явля- ется монотонно убывающей от 6 и с уче- том (II) имеет место неравенство 0<б0< <6r*^6*, где решение б* задано соотно- шением (6.25). Поэтому не может суще- ствовать стратегии Sg®0) обладающей свойством (I). Замечание, Для с2 = 0 решение задачи (6.40) SR* не получается непосредственно из теоремы 6.7. Тем не менее, в [45] показано, что и в этом случае решением является строго периодическая стра тегия, для которой интервал между проверками бд — ИрС1/(/?0 — Ci), где c1<R0<oo. В той же работе содержится реше- ние задачи (6.40) для ©0= {S : Q(S) =Qo}. Пример 6.8. Пусть ц=100, Ci=l, с2=5 и d=0. На рис. 6.4 показана зави- симость коэффициентов готовности K(S*, F) и К (Sr*) от Ro для функции рас- пределения F(t) = l—e~t/10°, t>0. В этом частном случае min R (S, F) = 35,04 и min R (S) = 49,72. s е s see Для сравнения приведен график коэффициента готовности К (Sr*, F). Этот коэф- фициент готовности достигается стратегией Sr*, когда F(t)=l—e_t/100 является фактической, хотя и неизвестной функцией распределения наработки. ГЛАВА 7. ВОССТАНОВЛЕНИЕ ПРИ ПОСТЕПЕННЫХ ОТКАЗАХ СПИСОК ОБОЗНАЧЕНИЙ ап затраты на восстановление в n-м году эксплуатации Ап затраты на восстановление за п лет L(t) лимит затрат на восстановление в момент t М({) интервал от момента t до снятия системы с эксплуа- тации рп, рп вероятность того, что отказ, произошедший в n-м го- ду эксплуатации, являлся отказом соответственно первого и второго типа 197
лп вероятность того, что в n-м году эксплуатации про- изойдет отказ второго типа Z(t) интенсивность затрат на восстановление L<z> интервал восстановления при условии, что лимит ин- тенсивности затрат на восстановление не превышает z H(t) монотонная непрерывная функция V положительная случайная величина Wt случайное значение параметра в момент t X(t) действительнозначный случайный процесс такой, что Р(Хо=0) = 1 F(t)(x) P(Wt^x) wa(wB) нижняя (верхняя) граница допуска L время до наступления постепенного отказа W*o(t) оптимальное начальное значение параметра относи- тельно вероятности безотказной работы на интервале (О, t) {Y(t), t^O} винеровский процесс А(х) P(Yo^x) А постоянная Под дрейфом параметров системы понимается их отклонение в процессе работы от номинальных начальных значений. Постепен- ные отказы наступают тогда, когда эти отклонения выводят зна- чения параметров из некоторой допустимой области. В отличие от внезапных начинающиеся постепенные отказы можно распознать при наблюдении за параметрами и предотвра- тить их в дальнейшем соответствующими восстановительными ме- роприятиями. Растущая в процессе функционирования тенденция к постепенным отказам, обусловленная, например, такими возраст- ными явлениями, как износ, усталость металла, коррозия, должна быть преодолена с помощью затрат на восстановление. Поэтому во многих случаях целесообразно проводить планирование восстанови- тельных мероприятий на основе текущих затрат на восстановление, а не на основе значений дрейфующего параметра. Если же затра- ты на восстановление, необходимые для поддержания работоспо- собности системы неоправданно высоки, то можно, по определе- нию, говорить о постепенном отказе. Постепенный отказ, обуслов- ленный затратами на восстановление дрейфующего параметра (так же, как любой постепенный отказ), не обязательно ведет к пол- ной неработоспособности системы, а может относиться исключи- тельно к экономической стороне эксплуатационного процесса. Эту ситуацию рассмотрим в разд. 7.1. Напротив, в разд. 7.2 изучается организация восстановительных мероприятий с точки зрения фи- зико-технических показателей. В гл. 7 рассматриваются лишь простые системы. Время восста- новительных мероприятий любого вида всегда предполагается пре- 198
небрежимо малым. Наличие конечных положительных времен восстановления, вообще говоря, ведет к постановкам новых ма- тематических задач. 7.1. ВОССТАНОВЛЕНИЕ НА ОСНОВЕ ЭКОНОМИЧЕСКИХ КРИТЕРИЕВ В этом разделе анализируются три модели восстановления, в основе которых лежит критерий либо усредненных, либо случай- ных затрат на восстановление. Время работы считается неограни- ченным. 7.1.1. ЭКОНОМИЧНОЕ ВРЕМЯ ЭКСПЛУАТАЦИИ Пусть A(t) —средние затраты на восстановление, которые воз- никают за время (О, t), если система начала работу в момент t= =0. До тех пор, пока функция A(t) растет линейно (или медлен- нее), с точки зрения затрат нет повода восстанавливать систему, так как удельные затраты на восстановление A (t)/t остаются по- стоянными (или убывают). Как только функция A(t) начинает рас- ти «быстрее, чем линейно» (говорят также «прогрессивно»), эко- номичнее может оказаться отбраковка системы и ее полное ис- ключение из эксплуатационного процесса. Основное назначение этого подраздела состоит в вычислении наиболее выгодного в отношении затрат времени эксплуатации. При этом под временем эксплуатации технической системы пони- маем время от ввода в действие системы до ее снятия с эксплуа- тации. С одной стороны, более короткое время эсплуатации имеет то преимущество, что позволяет избежать ущерба, связанного со старением, а с другой стороны, приходится мириться со все воз- растающим числом полных замен системы. Эти две противополож- ные с точки зрения общих эксплуатационных затрат тенденции по- зволяют искать оптимальное по затратам, или (в обычной терми- нологии) экономичное, время эксплуатации. Разумеется, на прак- тике определение времени эксплуатации основывается не только на экономических соображениях. Другими факторами могут быть, например, моральный износ или ограниченное поступление новых систем. Описанная простая ситуация, в отличие от обсуждавшихся в гл. 5 моделей, имеет чисто детерминированный характер. Резуль- таты этого подраздела служат в последующих двух подразделах основой для анализа стратегий технического обслуживания. Пусть С — затраты на восстановление. При заданном времени эксплуатации процесс эксплуатации т разбивается на циклы, если предположить, что затраты С и функция A(t) одинаковы после каждого восстановления. Затраты за один цикл составляют тогда 199
С4-А(т). Так как по предположению процесс продолжается неог- раниченно долго, интенсивность эксплуатационных затрат R(t) = C+A(t)/t. (7.1) Здесь, возможно, не вполне учитывается доход от повторного ис- пользования системы, снятой с эксплуатации (например, стои- мость металлолома). Но этого можно добиться модификацией за- трат С и функции А(т). В дальнейшем предполагаем существование производной a(t)=dA(t)/dt. Тогда экономичное время эксплуатации т*, опре- деленное соотношением R (<) = min R (t), (7.2) •«е(о, оо) является решением уравнения — (С -j- А (т)) = а (т) или R(t)=a(t). т (7.3) Для существования однозначно определенного экономичного вре- мени эксплуатации достаточно строго монотонного возрастания a(t). Для того чтобы убедиться в однозначности, положим ti>t*. Тогда > _L (га (г*) + (г. - г*) а (г*)) = R (г*). Для Т]<т* всегда R(ti)>R(t*), что доказывается аналогично. По- этому при сделанных предположениях т* определено действитель- но однозначно. Пример 7.1. Пусть a(t)=at, а>0. (7.4) Тогда г*=|/2С/а7 (7.5) Соответствующая минимальная интенсивность эксплуатационных затрат R(t*) = Vr2aC'. (7.6) На рис. 7.1 приведены графики функций R(r)/a для трех зна- чений С/а. Видно, что в окрестности т* график R(r) более пологий для больших значений С/а. Исследуем устойчивость функции R(t) относительно отклонений от экономического времени эксплуатации более подробно. Для этого запишем первые три члена ряда Тей- 200
лора функции R(r) в окрестности экономичного времени эксплуа- тации (в предположении, что существует a'(t)): R (г* + h) R (г*) + h R' (г*)+ R" (г*). (7.7) Так как R'(x*)=0, то из соотношения R"(x) = Ar(t)—уа(’) + —a'W т2 т2 т и из (7.3) следует R"(T*)=a'(T*)/T*. Для малых h из выражения (7.7) получаем R(x* + h)^R(x*) + 4^. В частности, согласно предположению (7.4) R(t*)=2C/t* и а'(т*)=а=2С/(т*)2. Отсюда Рис. 7.1. Интенсивность экс- плуатационных затрат для a(t)=at (пример 7.1) Итак, если фактическое время эксплуатации отличается от эко- номичного не более чем на 10% (т. е. Ь/т*=0,1), то соответствую- щая интенсивность эксплуатационных затрат повышается не более чем на 0,5%. Следовательно, в известных границах на практике вполне допустимы отклонения от экономичного времени эксплуа- тации. Например, более короткое время эксплуатации поможет уменьшить отрицательные последствия от морального устаревания, слишком длительное время эксплуата- ции— выгоднее поместить ранее сэко- номленные финансовые средства. Накопленный к настоящему време- ни практический опыт показывает, что предположение (7.4) о линейности функции a(t) во многих случаях соот- ветствует действительности. Так, в соответствующем виде оно присутст- вовало в работах, посвященных легко- вому и грузовому автотранспорту [102, 184], дизельным локомотивам [87], тракторам [315]). Замечание. Заданная с помощью форму- лы (7.1) интенсивность эксплуатационных за- трат R(t), очевидно, имеет тот же функцио- 201
нальный вид, что и для стратегий 2 и 3, определенных в гл. 5 формулами (5.27) и (5.59). Эти величины отличаются только различной структурой затрат на восстановление. Наиболее общим является случай (7.1), поэтому проведенный анализ устойчивости справедлив также для интенсивностей эксплуатационных затрат, заданных формулами (5.27) и (5.59). Дискретное время. До сих пор восстановления были возможны в произвольный момент времени. Чтобы упростить планирование процесса восстановления и сбор необходимых данных, часто ока- зывается целесообразным выделить специальные моменты време- ни. С этих позиций теперь предположим, что восстановления мо- гут проводиться только в начале или конце года. Конечно, в зави- симости от технологических условий возможна любая другая дис- кретизация времени. Выбранный вариант удобнее для изложения. Пусть ап — затраты на восстановление в n-м году эксплуатации; п An=2 —затраты на восстановление за п эксплуатационных 1=1 лет. По аналогии с формулой (7.1), интенсивность эксплуатацион- ных затрат R(n)=(C+An)/n. (7.8) Экономичное время эксплуатации определяется как R(n*) = min R(n). (7.9) n=l, 2, ... 7.1.2. ЗАДАНИЕ ЛИМИТА ЗАТРАТ НА ВОССТАНОВЛЕНИЕ Методика экономичного времени эксплуатации обычно приме- няется тогда, когда имеется большое число систем одинакового типа, а функция A(t) отражает динамику средних затрат на вос- становление в рассматриваемой совокупности систем. Однако те- кущие затраты на восстановление систем, даже одного типа, часто заметно отличаются друг от друга, т. е. носят случайный характер. Причины этого могут зависеть, например, от различного качества систем или различных условий эксплуатации. Так, в [102] для исследованной совокупности автомобилей удалось обнаружить раз- личия в затратах на ремонт, доходящие до 30%. Поэтому в ин- дивидуальных случаях применение общего подхода, связанного с экономичным временем эксплуатации, не является наилучшим спо- собом действий. Для того чтобы, рассматривая восстановление, иметь возмож- ность лучше учитывать специфику каждой системы, в [141] раз- работана методика с ограничениями затрат на восстановление. При этом решение о том, необходимо ли восстанавливать систему, 202
каждый раз принимается отдель- но. Сначала оцениваются затра- ты на восстановление. Если они превышают заданную границу— лимит затрат на восстановление, то система не восстанавливается, а заменяется. Принципиальный подход к заданию лимита затрат на восстановление здесь следую- щий. Пусть используется некото- рая стратегия восстановления. Если затраты в единицу времени от момента предполагаемого вос- становления до замены системы превышают удельные затраты за тот же интервал времени, но без восстановления, то система сни- Рис. 7.2. Первичный лимит затрат на восстановление мается с эксплуатации и вместо нее устанавливается новая. Сле- довательно, лимит затрат на ремонт зависит от времени и опреде- ляется следующим уравнением: R=(L(t)+I(t))/M(t), (7.Ю) где R — интенсивность эксплуатационных затрат для используе- мой стратегии, R=const; L(t)—лимит затрат на восстановление в момент t после начала эксплуатации системы; I(t) —ожидаемые затраты от момента t до момента снятия системы с эксплуатации; M(t) — интервал времени от момента t до момента снятия систе- мы с эксплуатации. Так же, как и постоянная R, величины I(t) и M(t) непосредст- венно зависят от используемой стратегии восстановления. Из урав- нения (7.10) для t>0 лимит затрат на восстановление L(t)=RM(t)-I(t). (7.11) Для малых t лимит затрат на восстановление близок к затра- там на полную замену, равным С. Начальное условие L(0)=C. 7.1.2.1. ПЕРВИЧНЫЙ ЛИМИТ ЗАТРАТ НА ВОССТАНОВЛЕНИЕ Если для совокупности систем одного типа известны* средние затраты на восстановление на интервале (0, t), A(t)= a(x)dx, о а также затраты на полное восстановление С, то можно опреде- лить лимит затрат на восстановление. Его использование эффек- тивнее, чем методика экономичного времени эксплуатации. Для 203
задания этого лимита выпишем необходимые величины I (t), M(t) и R так, как они получились бы при использовании упомянутой методики: I (t) = J а (х) dx, 0 < t < **; M(t)=x*-t, 0<t<x*, R=R(x*) = а(т*). Тогда в соответствии с выражением (7.11) получим так называе- мый первичный лимит затрат на восстановление (С, t = 0, L(t) = (т* — t)a(x*)—^a(x)dx, 0<t<x*, О, т* < t. Экономия в затратах при использовании первичного лимита за- трат на восстановление по сравнению с использованием экономич- ного времени эксплуатации тем больше, чем сильнее отклонения индивидуальных затрат на восстановление от значения средних за- трат A(t). На рис. 7.2 показан первичный лимит затрат на вос- становление. Обратим внимание, что экономичное время эксплуа- тации т* характеризуется согласно уравнению (7.3) тем, что при t=x* прямая y=a(x*)t касается кривой эксплуатационных затрат, описываемой выражением t Т (t) = С-j- J а (х) dx. о (Если функция a (t) монотонно возрастает, то Т (t) — выпуклая функция.) Для произвольного момента fcsjx* лимит затрат на вое- "' > становление L(t) равен длине отрезка EF. Пример 7.2. При линейной зависимости a(t) = at с учетом формул (7.5) и (7.6) справедливы соотношения г* = |/2С/а и R = R (т*) = |/2аС- Отсюда г* I (t) = a J х dx = С — 1«. t Поэтому ДЛЯ 0<t<T* L (t) = -j- — |ЛаС t -j- C. 204
Пусть, например, а=1 и С=200. Если в момент t=10 необходимо восстановле- ние, то лимит затрат на него составляет L(10)=50—200-|-200=50. Поэтому если требуемый ремонт стоит более 50 единиц, то система восстанавливается. 7.1.2.2. ВТОРИЧНЫЙ ЛИМИТ ЗАТРАТ НА ВОССТАНОВЛЕНИЕ Первичный лимит затрат на восстановление, вообще говоря, еще не дает оптимума, т. е. для t>0 существует лимит затрат на восстановление L(t), который обеспечивает дальнейшее уменьше- ние интенсивности эксплуатационных затрат. Изложим теперь ме- тод, который позволяет еще более удешевить произвольную стра- тегию отбраковки и восстановления совокупности систем одного типа введением подходящего лимита затрат на восстановление. Принципиальная структура лимита, заданная с помощью соотно- шения (7.11), должна, конечно, сохраниться. Задача состоит в том, чтобы оценить величины R, I(t) и M(t) для произвольной, но уже используемой стратегии (не обязательно первичный лимит затрат на ремонт). Пусть рассматриваемая совокупность систем состоит из и эле- ментов. Пусть Xi, i=l, 2, ..., п — моменты восстановления i-й си- стемы для заданной стратегии. Пусть также эксплуатационные за- траты i-й системы за время [0, t) (затраты на замену, или полное восстановление, плюс затраты на восстановление) равны Ti(t) для t^Xi и Ti(Xi) для t>Xj, т. е. ввод новой системы после снятия с эксплуатации одной из систем данной совокупности не рассматри- вается. Таким образом, Ti(Xi)—это (полные) эксплуатационные затраты, связанные с i-й системой от ввода в эксплуатацию до снятия, a Di (t)—время работы i-й системы на интервале (0, t), т. е. Di(t)=t для t^Xi и Di(t)=Xj для t>Xi, i=l, 2,..., и. На- блюдение за совокупностью систем заканчивается в момент отка- за последней системы, X=inax (Xi, Хг...Хп), поэтому достаточно определить функции Ti(t) и Di(t) для Os^Jts^X. Пусть T<n>(t) и D<n> (t), O^t^X, означают суммарные затраты и суммарное время работы на интервале [0, t): п п T(n)(t) = S T,(t). D(n>(t)=2 D.(t). 1=1 \=1 В частности, п п Tn (X) = S Т, (X,) и D<n)(X) = £X, 1=1 1=1 есть окончательные значения этих величин. Пусть V(t)=T<n)(X)—T<n>(t) и U(t)=D<n)(X)—D(n>(t) 205
— это суммы остаточных на интервале (t, X)) эксплуатационных затрат и времен эксплуатации. Если обозначить через n(t) число всех систем, работоспособных к моменту t, то получим Подстановка этих величин в выражение (7.11) дает искомый ли- мит затрат на восстановление: 1 RU(t)-V(t) o<t<X L(t)=J n(t) ’ ’ (7.12) 10, t>X, где через R=T<n> (X)/D<n> (X) обозначена интенсивность эксплуата- ционных затрат. Лимит затрат на восстановление, полученный по формуле (7.12), называется вторичным, хотя он не обязательно выводится из первичного. На рис. 7.3 проиллюстрирован вторичный лимит затрат на вос- становление. Его значение L(t) в произвольный момент t, O^t^X, ' 1 > вновь равно отрезку EF. Несмотря на формальную аналогию меж- ду рис. 7.2 и 7.3, они существенно отличаются изображенными на них функциями. Лимит затрат на восстановление можно вычислить по формуле (7.12) для произвольной стратегии. Его использование дает умень- шение интенсивности эксплуатационных затрат. Применив один раз лимит затрат на восстановление, можно и дальше использо- вать формулу (7.12). Повторное применение позволяет последова- тельно оптимизировать лимит. Разумеется в условиях процесса эксплуатации этот метод занимает слишком много времени, что Рис. 7.3. Вторичный лимит затрат на восстановление 206 определяет границы его практи- ческого применения. Его значе- ние состоит, прежде всего, в том, что он дает основу для модели- рования по методу Монте-Карло на ЭВМ. При этом вторичный ли- мит затрат на восстановление принимается циклически, пока соответствующая разность интен- сивностей производственных за- трат не достигнет заданных гра- ниц (см. пример 7.3). Точное ма- тематическое исследование про- цесса сходимости при неодно- кратном применении формулы (7.12), насколько известно, от- сутствует.
7.1.2.3. ОПТИМАЛЬНЫЙ ЛИМИТ ЗАТРАТ НА ВОССТАНОВЛЕНИЕ Первоначальная цель этого раздела состоит в вычислении ин- тенсивности производственных затрат при заданном лимите затрат на восстановление. Для этого надо описать динамику затрат на восстановление с помощью подходящей стохастической модели. Вначале задаются распределения затрат на восстановление и мо- ментов, в которые производится восстановление. Здесь .следует принять во внимание, что эти распределения зависят, вообще го- воря, от времени, которое система уже проработала. Правда, для упрощения аналитических выкладок будем пренебрегать этой за- висимостью на определенных интервалах времени (в дальнейшем, без ограничения общности, такими интервалами будут года). Да- лее, предположим, что 1) возникновение восстановлений в производственном году можно описать пуассоновским процессом; 2) затраты на восстановление распределены экспоненциально. Точнее, пусть т]п — число восстановлений в n-м эксплуатационном году и пусть Е(т]п)=ап, п=1, 2, ..., М. (7.13) Здесь М, М<оо, означает максимально возможное время эксплуа- тации системы (в годах). С увеличением времени работы усили- вается влияние старения, поэтому чаще всего Ctl^ct2^ ••• (7.14) Согласно предположению 1) ак Р(ч =k) = — е n, k = 0, 1, .... п=1,2,..., М (7.15) ',п ’ к! Пусть £(п) — затраты на восстановление в n-м эксплуатационном году, имеющие математические ожидания Е(^(п)) = 1/рп, Рп>0, п=1, 2, .... М. (7.16) Аналогично (7.14) обычно имеет место pi^P2^ ••• ^рм- (7.17) Согласно предположению 2) Р(бп><х)= 1—е~РпХ. (7.18) Пусть £i<n) — случайные затраты на i-e восстановление в n-м году эксплуатации, i=l, 2, ..., т]п (rin^l). Тогда затраты (Jn на восста- новление в n-м году эксплуатации рп = с<«>+^>+...+с<пп). 207
По предположению о независимости затрат на восстановление от времени в течение одного года эксплуатации все случайные затра- ты £i<n) распределены одинаково со случайной величиной £(п). Сле- довательно, по лемме Вальда (см. лемму 2.1) с учетом формул (7.13) и (7.16) получим an=E(pn)=E(^n>)E(T]n)=an/pn, п=1, 2, ..., М. (7.19) Если справедливы неравенства (7.14) и (7.17), то ai=^a2^ ... ^ам. (7.20) Условимся, что в течение одного года эксплуатации имеется по- стоянный лимит затрат на восстановление Ln, т. е. L(t)=Ln для n-l<t<n, п=1, 2, ..., М. (7.21) Наличие лимита затрат на восстановление позволяет разделить встречающиеся восстановления и соответствующие им отказы на два типа. Тип 1. Устранение отказов требует затрат, не превосходящих лимит. Тип 2. Устранение отказов требует затрат, превышающих ли- мит. Вероятность того, что система откажет спустя время t после последнего восстановления, обозначим через p(t) и p(t) = l—p(t) соответственно для отказов второго и первого типов. Согласно формулам (7.18) и (7.21) p(t) = pn = e PnLn для п—Kt<n, n = 1, 2, ..., М. (7.22) Интенсивность отказов системы X(t) с учетом выражения (7.15) является кусочно-постоянной: X(t)=an для п—l<:t<n, п=1, 2, ..., М. (7.23) Следовательно, каждое восстановление первого типа является ми- нимальным в терминах разд. 5.4. (В соответствии с рассматривае- мой стратегией другие восстановления и не проводятся.) Но это означает, что имеет место та же ситуация, что и в разд. 5.5, по- этому можно непосредственно применить полученные там резуль- таты [42]. Принимая во внимание формулы (7.22) и (7.23), из выражения (5.76) получаем функцию распределения длины цикла L (интер- вал между двумя отказами второго типа); (п—1 \ — S Piai — pnan(t—n+o 1=1 J для п — l<t<n; n= 1, 2,..., М. 208
Точно так же, применяя выражение (5.76) и полагая t=l, получим, что для всех М производственных лет (п—1 \ -Sp^, (7.24) 1=1 / где случайное событие Вп определено следующим образом: Вп={в n-м эксплуатационном году произошло восстановление (отказ второго типа)}. Математическое ожидание случайной длины цикла L м ' м Е (L) = J G (t) dt = S Пп/(рпап). (7.25) О П=1 Если обозначить Sn(x)=P(£<n><x), то средние затраты на восста- новление в п-м эксплуатационном году 1 с 1 Cn ~ S (L ) 1 х^п № = Г- п' n' J гп О Рд l рп п‘ (7-26) В зависимости от того, произошел в n-м эксплуатационном году отказ второго типа или нет, среднее число ремонтов, согласно вы- ражениям (5.80) и (5.81) (t=l) 1 a _________n J ePn“n-l или pnan. При условии, что произошло событие Вп, имеем средние общие за- траты за цикл п—1 r„ = gc,5,«1+cjn[-l—(7.27) Объединяя выражения (7.24)—(7.27) и учитывая, что лимит затрат на восстановление составляет Li, Lj, ..., Lm, находим интенсив- ность эксплуатационных затрат R = ,R (Lx, Ц...... Lm) 14—6301 М / м \ м с+2п„гп+ >-Зп, П = 1\ П=1 / П=1 М 2 пп/(рп«п) П=1 (7.28} 209-
Таблица 7.1. Вычисление экономич- Для заданных Lb L2, ..LM вычисление соответствующих ин- тенсивностей эксплуатационных затрат (7.28) с помощью совре- ного (при. времени нер 7.3) эксплуатации п <хп \/о а R(n) менной вычислительной техники 1 2,0 250 500 7400 не представляет труда. Поэтому 2 3,0 300 900 4150 рекомендуется находить опти- 3 3,5 320 1120 3140 мальные относительно R(Lb 4 5 4,0 4,3 340 -350 1360 1505 2625 2457 L2, ..Lm) значения лимита за- 6 4,5 370 1665 2325 трат на восстановление L*i. 7 4,7 380 1786 2248 L*2 L*M методом случайного 8 5,0 390 1950 2211 поиска. Кроме того, для оптими- 9 5,0 400 2000 2187 зации интенсивности эксплуата- 10 11 5,0 5,0 440 450 2200 2250 2189 2194 ционных затрат R(Lt, L2, ..., Lm) 12 5,0 480 2400 2211 можно применить методы нели- 13 5,0 490 2450 2230 нейного программирования. 14 5,0 520 2600 2256 Принципиально иная возмож- 15 5,0 520 2600 2279 ность получения оптимальных ли- митов затрат на восстановление состоит в применении динамиче- ской оптимизации [169]. Для этого надо представить восстанови- тельный процесс как стохастический процесс принятия решений. При этом не требуется знания функционального вида интенсивно- сти R(Li, L2, Lm) такого, как, например, (7.28). Пример 7.3. Затраты на восстановление системы С=6900 условных единиц. Максимальное время эксплуатации М=15 (лет). В табл. 7.1 содержатся значе- ния параметров ап и 1 /рп, а также заданные формулами (7.19) и (7.8) харак- теристики ап и R(n). Определенное с помощью соотношения (7.9) экономичное >ремя эксплуатации п*=9 (лет), а соответствующая интенсивность эксплуата- ционных затрат R(9)=2187 условных единиц. Исходный материал к этому примеру подготовлен в [102] на основе данных о большом числе однотипных военных автомашин. Там же, кроме того, доказана справедливость предположений (7.15) и (7.18), а также найдены наивыгоднейшие значения лими- та затрат на восстановление численным моделированием и мини- мизацией приближенного выражения для критерия (7.28). Резуль- таты этого моделирования помещены для сравнения в табл. 7.2 и 7.3. В [42] вычислены оптимальные значения лимита затрат на восстановление Ln минимизацией выражения (7.28) с помощью метода случайного поиска. Они приведены в табл. 7.2 вместе с .соответствующими значениями рп, сп, гп и лп. Как и при исследовании устойчивости для критерия R(r) (см. подразд. 7.1.1), для практики интересно знать, какие дополни- тельные производственные затраты получаются при отклонении от оптимальных значений лимита затрат на восстановление. По- .210
Таблица 7.2. Эффективные значения лимита затрат на восстановление, полу- ченные аналитически и численным моделированием (пример 7.3) п Рп Сп гп Яп ц Ц? 1 <0,001 248,4 497,5 <0,001 6120 6120 2 <0,001 298,1 1390,1 <0,001 4750 4750 3 <0,001 317,9 2502,6 <0,001 3720 3720 4 <0,001 337,8 3850,5 0,001 2930 2930 5 0,001 347,6 5345,1 0,004 2420 2320 6 0,005 359,9 6141,1 0,022 1950 1860 7 0,015 355,4 7769,0 0,066 1590 1540 8 0,030 347,9 9423,6 0,124 1370 1340 9 0,051 336,0 11051,4 0,174 1190 1220 10 0,110 319,7 12528,7 0,253 970 1080 11 0,145 302,9 13875,1 0,177 870 1040 12 0,269 248,0 14954,6 0,124 630 520 13 0,783 57,5 15521,1 0,043 120 0 14 0,841 43,7 15576,6 0,001 90 0 15 0,891 29,5 15607,0 <0,001 60 0 Таблица 7.3. Значения интенсивности эксплуатационных затрат в окрестности минимума (призер 7.3) 1 2 3 4 5 6 7 п Ц - 200 l;-ioo Ln‘-50 l: I* + 50 LJ + 100 LJ + 200 1 5920 6020 6070 6120 6170 6220 6320 2 4550 4650 4700 4750 4800 4850 4950 3 3520 3620 3670 3720 3770 3820 3920 4 2730 2830 2880, 2930 2980 3030 3130 5 2220 2320 2370 2420 2470 2520 2620 6 1750 1850 1900 1950 2000 2050 2150 7 1390 1490 1540 1590 1640 1690 1790 8 1170 1270 1320 1370 1420 1470 1570 9 990 1090 1140 1190 1240 1290 1390 10 770 870 920 970 1020 1070 1170 11 670 770 820 870 920 970 1070 12 430 530 580 630 680 730 830 13 0 20 70 120 170 220 320 14 0 0 40 90 140 190 290 15 0 0 10 60 110 160 260 E(L) 8,511 8,850 9,021 9,196 9,368 9,533 9,884 R({LJ) 2052,4 2050,2 2049,8 2049,7 2052,3 2051,4 2054,0 dR 0,132 0,024 0,005 0 0,127 0,083 0,210 14* 211
Таблица 7А. Сравнение интенсивностей эксплуатационных затрат (при- мер 7.3) Вид оценки Интенсивность эксплу- атационных затрат Отклонение от минимума затрат, % Экономичное время эксплуатации 2187,0 6,7 Метод моделирования 1 цикл 2118,2 3,34 2 цикл 2073,0 1Л4 3 цикл 2057,4 0,38 4 цикл 2051,9 0,11 Аналитический метод 2049,7 0 этому были рассмотрены лимиты, которые отклоняются от L*n вверх или вниз на 50, 100, и 200 условных единиц. (Если лимиты при этом получаются отрицательными, то их полагают равными нулю.) Лимиты вместе с интенсивностями эксплуатационных за- трат, отклонениями AR от оптимального значения и средними дли- нами циклов E(L) даны в табл. 7.3. При этом ЛР- R((L„))-R({l:» R «Ц» где минимальная интенсивность эксплуатационных затрат R({L*n}) =2049,7 условных единиц. Видно, что даже при откло- нениях от L*n±200 единиц (для п=10 это составляет примерно 10%) имеются отклонения лимита затрат на восстановление от максимума на 0,21 %. Однако они малы, поэтому объем вычисле- ний для нахождения оптимальных значений лимита затрат на вос- становление может быть уменьшен за счет снижения требований к точности. Вычисления показывают, что если для годов с 1 по 4 выбирать лимит затрат на восстановление произвольно, но боль- ше, чем 2000 условных единиц, то интенсивность эксплуатационных затрат изменяется только во втором или третьем знаке после за- пятой. Такие значения лимита затрат на восстановление были взя- ты прямо из результатов моделирования (табл. 7.2). В табл. 7.3 показано, кроме того, что среднее время эксплуатации при ис- пользовании L*n почти совпадает с экономичным временем экс- плуатации (п = 9). В табл. 7.4 приведены значения интенсивности эксплуатацион- ных затрат, которые получены применением, с одной стороны, эко- номичного времени эксплуатации, а с другой — лимита затрат на восстановление (данные моделирования и аналитические). Поми- мо этого, в таблицу внесены отклонения от минимума затрат 212
R({L*n}) в процентах. Интересно, что при подстановке лимита за- трат на восстановление Ln(S) в (7.28) получается такое же значе- ние интенсивности эксплуатационных затрат, равное 2052 услов- ных единиц, как и найденное моделированием. 7.1.3. ЗАДАНИЕ ЛИМИТА ИНТЕНСИВНОСТИ ЗАТРАТ НА ВОССТАНОВЛЕНИЕ В предыдущих подразделах решение о проведении восстанов- ления в данный момент принималось на основе необходимых в этот же момент затрат на восстановление. Неблагоприятные си- туации, когда в течение длительного времени требуются неболь- шие, не превышающие лимита затраты на восстановление, не ока- зывают прямого влияния на время эксплуатации. Однако в этих случаях затраты на восстановление в единицу времени (интенсив- ность затрат на восстановление) могла бы оправдать полное вос- становление. Поэтому при возникновении необходимости ремон- та рекомендуется принимать решение о возможном полном вос- становлении в зависимости от затрат на восстановление в пред- шествующий период. Эти рассуждения приводят к следующей стратегии восстановления [47]: система восстанавливается пол- ностью, если интенсивность затрат на восстановление Z(t) дости- гает или превышает заданный лимит г. При этом Z(t) является случайной величиной (в отличие от интенсивности эксплуатационных затрат, которая всегда имеет смысл математического ожидания). Если A(t)—средние общие затраты на ремонт за время (0, t), то E(Z(t) )=A(t)/t. В соот- ветствии со стратегией время до восстановления системы задается в виде L(z) = mintt:Z(t)>z}. (7.29) t Пусть динамика интенсивности затрат на восстановление харак- теризуется следующими свойствами: a) {Z(t)} — стохастический процесс, реализации которого пояти наверное положительны и непрерывны, причем P(Z(0)< <z) = l; б) циклы восстановления (времена между двумя последова- тельными полными восстановлениями) взаимно независимы, рас- пределены одинаково (с величиной L<z)) и имеют конечные мате- матические ожидания. Свойство а) имеет место во многих случаях, по крайней мере, приближенно. Оно необходимо для более или менее успешного аналитического исследования модели — предположения о дина- мике затрат на ремонт (7.15) и (7.18) такое исследование прове- сти не дают. Задача определения необходимого при анализе 213
стратегии распределения вероятностей для L(2) является основной в теории случайного блуждания. Она будет решена для частных случаев здесь, а также в разд. 7.2. С учетом свойства a) Z(L<z))=z. Отсюда, принимая во внима- ние свойство б), из усиленного закона больших чисел получается интенсивность эксплуатационных затрат для лимита z: R(z)=z+C/E(L(Z)). (7.30) Оптимальный лимит z* для интенсивности затрат на восстанов- ление определяется как R(z*) = min R (z). z&(0,oo) Интересно сравнить интенсивность эксплуатационных затрат R(z*) с интенсивностью затрат на восстановление R(x*), которая появляется при использовании экономичного времени эксплуата- ции т*. Для этого введем еще одно предположение Z(t)=B+VH(t), (7.31) где V — положительная случайная величина такая, что E(l/V)< <оо. В — постоянная, a H(t)—непрерывная, вогнутая, монотон- но возрастающая функция t. В этом случае L(z)=H~‘((z — B)/V), где Н_,(х)—функция, обратная к H(t). Отсюда вместо формул (7.1) и (7.30) имеем R(t)=B+E(V)H(t)+C/t, (7.32) R (z) = z -4---------------. (7.33) E(H-i((z-B)/V))) Теорема 7.1. Если существуют оптимальный лимит z* и эко- номичное время т*, то в предположении (7.31) применение z* для интенсивности затрат на восстановление эффективнее чем применение экономичного времени эксплуатации, т. е. R(z*)<R(t*). (7.34) Доказательство. Выберем некоторый лимит Zo=E(Z(t*)). Чтобы доказать теорему, достаточно показать, что R(z0) <R(t*). (7.35) Если функция Н~'(х) выпуклая, то в соответствии с неравенством Йенсена Е (н-i Н(т*)) j > Н-1 (Е (V) Е (1 /V) Н (г*)) > Н-» (Н (г*)) = г* Согласно выражениям (7.32) и (7.33) это неравенство эквивалентно (7.35). 214
Рис. 7.4. Сравнение эффективности использования величин т* и Z* (пример 7.4) Пример 7.4. Пусть H(t)=st, так что Z(t)=B + V(t) и E(Z(t)) = B+E(V)t, B<z. (На практическую обоснованность ли- нейной средней интенсивности затрат на восстановление указывалось уже в под- разд. 7.1.1.) Тогда L<z>=(z—B)/V и про- стые вычисления дают z* = /C/E(l/V) + В, R(z*) = 2|/'C/E(l/V)+B, г* = |/с/Е (V), R (т*) = 2 /С/Е (V) + В. Если, в частности, V распределено равномерно на отрезке [а, Ь], 0<а<Ь<оо, то E(l/V)=(ln (b/a))/(b—a), E(V) = (a+b)/2. Пусть, например, С=6900, В=526 и E(V) = 100. Тогда динамика средних затрат такая же, как в примере 7.3. На рис. 7.4 показано, как зависит от d=b—а, 0< <d<200, выигрыш R (т*) который получается при использовании оптимального лимита интенсивности за- трат на восстановление z* вместо соответствующего экономического времени эксплуатации т*. (Вследствие требования E(V) = 100, т* не зависит от d.) В со- ответствии с нашими интуитивными представлениями выигрыш AR возрастает с увеличением «области рассеяния» для затрат на восстановление. При d=106 он составляет более 10 % (сравните с данными табл. 7.4). Если Z(t) = B-|-X(t), где {X(t)}^0—винеровский процесс с положительным сносом (см. подразд. 7.2.2), то при достаточно большом В имеют место свойства а) и б). Тем не менее, легко убедиться, что в этом случае R(x*)=R(z*). Важная и интересная задача заключается в том, чтобы указать условия, необходимые и достаточные для выполнения неравенства R(z*)<R(r*). 7.2. ПОДХОД К УСТРАНЕНИЮ НЕИСПРАВНОСТЕЙ С ПОЗИЦИИ ФИЗИКО-ТЕХНИЧЕСКИХ ПАРАМЕТРОВ Сведения о нарастающем старении систем часто можно по- лучить, рассматривая динамику определенных параметров. Ими могут быть: подходящая количественная оценка механического износа соответствующей части конструкции (степень износа), 215
Рис. 7.5. Траектории дрейфа параметра (двусторонняя до- пустимая область) расход горючего, чувствительность измерительного инструмента, на- пряжение пружины и др. Если та- кие параметры характеризуют в основном эксплуатационную готов- ность системы, то рекомендуется планировать мероприятия по вос- становлению, непосредственно ори- ентируясь на них. Этот подход рас- сматривается ниже. В основе рас- смотрений лежит, вообще говоря, только один действительный (ска- лярный) параметр. Смысл меро- приятий по восстановлению состо- ит в том, чтобы придать параметру исходное значение Wo, которое он имел в момент начала работы системы t=0. Эти мероприятия вновь называем восстановле- нием. (к тому же придание параметрам исходных значений во многих случаях, например при механическом износе, все равно возможно лишь при полной замене всей конструкции или ее ча- сти). Если не сделано противоположное предположение, то счи- таем, что Wo — постоянно. Цель следующих рассуждений — так спланировать восста- новления, чтобы при заданной допустимой области £, Woe£, с большой вероятностью устранить постепенные отказы. Для ко- личественной оценки необходимо математическое моделирова- ние динамики параметров. Обозначим через Wz значение пара- метра в момент t. Пусть стохастический процесс {WJf^o зада- ется в виде Wf=Wo+XG (7.36) где {Х/}^о — действительнозначный стахостатический процесс, обладающий свойством Р(Хо=0)=1. Одномерные функции рас- пределения процесса {WJ, а также соответствующие плотности распределения (в случае их существования) обозначим через F<O(x)=P(W^x); f<<>(x)=dF(O(x)/dx. (7.37) Пусть допустимая область £ в соответствии с обычными практиче- скими требованиями есть отрезок £=[wa, Wb] (рис. 7.5). Часто во время процесса эксплуатации интересуются отклонениями па- раметра от исходного значения Wo только в одну сторону или возможны лишь односторонние отклонения (например, при меха- ническом износе). Тогда допустимая область ограничена либо только снизу, либо только сверху: 216
1) односторонняя допустимая область —oo=wa<Wb<oo (верхняя допустимая граница); —oo<wa<Wb=oo (нижняя допустимая граница); 2) двусторонняя допустимая область — OO<Wa<Wb<OO. Особое значение имеет случайное время до наступления по- степенного отказа L= inf{t: Wt^£}. .(7.38) Для упрощения терминологии назовем и величину L наработкой (точнее наработкой относительно £). Вычисление распределения вероятностей для L при заданной динамике параметра является предпосылкой достижения вышеуказанной цели. Особенно простые соотношения имеют место в этом случае для монотонных процес- сов {Xt}. Определение 7.1. Стохастический процесс {Xt}/>0 называется монотонно возрастающим (убывающим), если его реализации поч- ти наверное возрастающие (убывающие) функции t. Для монотон- но возрастающих (убывающих) процессов {X/}, очевидно, имеет смысл задавать только верхнюю (нижнюю) допустимую границу wb(wa). Например, в случае монотонно возрастающего процесса вероятность безотказной работы F(t)=P(L>t) =Р (Wx^wb) = P(Wt^wb) для всех хе [0, t], С учетом выражения (7.37) получаем F(t) =F(‘>(wb). (7.39) Аналогично, для монотонно убывающего процесса F(t) = l-F<‘>(wa). (7.40) Экономические соображения в дальнейшем не играют роли, по крайней мере, существенной. Тем не менее, следует указать на формальную аналогию с ситуацией, обсуждавшейся в под- разд. 7.1.3. 7.2.1. ЛИНЕЙНОЕ ИЗМЕНЕНИЕ ПАРАМЕТРА Полагаем Xt=Vt, поэтому параметр задается в виде Wf=Wo+Vt. (7.41) Пусть V — нормально распределенная случайная величина с ма- тематическим ожиданием р, и дисперсией о2, т. е. Р(у<у) = ф(1=-М, (7.42) 217
где распределение Ф(х) задано выражением (3.3): ф(х)=р= р-’-'Чу. (7-«> —оо По смыслу V — это скорость изменения параметра. Параметр распределен нормально с математическим ожиданием E(W«)=Wo+pt (7.44) и дисперсией D2(Wf)=a2t2. (7.45) Стохастическое изменение параметров в соответствии предпо- ложениями (7.41) и (7.42) изучалось, прежде всего, в [103]. 7.2.1.1. ОДНОСТОРОННЯЯ ДОПУСТИМАЯ ОБЛАСТЬ Реализации стохастического процесса {Wt}t>o могут быть как монотонно возрастающими, так и монотонно убывающими. Лег- ко убедиться в том, что при задании верхней (нижней) допусти- мой границы Wb(wa) для P(V^O) ~ 1(P(V=CO) ~ 1) соответст- вующие вероятности безотказной работы хорошо аппроксимиру- ются выражениями F (t) = Ф ( (У.ь-^о)/г -Н j, (7.46) P(t)= 1-^ф((5Уа~^)Д~И) t>0, (7.47) Первая производная f(t)=—dF(t)/dt имеет вид f (t) = — exp f — (a~pt)8 V t > 0, (7.48) '' |<2л ta \ 2t2 / где a = | w — Wo [ /о, ₽ = | P- I /”, (7.49) a w=wa в выражении (7.46) и w=Wb в выражении (7.47). Одна- ко для того чтобы эти соотношения были всегда справедливы, требуются дополнительные предположения: Ц.^0 ДЛЯ W=Wa, ДЛЯ W = Wb. (7.50) Функция f(t), а>0, 0>О, не является плотностью вероятности, поскольку оо J f (1) dt =F(oo) = 1 — F (оо) = Ф (р) < 1. О (7.51) > 4 218
Это вызвано тем, что, по предпо- ложению о распределении вели- чины V, ее реализации могут при- нимать все действительные значе- ния. Если, однако, распределе- ние величины V таково, что она может принимать только положи- тельные или только отрицатель- ные значения, то согласно форму- лам (7.39) или (7.40) вероятность безотказной работы обладает свойством F(oo)=0. (Например, в подразд. 7.1.3 величина V была Рис. 7.6. Качественный график плот- ности а-распределения равномерно распределена на по- _ ложительном интервале.) Итак, с вероятностью F(oo)>0 посте- пенный отказ может не наступить. Поэтому математического ожи- дания величины L не существует (E(L)=oo). Правда, вероят- ность F(oo) пренебрежимо мала, если Зо^|р,|. Характеризуемое функцией f(t) «дефектное распределение вероятностей» называ- ется a-распределением. Типичное поведение функции f(t) показа- но на рис. 7.6. Цель теперь состоит в том, чтобы для заданного в, 0<е< <Ф(Р) найти такой интервал восстановления т8, при котором с вероятностью 1 — е исключается наступление постепенных от- казов. Обозначим через иа а-квантиль стандартного нормального распределения (см. уравнение (2.12)). Уравнение, из которого определяется е, F(te) = l —е, согласно выражениям (7.46) и (7.47) эквивалентно уравнениям ( (wb — Wo) /Те — р.) /<Т=Ui-e, ((Wa — Wo)/Te— g)/o==U8. Так как |u8|=ui_8, то с учетом предположения (7.50), для w= =wa и w=Wb(e<l/2) получаем т _ | w - Wo |/ (ou,_8+1 р |) =а/ (u,_8+₽). (7.52) Пример 7.5. Пусть зазор (мертвый ход) механической управляющей систе- мы равен Wt и известно, что его можно удовлетворительно описать выражением (7.41). Зазор регулируется, т. е. приводится к уровню Wo=3 мм, через каждые т=50 ч. Пусть верхняя допустимая граница wB=13 мм. Замеренные к моменту t=50 ч реализация параметра Wt дали значения E(Ws0)=5 мм и D(Wso) = = 1 мм. (В действительности имеются только оценки этих характеристик.) Со- гласно формулам (7.44) и (7.45) (Е(W5o)— Wo)/50= (5—3)/50=0,04 (мм/ч), o=D(W5o)/50= 1/50=0,02 (мм/ч). 219
Таблица 7.5. Интервалы восстановления для односторонней допусти- мой области (пример 7.5) 1 — £ «1-е 0,900 1,282 0,950 1,645 0,990 2,324 0,999 3,092 *6,4 219 137 116 98 Отсюда получаем а=500 ч и 0 = 2, поэтому выражение (7.52) принимает вид тв=10/(0,02и1_в-}-0,04). В табл. 7.5 содержатся значения интервала те для некоторых значений ко- эффициента обеспеченности. Как и следовало ожидать, с его увеличением соот- ветствующие интервалы восстановления становятся меньше. 7.2.1.2. ДВУСТОРОННЯЯ ДОПУСТИМАЯ ОБЛАСТЬ Разумеется, имеет смысл задавать и верхнюю, и нижнюю до- пустимые границы дрейфующего параметра только тогда, когда Скорость изменения параметра V принимает с вероятностью боль- ше нуля как отрицательные, так и положительные значения. Та- кой подход иллюстрируется рис. 7.7 для и По анало- гии с (7.46) и (7.47) вероятность безотказной работы f(t)-р(- №;w-) = Ф / (wb—Wp)/t—ц\ _ ф / (Wo — wa)/t — н Дифференцирование по t дает плотность вероятности f (t) — =—dF(t)/dt для наработки L: ,('>=пЬ где ai=(Wo — wa)/a, a2=(wb — W0)/o, р=ц/о. оо Поскольку F(oo)=0, теперь имеем J f(t)dt=l. В отличие от оп- о ределения (7.49) параметр р здесь может быть и отрицательным. Оптимальное начальное значение параметра. Чтобы подчерк- нуть зависимость вероятности безотказной работы от Wo, будем в дальнейшем вместо F(t) писать F(t, Wo). Для допустимой об- ласти, ограниченной с двух сторон, вопрос об оптимальном от- носительно F(t, Wo) начальном значении параметра нетривиален. 220
о Т t 0 t t Рис. 7.7. Восстановление при двусторонней допустимой области и линейном дрейфе параметра Точнее, отыскивается значение Wo=Wo*(t) которое удовлетво- ряет условию F(t, W„*(t)) = max F(t, W„). WoSlwa,wb] Для этого запишем выражение (7.53) в следующем виде: F(t, W0)=<D(ti)+®(t2)-l, (7.54) где ti=ai/t+P и t2=a2/t+p, а также ti+t2=(wb — wa)/at=z. (7.55) Вначале предположим, что ti и t2 неотрицательны. Из выраже- ния (7.55) и вогнутости функции Ф(1) для t^O Ф(г/2) — Ф(М>Ф(Ь) — Ф(г/2), 2®(z/2)>®(ti) -Ф(Ь). Отсюда вероятность F(t, Wo) при произвольном фиксированном t>0 достигает максимума, если ti=t2=z/2. Из этого условия W0*(t) = (Wa+wb)/2-gt. (7.56) Как и следовало ожидать, начальное значение Wo*(t) совпадает при ц=0 с серединой допустимого интервала (wa+wb)/2. Для того чтобы обеспечить выполнение условия wa^Wo*(t) <Wb, на- до дополнительно потребовать t<(wb-Wa)/2|H|. (7.57) Если это условие не выполняется, то начальное значение пара- метра Wo*, оптимальное относительно F(t, Wo), не содержится в допустимой области. Поэтому естественно с самого начала до- говориться работать только с такими интервалами восстановле- ния x=t, которые удовлетворяют условию (7.57). При этом пред- 221
положении для Wo=Wo*(t) выполняются и вышеназванные усло- вия ti^O, t2^0. Интервалы восстановления. Если к началу работы задавать значение параметра, равное Wo*(t), то шансы избежать на интер- вале i(0, t) постепенных отказов — наилучшие по сравнению с остальными значениями Woe[wa, Wb]. Поэтому в дальнейшем при планировании динамики восстановления будем исходить из функции F*(t)=F(t, W0*(t)), где t удовлетворяет условию (7.57). Если подставить в выражение (7.54) Wo=Wo*(t) или, что равносильно, ti = t2=z/2, то Ё*(1) = 2ф(Д^)-1. Уравнение для определения интервала восстановления F* (т,) = = 1 — е примет вид (bfWb-wa\= ]_ е/2. 2а t* J Отсюда (wb — wa)/2a^ = u,_,/2 или е = (wb — wa)/2cu1_e/2. (7.58) Применение интервала восстановления т8* исключает посте- пенные отказы за цикл восстановления с вероятностью 1 — е, ес- ли при каждом восстановлении параметру придается значение Wo*(Те*). Однако должно выполняться предположение о том, что Te*(t=re*) удовлетворяет условию (7.57). Оно выполняется тог- да и только тогда, когда |p|/o^Ui_8/2. (7.59) При достаточно большой вероятности 1—в последнее неравенство всегда справедливо. Вычисление интервала восстановления т8 как решение урав- нения F(te, Wo) =1—е при произвольных начальных значениях параметра Wo не вызывает принципиальных трудностей. Правда, объем вычислений для определения т8 больше, чем в только что рассмотренном случае, так как для интервала восстановления т8 невозможно дать точное выражение, аналогичное (7.58). Страте- гия восстановления, основанная на применении величин т8* и W0*(t8*), обладает оптимальными свойствами и отказываться от нее также следует лишь тогда, когда она нереализуема техни- чески. Пример 7.6. Пусть Wt — отклонение (в миллиметрах) показаний измери- тельного прибора от действительного значения измеряемой величины спустя t ча- сов после последней настройки (восстановления). При этом отклонение Wt соответствует разности показаний на шкале прибора независимо от единицы 222
Таблица 7.6. Интервалы восстановления при двусторонней допустимой об- ласти (пример 7.6) 1 — £ 0,900 0,950 0,990 0,999 и1 -«/2 1,645 1,960 2,576 3,290 — -4,6 -3,5 -2,8 ч — 195 148 116 123 НО 92 78 измерения данной величины. Пусть настройка проводится еженедельно, т. е. через каждые 168 ч. Тогда измерительный прибор устанавливается на точное значение и непосредственно после регулировки Wo=O. Для t= 168 ч имеем зна- чения E(Wt)=40 мм и D(Wt)=2,2 мм (точнее говоря, оценки этих значений, см. пример 7.5). Из выражений (7.44) и (7.45) получаем ц=4/168=0,024 мм/ч, 0=2,2/168=0,0131 мм/ч. Пусть допустимая область есть отрезок [wa=—5 мм, wB=5 мм]. Согласно выражениям (7.58) те*= 10/(2-0,0131ui_e/2) =382/u1-e/2 (ч). Соответствующее оптимальное начальное значение параметра (в миллиметрах) Wo* (те*) =0-цтв*=-9,091/и1-8/2. Оба соотношения справедливы с учетом предположения (7.59), т. е. при 1,818^ ^Ui-e/2. Получить коэффициент обеспеченности, равный 1—8, для начального значения Wo¥=Wo*(t8*) можно лишь делая более короткими, по сравнению с т8*, промежутки между последовательными настройками, и, следовательно, уве- личивая экономические затраты. Это видно из табл. 7.6 для некоторых значений 1—8. Наряду со значениями W0*(t8) и т8* в ней также приведены значения таких интервалов т8, которые гарантируют коэффициент обеспеченности, равный 1—8, при настройке измерительного прибора на точное значение (W0=0). При 1—8=0,9 соотношение (7.9) не выполняется, поэтому для 8=0, 1 соответствую- щих значений W0*(t8*) и т8* не существует. 7.2.1.3. СЛУЧАЙНОЕ НАЧАЛЬНОЕ ЗНАЧЕНИЕ ПАРАМЕТРА Предположение (7.41) удовлетворительно отражает реальную ситуацию, если считать, что начальное значение параметра Wo является случайной величиной. Пусть Wo и V — взаимно незави- симые, нормально распределенные случайные величины с матема- тическими ожиданиями w0 и ц и дисперсиями о02 и о2. Тогда и величина Wt распределена нормально с математическим ожида- нием E(Wt)=Wo+pit, и дисперсией D2(Wt)=oo2+a2t2. Следова- 223
тельно, Р%=Ф ( x-w0-H1_ ' \ K’o2 3 + ’2t2 > Основные соотношения (7.39) и (7.40) применимы и в этом слу- чае. Например, для одностороннего допустимого интервала с уче- том предположения (7.50) получаем приближенное выражение вероятности безотказной работы F (t) = Ф ( 1 w~ w°1 ~ J? 11 7 H=o2+=2t2 Если обозначить (7.60) $ a=|w — w01/о, a0=|w — w0|/a0) ₽=|ц|/а, y=oo/o, i. то соответствующая первая производная ? x /х\ Pt2 + “t / (а — Bt)2 \ “ |/&(у2 + t2)3/2 еХР \ 2(724-t2) ) ‘ Распределение, характеризуемое функцией f(t), где а^О, р>0 и у^О, называется распределением Бернштейна. В частном случае для у=0 (детерминированное начальное значение параметра) по- лучается a-распределение (ср. с выражением (7.49))). Так же, как и a-распределение, распределение Бернштейна является де- фектным, поскольку при наших предположениях для всех t^0 0<Ф(-₽)<F(t) ^Ф(ао) <1. (7.61) Таким образом, уже к началу работы в момент t=0 значение па- раметра с положительной вероятностью Ф(—ао) лежит вне допу- стимой области. Нас вновь интересует интервал восстановления те, для которого вероятность отсутствия постепенных отказов рав- на 1 — е. Значение т8 является решением уравнения (a — ₽^)//r! + t2 = u1. Согласно условию (7.61) при решении следует случая: 1. тах{Ф(—ао), Ф(—0)}<е<Ф(0), 2. Ф(—ао)<е<Ф(—0), = 2 1-"а- [«i_. Ка2 —(U2_. —02)Т2 — а?] • Ul-e — Р 3. ф(—ао)<8<Ф(—Р), а2 — Uj—е •у2 — 2а₽ (7.62) различать три (7.63) (7.64) (7.65) 224
Таблица 7.7. Интервалы восстановления при случайном началь- ном значении параметра (пример 7.7) 1 — г. 0,900 0,950 0,990 0,999 ul-£ 1,282 1,645 2,324 3,092 240 237 232 227 Пример 7.7. Пусть, как и в примере 7.5, р,=0,04 мм, а=0,02 мм и пусть задана верхняя допустимая граница wB=13 мм. Пусть кроме того, математиче- ское ожидание параметра Wo есть w0=3 мм, а стандартное отклонение <Го=1 мм. Отсюда р=2, у=50, а=500, ао=Ю и Ф(₽) =0,977, Ф(—Р) =0,023, Ф(—ао)<10-®. Таким образом, нижняя граница Ф(—а0) практически никак не влияет на ве- личину 8. В табл. 7.7 содержится ряд значений коэффициента обеспеченности 1—8 и соответствующих значений интервала восстановления т8. Из сравнения с данными табл. 7.5 видно, что предположение о случайном характере началь- ного значения Wo приводит к уменьшению интервала восстановления. Справед- ливость этого утверждения в общем случае можно легко доказать, сравнивая (7.52) с соотношениями (7.63) — (7.65). Следовательно, уменьшение информа- ции о параметре приводит при равных коэффициентах обеспеченности к увели- чению затрат на восстановление. 7.2.1.4. НЕЛИНЕЙНЫЙ ДРЕЙФ ПАРАМЕТРА Напрашивается мысль так обобщить условие (7.41), чтобы охватить и случай нелинейного дрейфа параметра E(Wt), t^O. Поэтому полагаем Wt=Wo+VH(t), (7.66) где H(t) — непрерывная, строго монотонная возрастающая функ- ция t, Н(0)=0. Пусть, как в предыдущем подразделе, Wo и V— взаимно независимые, нормально распределенные случайные ве- личины с математическими ожиданиями w0 и ц, а также диспер- сиями оо2 и о2. По аналогии с выражением (7.60) и при сделан- ном предположении (7.50) для одностороннего допустимого ин- тервала имеем f (t) = ф ( 1 vj~^?±z_LL!2!(t)). (7.67) \ Keoa + e*(H(t))2 / ' Решение уравнения F(t8') = 1 —е имеет вид т/=Н-«(т8), где т8 определяется в зависимости от рассматриваемого случая одним из уравнений (7.63)—(7.65), а Н-1 означает функцию, об- ратную к Н-1. Таким образом, переход от выражения (7.41) к (7.66) означает лишь формальную замену времени. 15—6301 225
7.2.2. МОДЕЛИРОВАНИЕ ИЗМЕНЕНИЯ ПАРАМЕТРА С ПОМОЩЬЮ ВИНЕРОВСКОГО ПРОЦЕССА СО СНОСОМ На практике предположение (7.41) пользуется большой попу- лярностью. Причина этому — удовлетворительное описание с его помощью многочисленных реальных параметров, а также возмож- ность точно задать величины F(t) и те. Недостаток указанного предположения, однако, состоит в том, что после реализации не- которого значения величины V случайность в динамике парамет- ра исключена. Практически это говорит о том, что уже знание на- чальной фазы поведения параметра позволяет однозначно прогно- зировать дальнейшее его изменение. (Правда, опыт показал, что использование распределений (7.49) и (7.67) дает приемлемые результаты, даже если свойство (7.41) нарушено.) В этом подраз- деле рассмотрим ситуацию, в которой случай влияет на поведе- ние параметра в любой момент производственного процесса. 7.2.2.1. ЛИНЕЙНЫЙ ДРЕЙФ ПАРАМЕТРА Исходя из .(7.36), где Xt=pi—oYt, предположим, что Wf=Wo+pt - aY«, (7.68) причем {Yt}t>o — винеровский процесс, обладающий следую- щими свойствами: 1. P(Yo=O)=l. у 2. P(Yt<y) = F^? J exp (—x*/2t) dx. —00 Таким образом, процесс Yt, t>0, нормально распределен с мате- матическим ожиданием 0 и дисперсией t. 3. Процесс {Yt}‘ >о является однородным стохастическим с незави- симыми приращениями, т. е. для произвольных п и tx> ta,..., tn таких, что 0<t1<t2<...<tn, величины Ytl, Yt,— Yt,,..., Ytn — YtM взаимно независимы, а для произвольных s>0 и 0<прира- щения Yx, — Y,, и Yx,+S — Ytl+s одинаково распределены. Эти предположения определяют так называемый винеровский процесс со сносом {wt}t>o- Он характеризуется как однородный стохастический процесс с независимыми приращениями и одно- мерной функцией распределения (t>0) X F<‘,(X) ~ I exp(-(y-Wo-ut)7(2o4))dy, 226
соответствующей плотностью распределения f(t) (х) = exp (- (х - Wo - |xt)7(2o2t)), (7.69) И 2rcta и характерными параметрами E(Wt)=Wo+p.t, D2(Wt)=o2t. От- сюда следует, что в среднем параметр ведет себя так же, как и при условии (7.41). Величина oYt означает случайное в момент t отклонение параметра от своего математического ожидания. Та- ким образом, в отличие от предположения (7.41) траектории па- раметра нелинейны с вероятностью 1. Винеровский процесс не является также монотонным в смысле определения 7.1. Точечные оценки. Пусть Wt(i), i=l, 2, ...,n — стохастические процессы, эквивалентные процессу {Wt}t>o. Пусть процесс {W(i)} наблюдается в моменты tu, j = l, 2,..., mi, где 0<.tn<tI2< ... • • Сйть1=1. 2,....п. Положим Wij = Wg, j = 1, 2,..., mi( tn = S nij (7.70) i 1 И AWij=Wij — Wij-i, Atij=tij — tij-i, j =2, 3,..., mi. На основе этих выборок построим оценки максимального правдо- подобия для величин Wo, ц и о2. (Оценка для Wo излишня, если эта величина фиксирована с самого начала по техническим со- ображениям.) П И I п \— 1 ;—1-1, „ ; (7 71) S’ll'-"1’ I 2 tlml ) 1=1 \i=l ' Swtal-n^ u = _±L_------------- (7.72) 1=1 1=1 11 1=1 j=2 Элементарный, но трудоемкий вывод этих оценок не приводится. Частный случай п=1. Он означает, что в моменты ti, t2, ...» tn 15* 227
наблюдается одна траектория параметра: Atj = tj — tj-i, AWj = = Wt} — Wtj_1( j= 1, 2. Поэтому W"“ Частный случай т;=1, i=l, 2,Для каждой из наблю- даемых траекторий параметра имеется только одно значение W(l), наблюдаемое в момент t<’>. Поэтому 2 W<‘> — nW0 А _ 1 VI (W<»> -frO-fy)» ~ п-2£| t<0 i=l Если известно точное значение Wo, то приведенные оценки для величин ц и о2 сохраняются при замене Wo на Wo. Распределение наработки. Пусть заданы положительная сред- няя наработка р и верхняя допустимая граница wt, Wo^Wb. Тог- да соответствующая наработка системы L имеет плотность f (t) = ехр ( - pt)2 . (7.74) ' ’ |/2я t3/2 н \ 2t ) ' где а= (Wb — Wo)/o и Р=р/ст. (7.75) 228
Таблица 7.8. Интервалы восстановления для винеровского процесса со сно- сом (пример 7.8) 1 -ь 0,900 0,950 0,990 0,999 и1-£ 1,282 1,645 2,324 3,092 240 237 232 227 (ср. с выражением (7.48)). Это утверждение, помимо прочего, доказано в [135], где исследована более общая модель. (В [135] изучалась задача о пересечении заданного уров- ня для класса экспоненциальных стохастических процессов). Тем самым, наработка L удовлетворяет обратному гауссовскому распределению (см. разд. 3.1) с характеристиками Е (L) = <х/₽, D2 (L) = а/p3, V (L) = ]Л 1 /(ар) и вероятностью безотказной работы F(t) =Ф — е2а0ф( — \ |Л / \ |А J (7.76) (7.77) В разд. 3.3 приведены точечные и доверительные оценки для E(L)=a/p и а2, полученные на основе реализаций наработки L. Из них непосредственно получаются точечные оценки для а и р. Если для Wo, рис2 известны оценки (7.71)—(7.73), то оценки для аир получаются также из определения (7.75). Точное выражение решения т8 уравнения F(t8) = 1 — е, Э< <е<1, найти не удается. Однако можно получить его значения в зависимости от параметра формы (коэффициента вариации) У1/(аР) и масштабного параметра (1/р)2, если использовать таб- лицы обратного гауссовского распределения [170, 358]. Если их в распоряжении нет, то и численное решение уравнения F(t8) = = 1 —е (с использованием таблиц для нормального распределе- ния) не представляет трудностей. Пример 7.8. Пусть, как в примере 7.5, ц=0,04, <r=0,02, W0=3, wB=13 и, следовательно, <х=500 и 0=2. При этих значениях констант и при t, приблизи- тельно равном величине тв, второе слагаемое в выражении (7.77) пренебрежимо мало (несмотря на множитель е2000). Поэтому т8 — достаточно хорошее при- ближение для решения следующего уравнения (0<е<0,5): Ф1((а-₽1)/|Л) = 1-е. Отсюда ^1/—+— ₽ |/ ₽^4\ру + р+2р‘ (7.78) (7.79) 229
В табл. 7.8 содержатся длины интервалов т8, соответствующие некоторым значениям е. Сравнение с табл. 7.5 показывает, что при равных е, ц и о интер- валы т8 теперь больше, чем в предположении (7.41). Наглядно это можно объ- яснить тем, что, когда вместо предположения (7.41) берется (7.68) дисперсия величины W(t) больше для любого t>l. Более того, поразительными кажутся относительно малые разности между т8 и E(L)=250 ч. Это следует объяснять неправдоподобно малым коэффициентом вариации наработки L, а именно, V(L)=0,03. 7.2.2.2. НЕЛИНЕЙНЫЙ ДРЕЙФ ПАРАМЕТРА С учетом предположения (7.68) среднее значение параметра меняется со временем линейно. Для того чтобы смоделировать нелинейный дрейф параметра, надо, естественно, положить по аналогии с выражением (7.66) Wt=Wo+H(Xt). (7.80) Здесь Н(х) считается непрерывной, строго монотонной функцией, Н(0)=0, a {Xt}— винеровским процессом со сносом и парамет- рами E(Xt)=pi, D2(Xt)=o2t. Подход, основанный на выражении (7.80), требует, чтобы вначале были оценены функция Н(х), а также начальное значение Wo, если оно не задано. Это можно сделать, например, с помощью тестовой подгонки, используя рег- рессионный анализ. Затем надо преобразовать реализации Wt со- гласно отображению H-1(Wt — Wo). После такой подготовки по- лучается та же ситуация, что и в подразд. 7.2.2.1, поскольку до- стижение параметром Wt верхней границы Wb в момент L экви- валентно тому, что процесс Xt в момент t=L первый раз примет значение H-I(wb — Wo). Поэтому вероятность безотказной рабо- ты вновь задается с помощью выражения (7.77), если положить a=H-‘(Wb — W0)/a и 0=р/<т. Для описания изменения параметра часто оказывается адек- ватной функция H(x)=Wo(ex— 1). В этом случае х. Wt = Woe‘. (7.81) Одномерные распределения Wt являются логарифмически нор- мальными с характеристиками Е (Wt) = Wo e(|i+aV2)t; D2 (Wt) = Wos e(2|X-a2)t (e0*— 1). Превышение допустимой границы Wb параметром Wt, если H-1(y)=ln(y/Wo+l), эквивалентно превышению винеровским процессом со сносом {Xt}/>0 значения lnwb/Wo. Для того чтобы соотношение (7.81) было справедливо, необходимо дополнительно 230
предположить, что величина InWt/Wo нормально распределена с ( математическим ожиданием p,t и дисперсией a2t. Вопросы, изложенные в данном подразделе, исследовались также в [Д.20]. 7.2.3. МОДЕЛИРОВАНИЕ ИЗМЕНЕНИЯ ПАРАМЕТРА 1 С ПОМОЩЬЮ ПРОЦЕССА НАКОПЛЕНИЯ До сих пор мы имели дело с параметрами, траектории кото- рых во времени являются почти наверное непрерывными функ- циями. В то же время на практике часто встречается такое изме- нение параметров, которое можно описать ступенчатыми функ* циями. Приведем примеры. 1. Изменения параметров вызваны преимущественно воздей- ствиями в виде толчков, ударов, импульсов (например, механи- j ческий износ под влиянием непрерывной нагрузки). 2. Мероприятия по восстановлению, вообще говоря, имеют * следствием целенаправленное скачкообразное изменение пара- метров, что очевидно, если считать параметром затраты на вос- становление и если время восстановления пренебрежимо мало (см. подразд. 7.1.2.3). Ниже анализируется модель, которая пред- назначена для аналитического изучения подобных ситуаций. Ре- 3 зультаты в основном получены в [317, 74, 229], а также в [341]. Пусть задан обычный процесс восстановления Xt, i = n =1, 2,..., с моментами восстановления Tn=S Xi. Считаем, что ’ i=l I Tn, n^l—это те моменты, в которые возникают импульсные воздействия, т. е. могут произойти скачкообразные изменения па- раметров. Пусть, кроме того, Yi — неотрицательная случайная ве- личина, которая задает приращение, получаемое параметром под воздействием i-ro импульса, i=l, 2,... Полагаем, что в проме- жутках между двумя импульсными воздействиями параметр оста- ется постоянным, а пары (Xi, Yi), i=l, 2,... независимы и одина- ково распределены (для удобства говорим о распределении пары (X, Y)). Совместную функцию распределения (X, Y) обозначим 1 через G(t, y)=P(X^t, Y<y), (7.82) причем G(0, 0)=0. Таким образом, последовательность {(Xt, Yi), i=l, 2,...} образует регенерирующий процесс с моментами регенерации Тп. Через Ni(t) обозначим соответствующий процес- су {Xi} считающий процесс восстановления. Следовательно, Ni(t) есть случайное число импульсов за время (0, t]: Ni (t) =max{n : Tns^t}. 231
Отсюда имеем представление для параметра Wt: N.(t) Wt=2Y„ (7.83) i=0 где Yo=Wo означает случайное начальное значение параметра в момент t=0, которое предполагается независимым от последова- тельности {(Xi, Yi), i=l, 2,...}. Определенный таким способом стохастический процесс {Wt}/>0 имеет вид (4.89) и является куму- лятивным. Если случайные величины X и Y независимы, а вели- чина X экспоненциально распределена, то получаем частный слу- чай этого кумулятивного процесса — модель ударных нагрузок, обсуждавшуюся в разд. 3.2 и примере 4.5. Функция распределения F(t)(x) = P(Wt^x) задается в виде F(t) (х) = F, (t) Fo (х) + J f Fr (t - u) Fo (x - v) dH (u, v), (7.84) о 0 где Fi(t)=P(Xi^t)=G(t, oo), F0(x) =P(Y0<x), а двумерная функция восстановления однозначно определена интегральным уравнением t у H(t, y) = G(t, y) + Jj*G(t —и, у—v)dH(u, v). (7.85) Решение этого интегрального уравнения можно получить, вообще говоря, численными методами. Для математического ожидания и дисперсии величины Wt имеем представления Е (Wt) =Е (Yo) +Mj (t) + (Hi * М,) (t) , (7.86) D2 (Wt) =D2 (Yo) +2 ((d+Hi)2* *Mf) (t) + + ((6+Hi)*M2)(t) -[((6+HI)*Mi) (t)]2, (7.87) где e Ц(0 = Е^Ш), My (t) = J m/(x)dF1 (x), 0 mJ(x)=E(Yi|X = x). j=l, 2; 5 (t) = { °’ В частности, mi (x) есть среднее приращение, которое получает параметр в результате импульсного воздействия, если предыдущее воздействие произошло перед этим за время х. Вообще говоря, можно ожидать, что независимо от вида прира- щения mi(x) дрейф параметра E(Wt) из-за независи- мости и одинаковой распределенности пар (Х>, Yi), i=l, 2,... спустя определенное время изменяется приблизительно линейно. 232
В самом деле, если предположить существование моментов g1=E(Xi), i=l, 2, 3, Vj=E(YJ), Иц=Е(Х«У1), i, j = l, 2, то при t—*-оо Е (Wt) =At+E (Yo) 4-B+o (1); D2(Wt)=Ct4-D2(Y0) +D+o(l). (7.89) Постоянные А, В, С и D задаются следующим образом: A = ^-; Hi В = V1^2 ___ . 2ц/ ц, ’ q _ va ! vi8Ha ^viHu . Hi Hi3 Hi3 D = 5v/p22 _ 2у/ц3 _ Ни 2v1(xgl у2ц2 __ Цм 4ц/ Зц/ у/ у/ ц/ 2у/ цх Из выражений (7.83), (7.88) и (7.89) по центральной предельной теореме теории вероятностей Ншр(-^^<Х) = Ф(Х) (7.90) t*->oo \ У СТ / (ср. с теоремой 4.15). Тем самым, для достаточно больших t па- раметр Wt распределен приблизительно нормально с математи- ческим ожиданием At и дисперсией Ct. Но этими свойствами как раз обладают одномерные распределения винеровского процесса, что оправдывает использование последнего для аппроксимации ку- мулятивного процесса изменения параметра. Пример 7.9. Пусть приращение Y за импульсное воздействие при условии Х = х (т. е. Y=Y(x)) имеет в соответствии с выражением (7.41) вид Y=Vx, где V положительная случайная величина. Тогда mi(x) = ax и ш2(х)=Ьх2, где a = E(V) и b= (E(V)4-D2(V)). Следовательно, ри=ар2, |х21=а|л3, Ц12=Ьц3> а также Vi = ap,i, v2=bp2. Поэтому получаем А = а, В=-^, С = (Ь —а2)—, 2p-i 233
Выражения (7.84) — (7.87) немного упрощаются, если предположить, что ве- личины X и У независимы. В этом случае, например, математическое ожидание и дисперсия распределения Wt получаются из выражения (7.83) с помощью леммы Вальда (см. лемму 2.1): E(Wt)=E(Y0)+v1N1(t); D2 (Wt) = D2 (Yo) 4-V!2D2 (Nt (t))+(v2-V!2) N! (t). Замечание. Если приращение параметра в результате импульсного воздей- ствия пропорционально его абсолютному значению непосредственно перед воз- действием, то представляется разумным задавать параметр не в виде (7.83), а с помощью соотношения Ni(t) wt= П Yi. (7.91) i=0 Для того чтобы обеспечить монотонное возрастание параметра, надо при этом потребовать P(Y^1) = 1. Все же введением преобразованных величин Wzt = = lnWt и Y'i = lnYi представление (7.91) снова приводится к виду (7.83). По- этому результаты этого подраздела можно перенести на мультипликативный процесс вида (7.91). Распределение наработки. Заданием верхней допустимой гра- ницы w=wb^W0 определена случайная наработка N2 (w) L= 2 xi> (7.92) i=0 n-1 n: 2 Y.<x i=0 где Xo=O и N2(x)=max для Y0^x, a также N2(x)=0 для Y0>x. Полагая H2(x) = E(N2(x)), F2(y) = = G(oo, у) и S(x) = JE(X|Y=y)dF2(y), из формулы (7.92) по- лучаем математическое ожидание и дисперсию E(L) = hjH2(w); D2(L) = И2Н2(w) +2щ (Н22**S) (w)-inW(w). (7.93) Далее полагаем Yo=W0=const. Тогда для w-^-oo справедливы асимптотические представления Е (L) = о (w); D2 (L) = w + о (w). Поскольку G(0, 0) =0, процесс {Wt}/>0 является монотонно воз- растающим. Поэтому согласно соотношению (7.39) вероятность безотказной работы F(t)=P(L>t) имеет простой вид: F(t) =F(‘)(w), (7.94) 234
где функция F^>(x) задана с помощью выражения (7.84). Однако его практическое использование имеет свои границы. Это касается в особенности решения уравнения F(re) = l—е, 0<е<1. Причина кроется в том, что, как уже упоминалось, явного аналитического представления функции F<‘> (х), вообще говоря, не существует. По- этому интересны удобные аналитические приближения F(t) функ- ции распределения F(t). Естественно использовать для их постро- ения асимптотические распределения величины Wt при t->-oo, за- данные с помощью выражения (7.90). Это приводит в совокупности с формулой (7.94) к искомым приближениям — распределению Бирнбаума—Саундерса F (t) = Ф ( At-<w-Wo) \ дла t> О \ |/ct ) и вероятности безотказной работы F(t) = 1— F(t) = o( W ~.y^-At. \ v 7 7 \ iZct j Данный тип распределений уже встречался в примере 7.8 (см. уравнение (7.78)). В частности, решение т8 уравнения F(r8) = = 1—е, 0<е< 1 задается с помощью выражения (7.79), если по- ложить a— (w—Wo) /УС и р=А/Ус. Из этих соотношений получа- ются плотность, математическое ожидание и дисперсия для распре- деления Бирнбаума—Саундерса: 2 /2nt3 1 \ 2t J ’ Е (L) =а/Р +1/202, D2 (L) = а/₽3+5/4р4. В заключение рассмотрим случай, когда X и Y независимы. Тогда F (t) = Р (L< t) = SFf (t) P (Na (w) = n) = n=0 = 2 F1‘ (t) (РГ (w) - F2n+,) * (w)), n=0 где Flo*(x)=6(x), F2(x)=G(oo, x) и F2°* (x) =F<> (x). Следовательно, функция распределения наработки есть смесь^ф^цк- ций распределения F"*(t) с весами gn = F2*(w)—F2n+1)*(w), 1М=; О, 1, 2...: F(t)=SgnF?‘(t). (7.95) п=0 235
Свертка функции F(t) с собой снова дает смесь функций F"*(t): ОО F2* (t) = (F * F) (t) = 3 g£2) F"* (t), n=0 где n Sn2) = Sgn-igi. n = 0. I. -- i=0 Это свойство функций распределения F(t) вида (7.95) облегчает численный анализ процессов восстановления. Для дисперсии вели- чины L вместо (7.93) получается более простое представление: D2 (L) ==p2H2 (w) + 2И12Н22 (w) -2И12 (Н2 (w) - - H2(w— Wo))- pi2H22(w). Вопросы, изложенные в данном разделе, исследовались также В [341]. ГЛАВА 8. АНАЛИЗ НАДЕЖНОСТИ МОНОТОННЫХ СИСТЕМ СПИСОК ОБОЗНАЧЕНИИ S монотонная система et i-й элемент системы S, i=l,..., п zi (Zi) детерминированная (случайная) величина, связанная с элементом ei и принимающая значения 0 или 1 Zs случайная величина, связанная с системой S и принима- ющая значения 0 или 1 <р структурная функция Vn n-мерное пространство векторов z= (zi, Z2, ... , zn) Рис. 8.1. Мостиковая схема 236 2Rj, множество путей, мно- жество сечений Pi, Ps P(Zi=l), P(ZS = 1) коэффициенты готов- ности для элемента et и для системы S h Ps=h(pb р2,..., рп) Система, состоящая из боль- шого числа подсистем, не обяза- тельно сводится к параллельной или последовательной структу- рам или их соединениям (см.
разд. 2.2). Простой пример тому — мостиковая схема (рис. 8.1). Поэтому необходимо задать достаточно общий класс систем, обла- дающих структурой. Основы соответствующей теории излагаются в этой главе. 8.1. СТРУКТУРНЫЕ ФУНКЦИИ В предположениях, сделанных в разд. 2.2 относительно систе- мы S и ее элементов ej, можно ввести следующие бинарные, или булевы переменные: {1, если элемент е, работоспособен, i= 1, 2... п, О, если элемент е. отказал; /о .. (0.1) ( 1, если система S работоспособна, У ~~ 10, если система S отказала Полагаем,_z= (zi, Z2, ... , zn), где z — элемент п-мерного про- странства Vn всех векторов с компонентами 0 или 1. Вследствие предположения о том, что состояние системы полностью опреде- ляется состоянием своих элементов, можно записать Ф=Ф (z) =<p(Zb z2, ... , zn). (8.2) Функция ф называется структурной функцией системы S. Перемен- ные ф и Zi являются индикаторными для состояния системы и ее элементов. Число элементов системы и называется порядком ф. Структурную функцию одной и той же системы можно представить многими эквивалентными способами. Пример 8.1. Система «к из и» имеет структурную функцию если если Zj к; i=l п S Zj<k. (8.3) В частности, для к=п и к=1 получаются структурные функции соответственно для последовательной и параллельной систем. Для них также имеем эквива- лентные представления <p(z) = min (zlf z2, , n zn) ~ П Zi (послеДовательная система); (8.4) i=l V (z) = max (zj, za, • n zn) =H Zj (параллельная система). (8.5) i=I 237
где использовано обозначение п п II ^1=1-По -м- 1=1 1=1 Следует отметить, что справедливость соотношений п min(zi, г,, zn) = П zp <8-6> max(Zj,za....zn) =П zi 1=1 связана с предположением zeVn. Для того чтобы характеризовать состояние отдельного элемен- та системы, положим (li, z) = (zi, ... , Z1-1, 1, Zi+ь ... , zn); (01, z) = (zi, ... , Z1-1, 0, Z1+1, ... , Zn). (8.7) Легко убедиться, что каждая структурная функция <р порядка п для любого zeVn может быть записана следующим образом: <p(z) = zi<p((li( z)) + (l — z,) <f>((01( z)). (8.8) Таким образом, структурные функции порядка п можно свести к структурным функциям порядка п—1. Пример 8.2. Проиллюстрируем применение (8.8) на примере структурной функции для мостиковой схемы (рис. 8.1). Напрашивается мысль: особо выде- лить элемент ез, т. е. положить i=3. Тогда для zeVs <p(z)=z3(pi(zi, z2, z4, z5)+(l— z3)<p2(zi, z2, z4, z5). Здесь ф1 — структурная функция последовательной схемы, состоящей из парал- лельных систем еь е2 и е4, е5, а (р2 — структурная функция параллельной схемы, составленной из последовательных систем ei, е4 и е2, е3. Применяя представления (8.4) и (8.5), получаем Ф1(гь z2, z4, z5) = (l—О— zi) (l—z2)) (1—(1—z4) (1—z5)), <P2(Z1, z2, Z4, Z5) = l—(1—Z1Z4) (1—Z2Z5). Так же, как и в этом примере, во многих других случаях струк- турную функцию сложной системы можно легко получить подхо- дящим выбором номера i и применением формулы (8.8). Последо- вательно применяя формулу (8.8), для структурной функции си- стемы <р получим дизъюнктивную нормальную форму: п ?D (?)=2 ? (у) П zT‘ —zi)1-у‘> с8-9) У 1=1 238
где суммирование производится по всем у= (уь уг....................yn)eVn. Если раскрыть произведение в выражении (8.9) и собрать члены с одинаковым числом сомножителей, то получится линейная фор- ма структурной функции системы п п п ?L (?) = а0 + 2 aizi + 2 ViZJ + 2 aijk Zi Zj Zk - i=l i,j=l i,j,k=l i<j i<j<k - + aU...nZlZ2--Zn> (8.Ю) где коэффициенты аь ац, ... — целые числа. При перемножении следует иметь в виду свойство идемпотентности булевых перемен- ных Zi2 = Zi. Как дизъюнктивная нормальная форма, так и линейная форма структурной функции системы определены однозначно. Линейную форму получают из дизъюнктивной нормальной формы, собирая коэффициенты у соответствующих степеней или смешанных про- изведений из величин Zi. Целесообразность обоих представлений структурной функции будет пояснена в разд. 8.3. Пример 8.3. Построим дизъюнктивную нормальную форму, а также линей- ную форму для систем «2 из 3» (см. рис. 2.9). Значения соответствующей струк- турной функции <p(z) для всех zeV3 заданы с помощью соотношения (8.3), где п=3, к=2: ф(0, 0, 0)=ф(0, 0, 1)=ф(0, 1, 0)=ф(1, 0, 0)=0, ф(1, 1, 0)=ф(1, 0, 1)=ф(0, 1, 1)=ф(1, 1, 1) = 1. Отсюда фо=(гь z2, z3)=ziz2z34-ziz2(l—z3)-J- 4-Zi(l—z2)z3-(-(l—zi)z2z3. Для определения коэффициентов ai, aij, ... линей- ной формы получаются следующие уравнения (поскольку ф(0, 0, 0)=0, то Зо=О) *, ai = ф(1, 0, 0)=0, а2 = ф(0, 1, 0) =0, а3 = ф(0, 0, 1)=0, ai-j-a^a^ =ф(1, 1, о)=1, ai-j-a3-|-ai3 =ф(1, 0, 1) = 1, а24-а34-а23 = ф (0, 1, 1)=1, ai-(-a2-|-a3-(-ai2-(-ai3-(-a23-{-ai23 = ф(1, 1, 1) = 1. Из них имеем ai = a2=a3=0 и aJ2= ai3=a23=l, ai23=—2. Таким образом, линей- ная форма задается в виде фь(гь z2, z3)=Ziz2-|-ZiZ3-j_z2z3—2ziz2z3. Определение 8.1. Пусть система S имеет структурную функцию <р. Дуальная структурная функция, соответствующая ф, определя- ется как (z) = 1—ф (1—z), (8.11) 239
где z==(zb z2,..., zn)eVD и 1—z=(l—zb 1—z2,.... 1—zn). Она является структурной функцией системы S^), дуальной относитель- но S. Например, системой, дуальной относительно последовательной /параллельной) системы, будет параллельная (последовательная) система. Этот факт следует сразу из соотношений (8.4) и (8.5). Вообще дуальной по отношению к системе «к из п» будет система «(и—к+1) из п». Анализ дуальных систем часто легче, чем исход- ных. С другой стороны, появление дуальных систем естественно в системах с двумя типами отказов. Простой пример можно найти в [31]. (См. также разд. 2.2.) Следующее определение характеризует те элементы, состояние которых не влияет на состояние системы. Введем следующие по- нятия. Элемент ei системы со структурной функцией <р называется несущественным, если ф((1ь z))=<p((Oi, z)) для всех zeVn. В про- тивном случае он называется существенным. Говорят, что струк- турная функция <р является возрастающей, если она не убывает по каждому из своих аргументов. Определение 8.2. Система со структурной функцией называ- ется монотонной, если выполняются следующие условия: а) каждый элемент — существенный; б) функция ф — возрастающая. Для заданного множества элементов монотонная система одно- значно определяется своей структурной функцией. Легко убедить- ся, что монотонная система обладает свойствами: 1. ф(0, 0,..., 0)=0, ф(1, 1,..., 1) = 1. (8.12) 2. Для^= (zi, z2, ... , zn)eV справедливы неравенства п п П Zi<?(z)<U Zj. (8.13) i=l i=l Эти неравенства означают, что произвольная монотонная си- стема с точки зрения работоспособности всегда «структурно силь- нее» («структурно слабее»), чем последовательная система (парал- лельная система) с таким же числом элементов. 3. Система S^d), дуальная относительно монотонной системы S> также монотонна. В дальнейшем ограничимся исключительно анализом монотон- ных систем. Их поведение естественно с точки зрения работоспо- собности. Тем не менее, существуют примеры реальных систем, ко- торые немонотонны [280]. 240
8.2. ПУТИ И СЕЧЕНИЯ В МОНОТОННЫХ СИСТЕМАХ Ниже приводятся определения, которые важны для дальнейших рассуждений. Определение 8.3. Пусть ср — структурная функция монотонной системы. Вектор состояний zeVn называется вектором пути (сече- ний), если <p(z) = 1 (<p(z) =0). Таким образом наличие вектора пути (сечения) равнозначно работоспособности (неработоспособ- ности) системы. Каждому вектору пути z={zi} поставим в соответствие мно- жество S0l(z) = {j : Zj = l}. Оно характеризует те элементы, которые работоспособны, если имеет место вектор пути zA и называется множеством элементов пути (соответствующим z). Аналогично, для вектора сечения z определим множества ©(z) = {k: Zk = 0}. Оно характеризует те элементы, которые нера- ботоспособны, если имеет место вектор сечения z, и называется множеством элементов сечения. По смыслу понятия вектора пути (сечения) и множества элементов пути (элементов сечения) экви- валентны друг другу. Поэтому говорят просто о путях и сечениях. Множества элементов пути и сечения могут, не вызывая недора- зумений, задаваться набором тех элементов, которые они харак- теризуют. Для упрощения записи будем этим при случае пользо- ваться. Введем в векторном пространстве Vn следующее отношение. Пусть ^={zj и у={у1}, z, yeVn. Запишем z<y, если z^yi, i= = 1, 2,..., п и Zj<yj, по крайней мере, для одного j. Определение 8.4. Вектор пути z называется минимальным, если для всех у, yeVn, удовлетворяющих условию y<z, <р(у) =0. Век- тор сечения z называется минимальным, если для всех y^Vn> удовлетворяющих условию y>z, <р(у) = 1. Минимальному вектору пути (сечения) соответствует минимальное множество элементов пути (сечения). Эти определения означают следующее. Функционирование эле- ментов, принадлежащих минимальному множеству элементов пути, обеспечивает работоспособность системы. Если откажет, по край- ней мере, один элемент в каждом из этих множеств, то откажет вся система. Аналогично, неработоспособность элементов из мини- мального множества элементов сечений влечет за собой неработо- способность системы. Если в каждом из этих множеств, по край- ней мере, один элемент переходит в работоспособное состояние, то система также становится работоспособной. При этом следует об- ратить внимание на то, что по определению элементы, не принад- лежащие множеству элементов пути (сечения), находятся в нера- 16—6301 241
Рис. 8.2. Схема надежности монотон- ной системы (пример 8.4 и 8.5) ботоспособном (работоспособ- ном) состоянии. Пример 8.4. Минимальные пути для структуры, представленной на рис. 8.2— это {1, 2, 3}, {1, 2, 4}, {1, 5}, {1, 6}. Минимальные сечения — {1}, {2, 5, 6}, [3, 4, 5, 6}. Минимальные пути могут одновре- менно быть минимальными сечениями и наоборот. Например, в системе «2 из 3» (см. рис. 8.2) минимальными путями и одновременно сечениями являются мно- жества {1, 2}, {1, 3}, {2, 3}. Теорема 8.1. ]173]. Пусть 31 — подмножество множества N= {1, 2... п} и пусть 91 = N \ 91. Тогда следующие формулировки экви- валентны: а) 91 — сечение; б) 91 — Не путь; в) для каждого пути 501 справедливо 501 р) 31 0; г) для каждого минимального пути 501' справедливо 501' (~) 91 0. Доказательство. 1. (а-*=М5). Пусть элементы et, ieSJ, отказали, а элементы «j, jeSR, исправны. Если $ — сечение, то система находится в состоянии отказа, поэтому $ не может быть путем. Наоборот, если $ — не путь, то система нахо- дится в состоянии отказа, поэтому $ должно быть сечением. 2. (б-<=^в). Если 2)feN и 2)1П91=0, то 2Jte9l. Если $— не путь, то и 2)1 не может быть путем. Отсюда для каждого пути 2)1 справедливо 2)?П^^=0. Наоборот, пусть 2RQN=H=0 для каждого пути 2П. При этом предположении 21 не может быть путем. 3. (в<=>г). Импликация в=>г очевидна. Если 2)1 — произвольный путь и Ж'П^#=0 для каждого минимального пути 2)1', то 2RP|N=H=0, поскольку каждый путь содержит, по крайней мере, один минимальный путь. G Из пункта г) этой теоремы непосредственно следует метод по- лучения сечения системы из ее минимального пути. В каждом ми- нимальном пути удаляется один элемент (возможно, один и тот же). Множество элементов, полученных таким образом, всегда является сечением. (Можно убедиться в этом на примере 8.4.) Утверждение следующей теоремы очевидно, однако оно имеет важное значение для теории надежности монотонных систем. Теорема 8.2. Пусть заданы монотонная система S со структурной функцией <p(z), zeVn, и структурная функция <p<d)(z) соответству- ющей дуальной системы S^d), определенная с помощью выражения 242
(8.11). Если z — вектор пути для ср, то 1—z — вектор сечения для q/d) и наоборот. Перейдем теперь к построению структурных функций с помо- щью минимальных путей и сечений. Пусть Ш12, — все минимальные пути, а ©ь ©2, ... , ©s— все минимальные сечения монотонной системы. Каждому множеству Sftj поставим в соответ- ствие заданную на пространстве Vn функцию М£) = П Zi, j = 1, 2...... W. ' (8.14) Обратим внимание на то, что в этом выражении множество вы- ступает исключительно как множество индексов (таким образом, z — необязательно вектор пути, в частности, он не обязательно при- надлежит множеству 2)?j). Функция nj (z) принимает значение 1 тогда и только тогда, когда все элементы минимального пути ра- ботоспособны. Вследствие этого jij называется последовательной структурой j-ro минимального пути (ср. с представлением (8.4)). Система функционирует тогда и только тогда, когда, по крайней мере, одна из последовательных структур минимального пути ра- ботоспособна, поэтому имеет следующее представление для струк- турной функции: W W ? Ф = II Ф = 1 — П (8-15> j=i j=i Аналогично, j-му минимальному сечению ©j поставим в соответст- вие заданную на пространстве Vn бинарную переменную °j(z) = II z,‘ (8-18> ie<Sj Функция <jj(z) принимает значение 0 тогда и только тогда, когда все элементы сечения <Sj неработоспособны. Поэтому oj называется параллельной структурой j-ro минимального сечения. Система от- казывает тогда и только тогда, когда, по крайней мере, одна из параллельных структур минимального сечения имеет значение 0. Отсюда S ?(Z) = n°j(£)- (8-17) j=i Раскрывая полностью произведения в выражениях (8.15) или (8.17), получаем линейную форму <рь(г) структурной функции (см. выражение (8.10)). Кроме того, согласно соотношению (8.6) и то- 16* 243
му, что jij и Gj — бинарные переменные, имеем эквивалентные по отношению к (8.15) и ,(8.17) представления <p(z) == max min z^; (8.18) ~ icjcw isQJlj 9(z) = min max zP (8.19) i<j<s ieSj Представление (8.15) структурной функции описывает парал- лельное соединение последовательных структур, в то время как представление (8.17) —последовательное включение параллельных структур. Отсюда получается следствие. Следствие. Функциональное поведение системы можно предста- вить, по крайней мере, с помощью одной схемы надежности (см. определение 2.5). Для того чтобы получить представления (8.15) и (8.17) струк- турной функции, надо знать все пути и сечения монотонной систе- мы. Алгоритмы их нахождения содержатся в [280, 195]. В следу- ющей главе коротко описываются некоторые из этих алгоритмов для монотонных систем специального вида («сетевых структур»). Замечание. Наряду с получением схем надежности существует другая воз- можность наглядного изображения функционального поведения монотонных си- стем— построение так называемых деревьев отказа. Они также требуют опреде- ления всех путей и сечений монотонной системы. Для подробного ознакомления следует обратиться, например, к [281, 31, 195]. Пример 8.5. Рассмотрим такую же структуру, как и в примере 8.4 (рис. 8.2). В соответствии с полученными там минимальными множествами элементов пути {1, 2, 3}, {1, 2, 4}, {1, 5} и {1, 6} имеем четыре последовательные структуры минимальных путей: Jtl=Z’Z2Z3, Jl2 = ZiZ2Z4, Jl3 = ZiZs И Jl4 = ZiZ6. Минимальные множества элементов сечений {!}, {2, 5, 6} и {3, 4, 5, 6} позво- ляют найти три параллельные структуры минимальных сечений: G1=Z1, о2=1 —(l-^-z2) (1—z5) (1—z6), а3= 1— (1—z3) (1__Z4) (i_Z5) (i_Z6). Таким образом, структурная функция имеет вид 4 3 9(£) = П П,(£) = П j=l j=l где z=(zi, z2, ..., z6)eV6. Раскрывая произведение, получим линейную форму фь== z 1Z5—Z ] Zq—[-Z1Z2Z3-I-Z1Z2Z4—Z1Z5Z6—Z1Z2Z3Z4—Z1Z2Z3Z5—Z1Z2Z3Z6— —Z1Z2Z4Z5—Z1Z2Z4Z6-I-Z1Z2Z3Z4Z5-4-Z1 Z2Z3Z5Z6"4“Z 1Z2Z3Z5Z6—Z i Z2Z3Z5Z6— —“Z 1Z2Z3Z4Z5Z5. 244
8.3. коэффициент ГОТОВНОСТИ монотонных СИСТЕМ Различные представления структурных функций не связаны с предположениями о стохастическом поведении отказов элементов. Структурная функция отражает лишь детерминированные зависи- мости между состояниями системы и ее элементов. Но в общем случае, в особенности в прогнозах надежности, известны все же не сами состояния элементов, а только вероятности их появления. Какие утверждения тогда можно сделать относительно вероятно- стей состояний системы? Эта проблема является предметом даль- нейшего изучения. При этом всегда будем предполагать, что эле- менты работают независимо друг от друга. Известная степень за- висимости элементов допускалась в [31]. 8.3.1. ТОЧНОЕ ВЫЧИСЛЕНИЕ КОЭФФИЦИЕНТА ГОТОВНОСТИ Пусть случайная бинарная переменная Zj задает состояние элемента ей P(Z1=l)=E(Zi)=pi, O^pisS 1, P(Zj=O) = l— pi, i=l, 2, ... , n. (8.20) По предположению, элементы работают независимо друг от друга, поэтому компоненты вектора Z= (Zi, Z2, ... , Zn) — взаимно неза- висимые случайные величины. Соответствующее Z случайное со- стояние Zs системы со структурной функцией <р задается в виде Zs=q>(Z), (8.21) где P(Zs=l) =E(<p(Z))=ps, P(Zs=0)=l-ps. Мы называем pi(ps) коэффициентом готовности элемента (систе- мы). В зависимости от того, рассматривается система с восстанов- лением отказавших элементов или без него, возможны две основ- ные интерпретации этих коэффициентов: 1. В системе без восстановления случайный вектор Z относится к фиксированному, но произвольному моменту t после ввода систе- мы в эксплуатацию. Поэтому между случайной наработкой Xi эле- мента ei и величиной Zi имеется взаимосвязь: [ 1, если Xj > t, 2‘ = (0, если Xi<t. 245
В этом случае коэффициенты pi=pi(t) =Fi(t), i=l, 2, ... , и и ps=ps(t) =F(t) являются вероятностями безотказной работы со- ответственно элементов и системы. 2. В системе с восстановлением всех отказавших элементов па- раметры pi и ps означают, в зависимости от подхода, нестационар- ный или стационарный коэффициенты готовности соответственно элементов и системы. Зависимость коэффициентов готовности от времени рассмотрим в разд. 8.5 и 8.6. Следующая теорема свидетельствует, что коэффициент готов- ности системы с независимыми элементами можно получить, заме- няя переменные Zi на коэффициенты готовности pi в дизъюнктив- ной нормальной форме или в линейной форме структурной функ- ции. Теорема 8.3. Пусть структурная функция ср задана в дизъюнк- тивной нормальной или в линейной форме. Тогда Ps = Е(т(2)) = ?(р), (8.22) где р = (рь р2, ... , рп). Доказательство. Достаточно доказать первую часть теоремы, так как утверждение для линейной формы <p=q)L очевидно. Из-за независимости ве- личин Zi ₽s= e(td(£))= 2 Ну) e/ J] zpG —zi У‘ j= .У ==vn '1 =1 n = 2 ну)ПE(zp(i-zi)1-yi). _yevn 1=1 где y=(yi... yn). Для yi=0 имеет место равенство E(Zi°(l—Zi),-0)=E(l— —Zi)=l—р(> а для yt=l — равенство EfZi’O—Zt)°) =E(Zi) =pi. Отсюда Ps = 2 ? П р1У* (* — р1)1-У| = fD (₽)• _yevn i=i Согласно этой теореме коэффициент готовности системы одно- значно выражается через коэффициент готовности своих элемен- тов. Тогда можно записать ps как функцию от р= (рь р2, ... , рп): Ps = E(?(Z)) = h(Pi, ра.. pn) = h(p). Это обозначение укоренилось в литературе по теории надежности, и мы также будем им в дальнейшем пользоваться. Согласно за- писи (8.8) и предположенной независимости состояний элементов 246
Рис. 8.3. Последовательные структуры минимальных путей и параллельные струк- туры минимальных сечений для мостиковой схемы после очевидной модификации выражения (8.7) имеем h(p) = Pih((li( р)) + (1-Pz)h((Oi, р)). (8.23) Пример 8.6. Рассмотрим мостиковую схему рис. 8.1. Минимальными множе- ствами элементов пути и сечения являются соответственно {1, 4}, {2, 5}; {1, 3, 5}, {2, 3, 4} и {1, 2}, {4, 5}, {1, 3, 5}, {2, 3, 4}. Отсюда получается четыре последовательных структуры минимальных путей л/ и четыре минимальных се- чения ар Л1—Z1Z4, JT2 — Z2Z5, Л3 ZjZ3Z5> Л4 Z2Z3Z4, oI = l-(l-z1)(l-z2), а2=1—(1—z4) (1—z5), оз= l-(l-zi) (l-z3) (l-z5), o4= 1-(1-z2) (I-Z3) (I-Z4). На рис. 8.3 снова воспроизведена исходная схема надежности, а также приведены схемы надежности, основанные на последова- тельных (параллельных) структурах минимальных путей (сече- ний). Раскрывая произведения в выражениях (8.15) и (8.17), по- лучаем линейную форму ф2 = ZiZ4-f-Z2Z54_ZiZ3Z5-{-Z2Z3Z4—Z1Z2Z3Z4— Z1Z2Z3Z5 Z1Z2Z4Z5 Z1Z3Z4Z5 Z2Z3Z4Z5 I 4-2Z1Z2Z3Z4Z5, 247
где z=(zb Z2,Z5) eVs. Отсюда по теореме 8.3 коэффициент го- товности системы PS = P1P4+P2P5 + P1P3P5+P2P3P4 — —Р1 Р2Рзр4““Р1 РгРзРб—Р1 Р2р4р5— —Р1РзР4Рб—р2РзР4рб + 2р1Р2рЗр4Р5- 8.3.2. ПРИБЛИЖЕННОЕ ВЫЧИСЛЕНИЕ КОЭФФИЦИЕНТА ГОТОВНОСТИ Если известны коэффициенты готовности элементов, то на ос- нове теоремы 8.3 можно вычислить точное значение коэффициента готовности системы. Однако применение этой теоремы к систе- мам, состоящим из очень большого числа элементов и имеющим сложные структуры, невозможно или неоправданно трудоемко, даже если использовать современную вычислительную технику. (В следующей главе мы ближе соприкоснемся с этой проблемой). Поэтому большое значение приобретает метод приближенного вы- числения коэффициента готовности системы. 8.3.2.1. МЕТОД ВКЛЮЧЕНИЯ-ИСКЛЮЧЕНИЯ Пусть {Ai, А2,..., Ат}—произвольные конечные множества случайных событий, A=AiUA2|J — UAm и для всех к=1, 2,..., ш Рк= 2 Р(АьПАьП-П\). Тогда принцип включения-исключения означает (см., например, [66]), что Р(А)^Рь P(A)>Pi-P2, (8.24) Р(А)<Р1-Р2+Р3, Р(А)^Р,-Р2+Р3-Р4 и справедливо равенство m P(A) = S (—l)k~* pk- (8.25) k=l Верхние и нижние оценки, полученные по схеме (8.24), сходятся (не обязательно монотонно) к Р(А). Будем вначале идентифицировать Aj как случайное событие «последовательная структура j-ro минимального пути jtj работа- 248
ет». Тогда согласно выражению (8.14) P(Aj) = П Pi. J = 2,..., w, iesoij и если положить m=w, то Р(А) есть коэффициент готовности си- стемы: Ps = h(pb р2,...,рп)=Р(А). Пусть теперь Aj — случайное событие «параллельная структу- ра j-ro минимального пути Oj не работает». Тогда согласно выра- жению (8.16) P(Aj)= П (1 - Pi), j = 1. 2,..., s, и если положить m=s, то 1 — Р(А) означает коэффициент готов- ности системы. Преимущество такой интерпретации события Aj для нахожде- ния оценок по методу (8.2) в том, что надо определять, столько минимальных путей и сечений, сколько их необходимо для желае- мой точности оценки коэффициента готовности системы. 8.3.2.2. ОЦЕНКИ С помощью определенных по формуле (8.20) случайных пере- менных Zi из неравенства (8.13) получаем п п П^<?(А. z2......zn)<n^. i=l i=l Переходя к математическим ожиданиям, имеем простые оценки для коэффициента готовности системы: п и П Pi<Ps<II Pi- (8-26) i=l 1=1 Отсюда коэффициент готовности произвольной монотонной систе- мы с заданным числом элементов и заданными коэффициентами готовности элементов всегда больше (меньше), чем коэффициент готовности последовательной (параллельной) системы. Более точные оценки для коэффициента готовности системы можно получить из представлений (8.18) и (8.19), поскольку из них для всех j = 1, 2,..., w и всех k= 1, 2,..., s min Z1<?(Z)<maxZi. leafy iesk 249
Переход к математическим ожиданиям с учетом представлений (8.4) и (8.5) дает П Pi < Ps II Pi* (8-27)’ ieSDij ie@k Взятие максимума (минимума) в левой (правой) части приводит к искомой оценке max ТТ р.<р_< min ТТ рР (8.28} 1—io w к—1.2. s ***•*• 1 .. iesuij ... iesk Очевидно, для всех j = l, 2,..., w и всех к=1, 2,..., s всегда Пр.< П pi и ц р^Црп «=1 ieaJij ie@k »=i так что оценки (8.28) всегда точнее, чем «тривиальные» оценки (8.26). Другие оценки для ps получаются при подстановке в выраже- ниях (8.15) и (8.17) вместо переменных Zi коэффициентов готов- пости pi. Если обозначить МР)=П П Pi и гф(р) ^Ц J] Pi- ь=1 iesk j=i iesaij (8.29) то справедливы оценки [31] l(p(P)<Ps<r9(P)* (8.30) Легко построить примеры, которые показывают, что 1ф(р) (г<р(р)) не обязательно являются более точными нижними (верхними) границами, чем п / п \ П Pi III pi • i=l \ i=l / Уточнение оценок (8.28) и (8.30) можно получить их соедине- нием: шахрДр), шах П Pi! <Ps <min К (Р). min И Pit I " '<^1^ / i<k<4egk J Пример 8.7 [266]. Рассмотрим систему с приведенной на рис. 8.4 схемой на- дежности. Пусть каждый из десяти элементов имеет одинаковый коэффициент готовности р, 0<р<1. На рис. 8.5 показана зависимость величин 1ф, гф и р& от р. Оказывается, что для «маленьких» р верхняя граница гф для ps дает луч- шее приближение, чем нижняя граница 1ф, и наоборот для «больших» р. (Вооб- 250
1 Рис. 8.4. Схема надежности монотон- ной системы (пример 8.7) Рис. 8.5. Зависимость коэффициента готовности ps системы, а также его нижней (1ф) и верхней (г^) оценок от коэффициента готовности элемен- тов (пример 8.7) ще, исходя из накопленного к настоящему времени опыта можно предположить, что при достаточно малых (больших) коэффициентах готовности элементов верх- няя (нижняя) граница гф(р) (1ф(р)) предпочтительнее в качестве аппроксимации для коэффициента готовности системы.) 8.4. МОДУЛИ МОНОТОННЫХ СИСТЕМ Устройство технических систем таково, что часто отказывают более или менее «замкнутые» части этих систем. Если подсистема так включена в технологическую схему, что сведения о ее состоя* нии в целом дают такую же информацию о состоянии системы, какую и знание всех состояний подсистемы, то последнюю назы- вают модулем. Для анализа надежности системы, содержащей модули, рекомендуется следующий принципиальный подход. Вна- чале охватываются все модули системы и вычисляются их коэф- фициенты готовности. После этого система структурно упрощает- ся за счет того, что модули вхо- дят в схему надежности как эле- менты (с известными коэффици- ентами готовности). Коэффици- ент готовности упрощенной си- стемы исследуется подходящими методами. Разумеется, модуль также мо- жет содержать подмодули, так что описанный прием вычисления коэффициента готовности систе- мы может состоять более чем из двух этапов. При известных Рис. 8.6. Монотонная система из трех модулей (пример 8.8) 251
условиях, в зависимости от структуры системы и особенно от чис- ла и объема модулей и подмодулей, проводить вычисления с по- мощью этого метода значительно удобнее, нежели рассматривать все состояния. Особенно наглядно это проявляется при вычисле- нии соответствующих множеств элементов пути и сечения, по- скольку, как показывает опыт, их мощность растет, экспоненци- ально с ростом числа элементов системы. На рис. 8.6 показана схема надежности системы, из которой видно разбиение на мо- дули. Для того чтобы дать формальное определение модуля, отвеча- ющее наглядной интерпретации, используем некоторые обозначе- ния. Будем характеризовать монотонную систему более точно — с помощью пары (Е, <р), где E={ei, е2,....еп} — множество эле- ментов, а <р — структурная функция системы. (До сих пор для задания системы было достаточно указать структурную функ- цию.) Пусть, кроме того, Ei<E, где множество Ei содержит Пь Isgjni^n элементов. Пусть также ф и х— структурные функции систем, имеющих порядок соответственно и—ni-j-1 и гц. Определение 8.5. Монотонная система (Ei, у) называется модулем системы (Е, ф), если <?(z) = Ф(х(г(,)), z_<2;), где z_=(Zi, z2,..., zn)£Vn, z9 = {Zj:ei}eVni; z<2> = {zi:eiGE\E1}eVn_ni. Само собой разумеется, что каждый элемент ei является хотя и тривиальным, но модулем системы. Это толкование позволяет полностью разложить монотонную систему на модули в смысле следующего определения. Определение 8.6. Множество модулей (Еь Xi), (Е2, %г), ... .... (Ег, %г) называется модульной декомпозицией монотонной си- стемы (Е, ф), если выполняются условия а) Е = (J Ek, E1QEj=0 для i^=j; k=l б) <р(г) = ф(Х1(г(*)), х2(z<2)),..., Xr(z(r’)), где z = {Zi}GVn и z(k) = {zi:eiGEk}GVnk, k = 1, 2,..., г. Здесь ф— монотонная структурная функция порядка г, а хи мо- нотонная структурная функция порядка пк. Мы уже указывали на преимущество вычисления точных зна- чений коэффициента готовности системы на основе модульной де- композиции (если существует таковая нетривиальная). Целесооб- 252
разно также вычислять нижнюю границу 1ф для коэффициента го- товности системы ps по формуле (8.29), используя возможно бо- лее «грубую» модульную декомпозицию системы [63]. Пример 8.8. Рассмотрим систему, схема надежности которой изображена на рис. 8.6. Модульная декомпозиция задается с помощью пар (Ei, %i), i=l, 2, 3, где Ei={eb е2, ...» е5}, Е2={еб, е7}, Е3={е8, е9} и с помощью структурных функ- ций * X1(Z1, Z2, . . ., Z5)=Z3(Z1 z2)+(l—Z3) (Z1Z4^ z2z5), X2(z6, Z7)=ZfJ£Z7, Хз(г8, z9)=z, j£z9 (Xi — структурная функция мостиковой схемы, проанализированной в приме- ре 8.2). Огрубление этой модульной декомпозиции возможно путем объединения пар (Е2, %2) и (Е3, %3) в один модуль (Е2, %2). Поэтому наиболее целесообразно вычислять коэффициент готовности системы следующим образом. Вначале вы- числяются коэффициенты готовности (под) модулей (Е2, %2) и (Е3, %3), а затем коэффициент готовности модуля (Е2, %2), который представляет собой парал- лельное включение пар (Е2, %2) и (Е3, %3). Отсюда X2(z6, z7, z8, z9)=x2(z6, z7)j£%3(z8, г9).Вся система окончательно получается последовательным соединением пар (Еь %i) и (Е2, Х2). Ее структурная функция поэтому имеет вид <P(z)=Xi(zi, z2, ..., z5)X2(z6, z7, z8, z9), где z={zi}(=V9. В частности, ps = P(<p(z)=l)=P(Z1=l)Pte=l). 8.5. ВАЖНОСТЬ ЭЛЕМЕНТОВ Поведение системы с точки зрения отказов, вообще говоря, в разной степени зависит от разных элементов. Умение количест- венно описать это явление имеет особое значение для исследова- теля надежности. Соответствующее понятие носит название важ- ности элемента. При этом можно интересоваться важностью эле- мента, ставя различные вопросы, например: 1. Как изменяется коэффициент готовности системы при изме- нении коэффициента готовности отдельного элемента? 2. Какие элементы с наибольшей вероятностью влияют на от- каз системы? 3. Какие элементы с наибольшей вероятностью отказывают при отказе системы? Критерии, позволяющие отвечать на эти вопросы, можно зада- вать исходя из некоторых понятий важности, предложенных в 1 Здесь — обозначения для оператора ц, примененного к двум перемен- ным: х J^y=l—(1—х) (1—у)—Прим. ред. 253
[59, 29, 353] (см. также [138, 203], которые будем обсуждать в дальнейшем). Понятия важности содержатся и в [203, 255, ДЗ]. В [59] важность элемента оценивается тем, во сколько раз увеличивается коэффициент готовности системы при увеличении коэффициента готовности элемента. Это приводит к следующему определению. Определение 8.7. Важность по Бирнбауму (сокращенно В-важ- ность 1В (i)) элемента ei определяется как 1в(7, p)=<5h(p)/dPi. (8.31) В-важность не зависит от pi, а зависит только от pj для всех j=H=i и удовлетворяет неравенствам 0^IB(i)^l. В-важность эле- ментов является мерой их различного влияния на коэффициент готовности системы. Для доказательства этого положения рас- смотрим коэффициенты готовности элементов, зависящие от вре- мени: pi=pi(t), i=l, 2,...,и. Тогда по правилу дифференцирова- ния сложной функции dh(P(t)) _ Д dh(P(Q) dp.(t) dt Zj dPj(t) dt я at dt i=l где p(t) = (pi(t), p2(t), ...,pn(t) и ps(t) =h(p(t)). Таким образом •скорость роста коэффициента готовности системы представляется как взвешенная сумма скоростей роста коэффициентов готовности элементов, причем в качестве весов как раз выступают В-важно- •сти соответствующих элементов. Согласно выражениям (8.8) и (8.23) 1в(0 = Ь((1„ p))-h((Ob р)), а также IB(i) = P(<p(l1, г)-¥(0ь Z) = 1), (8.32) что является эквивалентным определением В-важности элемента «1. Отсюда можно интерпретировать IB(i, р (t)) как вероятность того, что в момент t элемент ei находится в критическом состоя- нии, т. е. его отказ в этот момент приведет непосредственно к от- казу системы. 254
Пример 8.9. Без ограничения общности примем, что pi^p2^ • • • ^рп. а. Для последовательной системы h (р)=П Pi 1=1 и, следовательно, п 1В(О=ПрР 1в(1)>1в(2)>...>1в(п). j=l j^l Поэтому элемент с наименьшим коэффициентом готовности имеет наибольшее влияние на коэффициент готовности системы («где тонко, там и рвется»). б. Для параллельной системы п h(p) = n pi. 1=1 поэтому n 4(0 = П (1 - Pj). 4(0 <4(2) < • • • < 44). j=l j¥= 1 Отсюда следует, что элемент с наибольшим коэффициентом готовности имеет самое большое значение коэффициента готовности системы. (Это соответствует тому, что параллельная система работоспособна, пока работает хотя бы один иэ ее элементов.) в. Коэффициент готовности системы со структурной функцией <p(z) = =Zi(z2j^z3) (рис. 8.7) задается в виде Ь(р)=р1р2+р1рз—Р1р2рз- Отсюда В-важности элементов определяются как 1в(1) =Р2-|-рз—р2рз, 1в(2)=р1—pips, 1в(3)=pi—pip2- Можно ожидать, что наибольшую важность имеет элемент еь Это всегда так при pi^pi, i=2, 3. Если же pi<pi, то элемент ei имеет наибольшую важность, лишь в случае выполнения неравенств Рз4~р2/(1—Рг)>Рь р24~Рз/(1—рз)>рь Последние неравенства не выполняются, если параметры р2 и рз достаточно малы. Но тогда коэффициент готовности параллельной системы, составленной из элементов е2 и е3, по-существу, определяется одним элементом. На рис. 8.8* изображена зависимость от времени В-влажности элементов ei и е2 (или ез) для pi=exp (— 10“Ч), рг=р3=ехр (— 10~3t). Чтобы вычислить В-важность, надо задать как структуру си- стемы, так и коэффициенты готовности элементов. Часто, однако,. 255»
важность Рис. 8.7. Схема надежности монотонной системы (при- меры 8.9,в, 8.10,6, 8.11,в) Рис. 8.8. В-, BF- и VF-важ- ности элементов монотонной системы . (пример 8.9,в; 8,11,в; 8.13,в) коэффициенты готовности системы неизвестны, например в стадии развития системы. В этом случае необходимо иметь критерий важности, выраженный только в терминах структуры. Определение 8.8. Структурная В-важность SB(i) элемента ei равна IB(i, р), если положить pj=l/2 для всех j=#i. Из выражения (8.32) для структурной В-важности получаем представление SB(i) = 2~<n-1)n(i), n(i) = Е (<F(li. z)-?(0„ z)), (8.33) (i,.z) где n(i)—число критических векторов пути для элемента ei. Определение 8.9. Вектор (h, z) называется критическим век- тором пути для элемента ei, если <p(li, z) и <р (0i, z)=0. Таким образом, представление SB(i) в точности равняется до- ле критических векторов пути для элемента ei среди общего коли- чества 2П-1 векторов состояний. Пример 8.10. а. Рассмотрим систему «к из п». Для каждого элемента имеется ровно / п___14 критических векторов пути, поэтому из соотношения (8.3) получаем sB(i)=2-<"-o(nkz;). В частности, отсюда следует, что для последовательной, как и для параллель- ной, системы SB(i) =2-<п“1>. Этот на первый взгляд неожиданный результат получается, если для всех j#=i положить коэффициенты готовности pj=l/2. б. Определим с помощью представления (8.33) структурные В-важности для системы, схема надежности которой изображена на рис. 8.7. Очевидно, SB(1)= 256
=2-2* 3=3/4, поскольку для четырех векторов состояний (1, 0, 0), (1, 0, 1), (1, 1, 0) и (1, 1, 1) векторы (1,0, 1), (1, 1, 0) и (1, 1, 1) являются критически- ми векторами пути для элемента еь Напротив, SB(2) =2~2-1 = 1/4, так как для четырех векторов состояний (0, 1, 0), (0, 1, 1), (1, 1, 0) и (1, 1, 1) имеется только один критический вектор для элемента е2, а именно, (1, 1, 0). С учетом симметрии SB(3)=1 /4. Теперь рассмотрим систему без восстановления и положим по- этому pi = Fi(t) для 1=1,..., п. В дальнейшем будем предпола- гать, что распределения наработки Fi(t) имеют плотности fi(t). Момент отказа совпадает с моментом отказа определенного эле- мента. Наша задача определить тот элемент, который является наиболее вероятной причиной отказа системы. Вероятность того, что система в момент t находится в состоянии отказа, если отка- зал элемент еь определяется как P(?(l„ Z(t)) = 1) = h(1Н F(t)) —h(0l( F(t)), где F (t) = (Fi (t), F2(t),..., Fn (t)). Вероятность того, что эле- мент ei является причиной отказа системы на интервале (t, t-j- +dt] (h(lb F(t)) —h(0i( F(t))dFi(t), где dFi(t) =fj(t)dt. Таким образом, t f(h(lb F(u))-h(0„ F(u)))dFj(u) о есть вероятность того, что элемент ei вызывает отказ системы на интервале (0, t]. _ Определение 8.10. Важность по Барлоу — Прошану IB(i, F (t)) (сокращенно ВР-важность) элемента ej для системы без восста- новления задается следующим образом: t JlB(i, F(U))dF.(u) Ibp(i> F (t)) = ‘ (8‘34) 3 рвО. F(u))aFj(u) j=i о Очевидно, IbpG, F(t)) есть вероятность того, что отказ систе- мы, произошедший на интервале (0, t], был вызван элементом еь Часто ВР-важность определяется не выражением (8.34), а пре- делом Ibp (i) = lim Ibp(i, F(I))- t->00 17—6301 257
С учетом соотношения n t l-h(F(t))=3jlB(j,F(u))dFJ(u) j=l о имеет место равенство Ibp (0 = J 1в (i, F (u)) dF, (и). (8.35) О Отсюда Ibp (i) можно интерпретировать как вероятность того, что элемент ei вызвал отказ системы. ВР-важность обладает свойст- вами О Ibp (i) < 1 и 2 Ьр (0 = 1 • i=i Пример 8.11. Пусть Fj(t) = e~ait для 1 = 1, ...» п. а. Для последовательной системы j=i б. Для параллельной системы +2 (“1 + 5* + ak) 1 -• +Г(~ Оп Ч'ЬЧ- ••• + an) 1 )• J<k j, W=i в. Для системы из примера 8.9, в согласно тому, что р. = е _ - /1 — e"Plt , 1—-e“P2t 1— e“p,t I№(1. F (t)) = (1 - h (F (t)))~i a, ( — -H---- —- — —\ ri г» га _ - /1—e'’p,t 1—е_р«‘ IBP(2. F_(t)) = (l-h(F(t)))-ia, ------------------ _ - /1—e-Plt 1—e~p,t\ IBP(3, F (t)) = (1 - h (F(t)))-4 -----------------J где Pl=Cti-}-<12> PsF'Ofj'Os» Рз=О1”|_®2_Ьоз и h (F (t)) = e~p,t + e_p,t — e~p,t. 258
Отсюда для /~>оо получаем 1вр(1)=а1(р1-1-|-р2~1-(-рз"’1), 1вр (2) =а2 (pi-1—рз-1), 1вр (3) = «з(р2-1—рз-1). Зависимость ВР-важности элементов ei и е2 (или е3) для ai=10“4, a2=a3= = 10~2 3 показана на рис. 8.8. Если для п положим Fi(t)=p, то из выражения (8.35) получим структурную ВР-важность SBP(i) = J(h((lb p))-h((Ob p)))dp. (8.36) d Поскольку 1 Sz n-l-jz Sep(i) = J ЗМПь Z)) — ®((0b z)))pM1 (1 —p) dp = 0 Z = J S Пг (i) pr-‘ (1 — p)n-r dp = 2 nr (i) -—1)^n f--!, 0 r=l r=l структурную ВР-важность можно вычислить по формуле п SBp(i)=Tsc;r'"'0' (8-з7) г=1 где nr(i)= s (т((1|. z)) —Т((0,. z))) о-5,-г'-} есть число критических векторов пути порядка г для элемента еь п Кроме того, n (i) = 2 nr (i). r=l Пример 8.12. а. Для системы «к из п» h(p) является симметрической функцией от коэф- фициента готовности p=pi= ... =рп. Поэтому структурные ВР-важности SBp(i) одинаковы для всех элементов. Из условия SBp(i) = l/n получаем 2 SBP(i) = 1. 1=1 б. Пусть определяются структурные ВР-важности для системы со структур- ной функцией <p(z)=zi(z2 2$ z3) (см. рис. 8.7). Легко проверить, что П1(1)=0 п2(1)=2, п3(1) = 1, и поэтому Sbp(1)=2/3. Итак, для элемента е2 имеется только один критический вектор пути, а именно, (1, 1, 0), который имеет поря- док 2. Следовательно, SBp(2) = l/6. Из соображений симметрии Sbp(3) = 1/6. 17ш 259
Рассмотрим теперь систему с восстановлением и положим pi— =Ai=p,i/(p,i+vi) для i=l,..., и, причем pi и Vi — соответственно средние наработка и время восстановления элемента ei. Кроме то- го, А= (Ai, А2)Ап). Определение 8.11. ВР-важность Ibp (i, А) элемента е, для си- стемы с восстановлением определяется как IBP(i, А) = <-«„ Л)>-Ь((о,. А>»((., + >,)- (8 38) 3 (»((!,. А» - Ь((0,. А)))(|.,+ J-1 ВР-важность 1Вр (i, А) можно интерпретировать как стационар- ную вероятность того, что отказ системы, произошедший в опре- деленный момент, был вызван элементом еь Определение зависи- мой от времени ВР-важности элементов для систем с восстановле- нием имеется в [29]. При отказе системы могут выйти из строя элементы многих минимальных сечений. Это означает, что после восстановления од- ного произвольного отказавшего элемента система не обязательно должна вновь работать. Если, например, {3, 4, 5} и {4, 5, 6} — ми- нимальные множества элементов сечений и элементы отказали в последовательности 3, 4, 6, 5 (при этом элемент eg должен был обусловить отказ системы), то, очевидно, работоспособность си- стемы не восстановится после восстановления одного только эле- мента ез или е6. Другими словами, вполне возможно, что элемент ei не вызвал отказ системы, но сам был частью отказа, т. е. отка- зали все элементы, по крайней мере, одного такого минимального сечения, которое содержит элемент ер Вероятность этого события задается следующим образом: / N' \ 1—hi(p) = P(<Pi(z) = 0) = E( 1— Ц П ZA " \ j=ik€=®, ' is®, где Ni означает число тех минимальных сечений, которые содер- жат элемент ei, а величины ЬДр) определены в правой части это- го уравнения. Определение 8.12. Важность по Веселы — Фасселу Ivf (i, р) (сокращенно VF-важность) элемента ei определяется как Ivf (i, р) = (1 — h, (р))/(1 - h (р)). (8.39) Таким образом, Ivp(i) равна условной вероятности того, что элемент ei является одним из отказавших элементов при условии, что система отказала. VF-важность характеризует те элементы системы, которые чаще всего участвуют в отказах системы. Оче- видно, O^IvfQ) ^1. 260
Пример 8.13. а. Для последовательной системы IvF(i) = (l-Pi) /( 1-П Pj )• / \ j=l / б. Для параллельной системы IvF(i)=l. в. Для системы со структурной функцией <p(z) =zi(z2 z3) ivf(1) — 1 _ h (p) > !vf(2) = !vf(3) = ' 1 —h(p) » где h(p)=p1p24-pip3—p,p2p3. На рис. 8.8 изображена зависимость от времени В-, ВР- и VF-важностей элементов системы в предположении, что р1==ехр (—10~4t) и рг=рз= = ехр (—10“3t). Этот рисунок показывает, что для достаточно малых t (t<l 10) элемент ei важнее, чем элементы е2 и е3, в то время как для достаточно боль- ших t (t> 1040) элементы е2 и е3 становятся важнее, чем элемент eb Видно, однако, что моменты, в которые элементы е2 и е3 становятся важнее, чем эле- мент еь сильно отличаются для различных мер важности, т. е. количественно разные меры важности не всегда совпадают. Системный исследователь должен поэтому определить, какую информацию о системе он хочет собрать, а затем выбрать подходящую меру важности. По аналогии со структурной В-важностью вводится определе- ние структурной VF-важности Svf (i) = Ivf (i, p)|P1=...=pn= i/2. (8.40) Применяя введенную структурную меру важности к системе с высоконадежными элементами, можно впасть в заблуждение от- носительно истинной значимости элементов. В [76] поэтому вве- дена другая структурная мера важности, которая прежде всего ориентирована на системы с высоконадежными элементами. Для определения этой меры дадим обозначения. Пусть система состо- ит из п элементов и имеет s минимальных сечений. Тогда dJm (г= = 1,...,s; m=l,...,п) означает число объединений г различных множеств, причем каждое объединение должно содержать эле- мент ei и ровно m—1 других элементов. Пусть, кроме того, b(i) = =bi<i),..., bn(i)) — вектор с компонентами s ь4°= т=1...... п. Г—1 Вектор Ь()) лексикографически больше вектора b(k), если >bi<k> в случае l=min{m: bm(1)#=bm(k>}. Тогда пишут b(,)>»b<k). 261
Рис. 8.9. Схема надежности монотон- ной системы (пример 8.14) Определение 8.13. Элемент ei важнее элемента ек относитель- но сечений, что записывается в виде Sbu (i) х* Sbu (к), если b(i).>*b(k). Элементы ei и ек одинаково важны относительно сечений (записываем SBu(i) =SBu(k)), если b(i) = b(k). Величина SBu(i) называется важностью по Батлеру. В предположении pi= ... ==рп=р в [76] доказано соотношение п IB(i, Р)= Sb^d-pf'1. (8.41) П1=1 Таким образом, мы получили следующее утверждение. Теорема 8.4 Если коэффициент готовности р достаточно близок к единице, то IB(i, p)>IB(k, р), тогда и только тогда, когда SBU (i).> Sbu (k). Следовательно, для системы с высоконадежными одинаковы- ми элементами их порядок относительно структурной важности по Батлеру совпадает с порядком относительно важности по Бирн- бауму. Это свойство имеет особое значение потому, что структур- ные меры важности по Бирнбауму и по Барлоу—Прошану не всегда позволяют упорядочить элементы соответствующим обра- зом и поэтому могут неверно оценивать фактическую их важность для системы с высоконадежными элементами. Приведем один пример [75, 76]. Пример 8.14. Система, схема надежности которой изображена на рис. 8.9, имеет следующие минимальные сечения: ©! = {1, 5}, @2= {2, 3}, ©з={2, 6}, ©4= {4, 5, 6}, ©5=={3, 4, 5}, ©6={Ь 2}. Отсюда ь(р)= п ₽t+ II pi+ П р1- П р1- 4} 6} 1е{2-5} «Е{1,2. 3. 4, 6} - П pi- П pi+ П р«- 1е{Ь2, 4, 5} ie(l, 2, 3, 5, 6} i£{l,2, 3, 4, 5,6} В предположении pi=p для i=l, п получаем 1в (4) < 1в (6)=1в (3) < 1в (1), 1в (5) < 1в (2), 262
где 1в(5)>1в(1) тогда и только тогда, когда р<(— 1-(-/5)/2^0,618. При этом SB (4) < SB (6) = SB (3) < SB (1) < SB (5) < SB (2), Sbp(4) <Sbp(6)=Sbp(3) <Sbp(1) <Sbp(5) <Sbp(2). Упорядочим теперь элементы по важности относительно сечений. Для этого вначале необходимо определить все положительные числа Как легко проверить, для i=l dO>=2, d<’) = 3, d<V = 4, d<P = 2, d<P=3, d(l> = 8) d(D _ 5> d(l) = 3, d(i) = 11>d(.) = 6> <&) = !. Отсюда получаем bf> = 0, b<1) = d(|) = 2> b<’>= -dO)= -3, bV> = - 4P + <&> = -1. b£> = - <) + d<>) _ . 3, b£’> = d<>)-dSP + d«)-d<P= -i, и, следовательно, b(!)= (0, 2, —3, —1, 3, —1). Аналогично можно показать, что b<2)=(0, 3, —4, —1, 3, —1) b<3>=(0, 1, —1, —2, 3, —1), b<4>=(0, 0, 2, —5, 4, —1), b<S)=(0, 1, 1, —5, 4, —1), b<«>=(0, 1, —1, —2, 3, —1) Теперь без труда убеждаемся, что b(«) ЬС) = Ь(3) Ь(®) < Ь(‘) < Ь_(2). т. е. элементы можно упорядочить по структурной важности относительно се- чений SBu(4) < SBu(6) == SBu(3) < SBu(5) < SBu( 1) < SBu(2). При этом видно, что элемент ei важнее относительно сечений, чем элемент е5. Напротив, относительно структурной важности по Бирнбауму и по Барлоу-Про- шану элемент es структурно важнее чем элемент еь Однако для р>(—1-(-У5)/2 1в(1)>1в(5). В этом случае структурные меры влажности по Бирнбауму и по Барлоу-Прошану дают «неверное» упорядочивание, в то время как структурная важность по Батлеру всегда «верно» упорядочивает элементы. Получение всех компонентов векторов b(i) для системы со мно- гими минимальными сечениями, очевидно, сложно с вычислитель- ной точки зрения, а иногда даже невозможно. Но во многих слу- чаях для полного упорядочивания элементов по важности относи- 263
тельно сечений достаточно определить лишь некоторые компонен- ты векторов b(i). В следующей теореме приведены легко проверяе- мые условия, которые позволяют произвести неполное упорядочи- вание элементов по важности 5ви(1)[76]. Теорема 8.5. Пусть для каждого элемента ei а1=тт{|©]| : есть число элементов в наименьшем минимальном сечении, содер- жащем элемент ei, а Ci=|{j :ei6E©j, |©j|=ai}| — число таких наименьших сечений. (|©| означает мощность мно- жества ©.) Тогда а) из неравенства ai<ak следует неравенство SBu (i).> SBu (k); б) из равенства ai=ak и неравенства ct>Ck следует неравен- ство SBu (i) >SBu(k). Доказательство. По определению q = djj) Объединение нескольких мини- мальных сечений, из которых, по крайней мере, одно содержит элемент еь долж- но содержать не менее ar|-1 элементов, поэтому d^ =0 для всех г^2. Отсюда получаем s Ь<? = 2 (- 1 )Г~1<‘а)1 = сь (8-42) г=1 Более того, для всех т<а имеем d£m=0, поскольку элемент ei не может нахо- диться ни в одном из минимальных сечений, содержащем менее ai элементов. Следовательно, для всех m<ai справедливы равенства b<j)=0 и ai=min {m : bm(i)=0} Утверждения а) и б) следуют теперь из выражений (8.42) и (8.43). Пример 8.15. Для системы из примера 8.14 для 1=3, 5, 6, для i = 1, 4, для i = 2. Отсюда SBu(4) < SBu(5), SBu(6) < SBu(l) < SBu(2). Кроме того, из соображений симметрии SBu(3) = SBU(6). Тогда ясно, что для пол- ного упорядочивания элементов требуются дополнительные вычисления лишь для сравнения важностей е3 и е5. Но для этого, в свою очередь, достаточно вычис- лить Ь3<3> и Ьз(5>, поскольку при сравнении важностей остальные три компонента векторов Ь(3) и Ь(5) не представляют интереса. То же самое справедливо и для трех последних компонентов всех остальных векторов. 264 13 для 1 = 4 I а.- = < , , с.* = 1 2 12 для i ф 4 |
В дальнейшем предполагаем, что коэффициент готовности р = | =р(t) зависит от общего параметра t, t^O. При этом параметр t может быть, например, временем, прошедшим с начала работы системы. Кроме того, потребуем для всех te(0, оо), чтобы 0< <Pi(t)<l и для i=l,...,n lim pi(t) = l. । Относительно системы, для которой pf(t)^p(t) утверждение, аналогичное теореме 8.4, невозможно. Однако справедлива сле- дующая теорема. Теорема 8.6 [76]. Пусть существуют действительные числа mi, m2 такие, что 0<m2^mi для достаточно малого t^O: 1 1—Pi(t) j=l,..., n, (8.44) ! и пусть справедливо условие a) ai<ak или б) ai = ak и Ci/ck> | Xmi/m2)ai Тогда существует to>O такое, что 1в (i, _рО))Хв(к, p(t)) для всех t<t0. В частном случае Pj(t) = = ехр (—at) выполняется условие (8.44), если положить т1 = i J = max а., т2 — тш а j=l,...»n J j=l,...,n r Пример 8.16. Рассмотрим систему из примера 8.14 для pj(t)=exp(—аД). Так как аи<а4 для всех к=0=4, при достаточно малых t справедливо неравенство * 1в(4, p(t))<IB(k, р(t)). Поскольку ai = a6=2, ci/c6=2 и a2=af=2, c2/ci=1,5, при достаточно малых t имеют место неравенства IB И, P(t))>IB(6. P(t)), (8.45) • если max а.<2 min а., и j=i, .... 6 J j=i, ..., 6 J IB(2,^p (t)) > IB(1, P(t)), (8.46) если max [a. <1,5 min a. j=l, . ., 6J j=i....6J* С помощью теоремы 8.6 нельзя сделать заключение о сравнительной важно- сти элементов е3, е5 и еб. На рис. 8.10 изображена зависимость важностей эле- ментов от вероятности отказа системы в предположении pi(l)=exp(—10“31), p2(t)=exp (—10~4t), p3(t) = p6(t) =ехр (—3-10~3t), p4(t)=exp (—2-10-3t), p5(t) = = exp (—5*10-6t). Этот рисунок показывает, в частности, что соотношения (8.45) и (8.46) могут быть выполнены для достаточно малых вероятностей отка- за системы (т. е. достаточно малых t), даже если не выполняются условия тео- ремы 8.6 (здесь maxaj<2minaj или maxaj<l,5 minotj). Для систем с коэффициентами готовности элементов, равны- ми 1 или близкими к ней, упорядочивание согласно важности по Батлеру не совпадает с упорядочиванием согласно важности по Бирнбауму. Оно совпадает с упорядочиванием, которое получает- 265
Рис. 8.10. В-важности элементов монотонной системы (пример 8.16) ся при использовании мер важности, введенных в [ДЗ] и [203]. На простых примерах можно проверить, что упорядочение элемен- тов в соответствии с мерой важности по Батлеру не обязательно совпадает с упорядочиванием по мере важности по Веселы — Фасселу. В [Д1] введено новое понятие структурного упорядочи- вания по важности, которое также использует информацию о структуре системы и упорядочивает элементы системы с высоко- надежными элементами подобно мере важности по Веселы — Фасселу. Замечание. Вычисление важности элементов упрощается, если прибегают к модульной декомпозиции. Более подробно об этом, а также о способах вычис- ления важности модулей и отыскания минимальных сечений можно узнать из уже упомянутых работ. 8.6. НАРАБОТКА МОНОТОННЫХ СИСТЕМ В этом разделе изучаются качественные свойства распределе- ний наработки монотонных систем с невосстанавливаемыми эле- ментами. Затем даются оценки характеристик этих распределе- ний. Следует принимать во внимание зависимость от времени со- стояний системы, определенных согласно соотношениям (8.20) и (8.21): Zi=Zi(t), i=l, 2,n; Zs=Zs (t). 266
Как уже упоминалось в подразд. 8.3.1, соответствующие завися- щие от времени коэффициенты готовности равны вероятностям безотказной работы элементов или системы: pi(t)=Fi(t), i=l, 2,..., n; F(t) = ps(t). Наработка системы X, имеющая распределение F(t), определяет- ся как X=inf{t:Zs(t)=0}. ' (8.47) 8.6.1. КАЧЕСТВЕННЫЕ СВОЙСТВА Нас интересует зависимость, которая существует между типом распределения наработки системы с одной стороны и ее элемен- тов с другой. Прежде всего естественно предположить, что для ВФИ-распределений наработки элементов наработка системы так- же принадлежит классу ВФИ. Однако следующий пример пока- зывает, что сфера действия этого предположения ограничена. По- этому возникает вопрос, каков наименьший класс распределений, удовлетворяющий следующему свойству: если распределения элементов принадлежат этому классу, то и распределение системы принадлежит ему же. В [292] показано, что таким классом как раз является класс ВСФИ. Пример 8.17 [115]. Пусть имеется параллельная система, из двух элементов которой наработки обоих элементов взаимно независимы и распределены экспо- ненциально, Fi(t) = l—i=l, 2. Вероятность безотказной работы систе- мы определяется как F (t) -= e~ait + e-“2t — e-(ai+ a2> а соответствующая интенсивность отказов — как х } = «1e~,Xlt+ ^e~agt —(»1+«2)е~(<х>+агИ е—«it [ e~^2t _ е— (ai + as) t Пусть число to=to(ai, аг) есть однозначное решение уравнения “2e'_a,‘ + ale-a2t = (ai —“г)2- Легко показать, что при интенсивность отказов X(t) для tsdo монотонно возрастает, а для t^t0 — монотонно убывает (см. рис. 8.11). При ai = a2 интен- сивность отказов X(t) есть строго монотонная функция t на интервале [0, оо). Если задана последовательная система с экспоненциально распределенными наработками, Fi(t) = l—е a‘(t), то ее наработ- ка, согласно выражению (2.32), имеет экспоненциальное распре- деление с интенсивностью отказов а=а14-аг+...+ап и функцией распределения F(t) = l—e-at. Если же известно, что наработка системы имеет функцию распределения F(t) = l—e~at, то это не 267
О 2 4 6 8 t Рис. 8.11. Интенсивность от- казов параллельной системы из двух элементов с экспо- ненциально распределенной наработкой (пример 8.17) Рис. 8.12. Постоянная интенсив- ность отказов дублированной сис- темы при непостоянных интенсив- ностях отказов элементов означает, что наработки всех элементов распределены экспонен- циально. На рис. 8.12 приведен соответствующий пример. Он, правда, очень искусственный и едва ли встречается на практике. (Интенсивности отказов M(t) и Хг(1) симметричны относительно прямой у==а/2.) Справедлива, тем не менее, следующая теорема. Теорема 8.7. Пусть наработка последовательной системы рас- пределена экспоненциально с интенсивностью отказов а. Если рас- пределения наработки элементов принадлежат классу ВСФИ и существуют соответствующие интенсивности отказов, то наработ- ки всех элементов распределены экспоненциально. Доказательство. По предположению, п « =2 MV- i=l Отсюда n t -а = — J Kj (u) du для всех t^O. (8.48) i = i о По определению ВСФИ-распределений все слагаемые в выражении (8.48) не убывающие и потому постоянны. Следовательно, должны быть постоянными и все интенсивности отказов Xi(t). Теперь, зная распределения наработок системы и ее элемен- тов, мы хотим сделать заключение о структуре системы. Извест- ные на этот счет результаты выразим в двух утверждениях. Теорема 8.8. [117]. Пусть наработки элементов монотонной си- стемы распределены экспоненциально. В этом случае наработка системы имеет экспоненциальное распределение в том и только том случае, когда эта система является последовательной. 268
Теорема 8.9. [62]. Пусть функции распределения Fi(t) нара- ботки элементов ei монотонной системы принадлежит классу ВСФИ. Если наработка системы распределена экспоненциально, то для вероятности безотказной работы системы F(t) существует представление к _ F(t)= nFij(t), t>0. j=i Здесь ii, i2,ik — натуральные числа, причем 1 ii<i2< ... ... <ik^n, a Fij(t), j=l, 2,..., к — вероятности безотказной рабо- ты элементов ejj с экспоненциально распределенными наработка- ми (Fij(t)=exp(—aijt)). Замечание. Утверждение теоремы 8.9 не выполняется для ВФИ-распределен- ных наработок, так как согласно [115] распределение наработки системы «к из п» с элементами, имеющими одинаково ВФИ-распределенные наработки, так- же принадлежит классу ВФИ. 8.6.2. ОЦЕНКИ Рассмотрим вначале две системы, Si и S2, с элементами еп и e2j, i=l, 2,..., п. Пусть соответствующие наработки Хц имеют функции распределения Fjj. Теорема 8.10. Пусть для всех i справедливо равенство Е(Хц)=Е(Х21) и пусть J Fn (u) du < J F2i (u) du. (8.49) f t Тогда E(minX,I)>E(minXai), (8.50) E (max X,i) < E (max Xgi). (8.51) i Доказательства неравенств элементарны [31]. Замечание. Если речь идет о последовательных и параллельных системах, то математические ожидания в выражениях (8.50) и (8.51) означают средние наработки системы. Предполагая выполненным условие (8.49), дадим критерии выполнимости неравенства f Fx (u) du < J Fa (и) du, t > 0, (8.52) t t 269
где Fi и F2—произвольные функции распределения из параметри- ческих семейств распределений [327] (относительно обозначений см. разд. 3.1). Рассмотрим некоторые важные классы распределений. а. Пусть Fi(t) и Fs(t)—распределения Вейбулла — Гнеденко или гамма-распределения. Равенство (8.25) выполняется, если распределения Fi(t) и Fa(t) имеют одинаковые первые моменты, а параметры формы 01 и 02 удовлетворяют условию Pi^p2. б. Пусть Fi(t) и F2(t) — нормальные или логарифмически нор- мальные распределения с параметрами щ и ц2, а также щ и а2. Для справедливости неравенства (8.52) достаточно условий =СЦ2 И О1^О2. в. Пусть Fi(t) и F2(t)—усеченные относительно нуля нор- мальные распределения с параметрами щ и |л2, а также oi и <т2. Для справедливости неравенства (8.52) достаточно условий щ = = Ц2 И О'] ^<У2- Эквивалентная формулировка теоремы 3.6: условие fF(u)du< fe~u/|J,du, где р. = fp(u)du, (8.53) t <5=) Г о выполняется тогда и только тогда, когда функция распределения F(t) принадлежит классу НСЛИ (НСХИ). Если положить F2i(t) = = 1 — е t/|X1 ( = Fn(t)), то с учетом этого факта и теоремы 8.10 имеет место теорема. Теорема 8.11. Если функции распределения Fi(t) наработок Xi элементов монотонной системы принадлежат классу НСЛИ (НСХИ), то E(minX,)>(2 1/р.Л \ (8.54) Е (max Xi) < Т ( 1 — П (1 — е"^) | dt, (8.55) « (»о \ 1=1 / где p.i=E(Xi). Замечание. Справедливость теорем 8.10 и 8.11, естественно, не связана с интерпретацией величин Хц и Xi как наработок элементов монотонной системы. Из теоремы 8.11 согласно неравенствам (8.13) и соотношению (8.47) для средней наработки монотонной системы, элементы ко- торой имеют НСЛИ-распределенные наработки, получаем / п 1 со / п \ 2 IM <Е (X) <J 1 - П (1 -е-^') dt. \i=l / О' i=l / 270
Если известны минимальные пути и минимальные сечения систе- мы, то эту оценку можно усилить: шах ( У. 1/|».V < E(X)<min f/1- П (1 -e~t/w Л(И 14Ц J (сравните с переходом от выражения (8.27) к выражению (8.28)). 8.7. МНОГОЗНАЧНЫЕ МОНОТОННЫЕ СИСТЕМЫ В предыдущих разделах этой главы все время предполагалось, что элементы рассматриваемой системы и сама система могут на- ходиться только в двух состояниях — работоспособном и нерабо- тоспособном. С точки зрения практических требований это пред- положение является во многих случаях недопустимым огрублени- ем. Поэтому в последние годы были предприняты попытки обоб- щить понятие бинарных монотонных систем на случай, когда си- стема и ее элементы могут принимать более чем два значения. При этом интересны, прежде всего, такие утверждения, которые, с одной стороны, достаточно общи и, следовательно, не предъяв- ляют слишком ограничительных требований к системе, а с другой стороны, позволяют перекрыть результаты, полученные для би- нарных монотонных систем. Благодаря этим устремлениям внача- ле появился целый ряд работ (сравните, например, [32, 293, 76, 163, 282, 256, Д19]), в которых обсуждались возможности опре- деления многозначных монотонных систем. Различия здесь со- стояли, прежде всего, в разных уровнях требований к значимости элементов (ср. с определением 8.15). В последнее время интерес к этим формальным вопросам уступает место выяснению возмож- ностей непосредственного описания поведения системы по свой- ствам элементов и оценке важности элементов [Д8, Д4, Д11]. Далее, имеются первые попытки изучения систем с континуаль- ным пространством состояний [Д4, Д2], однако на этом мы оста- навливаться не будем. В этом разделе собраны результаты, ко- торые при нынешнем состоянии исследований представляются наиболее пригодными для практических приложений. Пусть возможные состояния системы S и ее элементов принад- лежат конечному множеству 3={0, 1,..., ш}. Предполагаем, что состояния из множества 3 задают одновременно градацию рабо- тоспособности системы и ее элементов: m является «наилучшим» состоянием (например, состоянием наивысшей производительно- сти системы и исправности элементов), а 0 — «наихудшим» (на- пример, состоянием полного отказа). (Заметим, что такое упоря- дочивание состояний конечного множества 3 вообще всегда воз- можно за счет введения соответствующих дополнительных фик- тивных состояний даже в случае, когда количество и природа 271.
действительных состояний элементов системы различны.) Обозна- чим через zi и ф состояния элемента et и системы S. Пусть Vn>m— пространство векторов z= (zi,..., zn). Пусть состояние системы ф однозначно определяется вектором состояний элементов z. Таким образом, ф есть отображение Vn,m в пространство состояний 3= = {0, Мы снова называем ф=ф(г) структурной функци- ей многозначной системы. Определение 8.14. Система S с элементами еь ег, ..., еп и струк- турной функцией ф называется многозначной монотонной систе- мой с пространством состояний 3={0, если а) функция ф(г) не убывает по каждому аргументу, б) выполняются равенства ф(0, ...,0)=0 и ф(ги,..., m) =т. В этом определении еще не присутствует понятие важности элемента. В отличие от бинарной системы для многозначных си- стем существует несколько различных вариантов определения зна- чимости элемента. Они приводят к градации свойства монотонно- сти. По аналогии с выражениями (8.7) полагаем (ji, z) = (Zi, ..., Zi—1, j, Zi+1, .... Zn) . Определение 8.15 [163]. Многозначная монотонная система со структурной функцией ф, удовлетворяющей для всех zeVn.m ус- ловию min Zj < <f (z) < max z;. (8.56) l<i<n — l<i<n называется 1) сильно монотонной, если для произвольного элемента ei и произвольного состояния j существует вектор z такой, что <p((ji, z))=j и ф((11, z))¥=j для l=#j; 2) просто монотонной, если для произвольного элемента ei и произвольного состояния j существует вектор z такой, что <p(((j—l)i> z))<q>((jb z)); 3) слабо монотонной, если для произвольного элемента ei и произвольного состояния j существует вектор z такой, что ф((]1, г))^=ф((11, z)) хотя бы для одного l^j. Очевидно, из сильной монотонности следует простая монотон- ность, в свою очередь, из простой монотонности следует слабая. Последняя, в сущности, не дает ограничений: если она не выпол- няется для какого-либо элемента, то это не оказывает никакого влияния на состояние системы. Для перенесения некоторых каче- ственных результатов, полученных для бинарных монотонных си- стем, используется простая монотонность. Сильная монотонность по сравнению с ней не дает существенно новых результатов. Пусть для действительных чисел а и b имеют место условные обозначения aVb=max(a, b) и аДЬ=пмп(а, Ь). В этих обозна- 272
чениях для y=yieVn,m, z=ZieVn,m имеем yVz=(y1Vz1, y2Vz2,..., ynVzn). yA_z = (y1Az1, y2Az2,... ynAzn). Теорема 8.12. [163]. а. Для произвольных векторов у hj из множества Vn.m справед- ливы неравенства <р (у V z) <р (у) V ? (A f (У Л^) < ? (у) А ? (z)> б. Равенство <р(у V z) = <f>(у) V ?(z) выполняется для всех у, z£ £Vn,m тогда и только тогда, когда ^(z)=maxzi (параллельная си- “ l<i<n с тема). в. Равенство <р (у Д z) = ? (У) Л ? (z) выполняется для всех у, Z& €=Vnm тогда и только тогда, когда ср (z) = min Zj (последователь* “ ICiCn ная система). По аналогии с соответствующим отношением в пространстве Vn положим _y<z для _y,_zG=Vnjm, если yi^zi для i=l, 2, ...,п и yk<Zk хотя бы для одного к. Это соглашение позволяет перенести фундаментальные понятия (минимального) пути и сечения из теории бинарных монотонных систем. Определение 8.16. Вектор состояния z называется у вектором пути, если cp(z)^j. Если, кроме того, ср(у) <cp(z) =j для всех yeVn,m таких, что y<z, то z — минимальный j-вектор пути (j^> >1). Определение 8.17. Вектор состояния z называется увектором сечения (j^l), если <p(z) <j. Если, кроме того, cp(y)^j при всех y>z, то z — минимальный j-вектор сечения. Каждому состоянию j^l соответствует, вообще говоря, не- сколько минимальных j-векторов пути и сечения. Их число обо- значаем соответственно Wj и Sj. Для j = 0 каждый вектор является j-вектором пути. Напротив, j-вектор сечения для j=0 не опреде- лен (so=O). Теорема 8.13. [256]. а. Для каждого вектора состояний z неравенство <p(z)^j вы- полняется тогда и только тогда, когда существует минимальный j-вектор пути yj=(yiJ, У23,--,Уп]) такой, что Zj^syp для всех i= = 1,..., п. б. Для каждого вектора состояния z и j^l неравенство <p(z)< <1 выполняется тогда и только тогда, когда существует мини- мальный j-вектор сечения z=(ziJ, z2j,..., znj) такой, что z^Zi* для всех i= 1,..., п. 18—6301 273
Дадим обобщение определения 8.1. Определение 8.18. Функция <p<d)(z)=m—ф(ш—z), zeVn,m на- зывается дуальной структурной по отношению к структурной функции ф. Очевидно, что ф<а) так же, как и ф, является структурной функ- цией монотонной системы. При этом сохраняется степень монотон- ности (сильная, простая или слабая). По аналогии с теоремой 8.2 справедлива теорема. Теорема 8.14. Если гл—г~(минимальный) (ш—j)-вектор пути для структурной функции ф, то z— (минимальный) (j+1)-вектор сечения для структурной функции ф(а), и наоборот, j=0, 1,... ..., m—1. Приведем один из важнейших к настоящему времени резуль- татов относительно коэффициента готовности многозначных моно- тонных систем со стохастическими отказами элементов. Нам понадобятся некоторые новые обозначения. Пусть снова Zi — слу- чайное состояние элемента ei в произвольный фиксированный мо- мент и пусть Z=(Zi, Zj,...,Zn). Тогда задает случайное со- стояние системы. Пусть, кроме того, pi(j)=P(Zi<;j) и psJ= = Р(ф(г)^|). Мы называем psj коэффициентом '^-готовности си- стемы. Он соответствует просто коэффициенту готовности систе- мы, если {0, 1.j—1} и {j, j4-l.m} множества состояний, в которых система соответственно неработоспособна и работоспо- собна. В [256] установлены формулы для точного и приближен- ного вычисления коэффициента готовности psJ. Доказательство следующей теоремы, приведенной там же, основано главным об- разом на применении формул включения-исключения (8.25). Теорема 8.15. а. Пусть для каждого j^l векторы у>1=(у|г, у^г,...» удивля- ются минимальными j-векторами пути, г=1, 2,..., wj. Тогда W р£= S(-i)k-1w[, k=l где Wi= S p(n {Z^maxyL,}). б. Пусть для каждого векторы zri=(z1]r, z£r,..., z*r) яв- ляются минимальными j-векторами сечений, r=l, 2.Sj. Тогда sj s (- ir’sl k=l 274
где s P ( П {Zi< min zlij \ i=l Kv^k k<Sj По сравнению с приведенными в этой теореме точными выра- жениями проще вычислять следующие оценки, для записи кото- рых используем обозначения теоремы 8.15: о, w. Г / П з J / П П Р-р г—1 г=1 В частности, для взаимно независимых элементов, т. е. для взаим- но независимых случайных величин s. W. ’ J n J п П II (1 “Pl w < РКII П (! - Pi (yjr - О). r=li=l r=l 1=1 Эти неравенства строгие, если, по крайней мере, два минимальных j-множества элементов пути (сечения) имеют непустое пересе- чение. Несколько более сложным является вопрос, как учитывать ди- намику. В этом случае поведение элемента ei описывается слу- чайным процессом {Zj(t), t^O} со значениями из множества 3- Если I — произвольный интервал времени, то естественно назвать величину pki=P(<p(Z(t))для всех tel) коэффициентом j- готовности на интервале I, а величину q^, = P(<p(Z(t))<j для всех tel)—коэффициентом j-неготовности на интервале I. Если обозначить через plj =P(Zi(t):>j, tel) и qj, =P(Zi(t)<j> tel) соответственно коэффициенты j-готовности и j-неготовности элемента ei, то можно привести следующие относительно простые оценки для величин р^г и q|j. Теорема 8.16 [Д.П]. Пусть для каждого j>l векторы yj = = (yJlr, у|г,..., УЦ, г= 1,..., wJ( являются минимальными j-векторами пути, a zj — (z{r, z£r,..., zir), г = 1,..., Sj —минимальными векторами j-сечений. Тогда max(Ai, B{)< pli < 1 — max (CJ, D|); max (C{, Dj) < qsi < 1 — max (Ai, Bj), где n A i = max П Рп- a = Уи> lCr<Wj j— i 18* 275
В1 = ППР?Р b = zjr+l, Г —1 1=1 n cl = max Пчп. ь = z|r+ 1, KrCSj i=i WJ n а = у|г. r=l i=l Приведенные результаты показывают, что ряд важных поня- тий и утверждений для бинарных монотонных систем формально можно легко перенести на многозначные монотонные системы. Ес- ли для каждого j = известны минимальные j-векторы пути и сечений, то легко сделать заключение о поведении системы на основании поведения элементов. Однако определение этих векто- ров уже весьма сложно для сравнительно «маленьких» систем. Поэтому полученные на нынешнем этапе теоретические результа- ты для многозначных монотонных систем имеют ограниченное применение на практике. ГЛАВА 9. АНАЛИЗ НАДЕЖНОСТИ СЕТЕВЫХ СТРУКТУР СПИСОК ОБОЗНАЧЕНИЙ U, К множества узлов и ребер графа G= (U, К) граф, сетевая структура т, и число узлов и ребер в графе G kij= (i, j) ребро с концевыми узлами i и j Л], ри коэффициент готовности узла i и ребра кц Kij элементы матрицы инцидентности узлов i-e ребро сетевой структуры A, Ai, Bi, ai случайные события Zi бинарная случайная переменная, означающая состо- яние ребра ei pt P(Zi=l)=P(ai); коэффициент готовности ребра ei Сг сетевая структура ранга г, г=1,2,... gr подмножество сетевой структуры Wi> вероятность полной связности Gr В технологических схемах многочисленных реальных систем появляются структуры, которые называются «сети». Это особен- 276
но характерно для систем, элементы которых территориально уда- лены друг от друга. В качестве примеров можно назвать комму- никационные и вычислительные сети, системы трубопроводов для воды, газа или нефти, сети шоссейных или железных дорог, а так- же сети энергосистем. Обеспечение работоспособности такого ро- да систем является важной народнохозяйственной задачей. По- этому анализу надежности сетевых структур придается большое значение, особенно в последние годы. Основное внимание иссле- дователей сосредоточено на следующих главных задачах. 1. Определение характеристик, существенных для анализа на- дежности сетевых структур, и разработка эффективных методов их вычисления. 2. Построение сетевых структур, оптимальных относительно теоретико-надежностных и экономических критериев. Мы будем в основном заниматься первой задачей. Трудно, од- нако, в рамках этой главы изложить материал так, чтобы его можно было непосредственно использовать на практике. Дело в том, что применение изложенных алгоритмов требует уже для «малых» сетей привлечения ЭВМ и, следовательно, подготовки программного обеспечения. Наша цель — познакомить читателя с основными задачами анализа надежности сетевых структур и из- ложить важнейшие известные методы их решения. Формально под сетевой структурой понимается взвешенный граф с множествами узлов U и ребер К, который может быть как ориентированным, так и неориентированным. Обычно веса припи- сываются ребрам, хотя иногда это делают и с узлами. В рассмат- риваемых нами задачах весами являются коэффициенты готовно- сти. Будем равноправно использовать термины «сетевая структу- ра», «сеть», «сетевой граф». (Необходимые понятия теории гра- фов будут даны в следующем разделе.) На рис. 9.1 показана радиальная структура. Такие структуры типичны для коммуникационных сетей. С центральным узлом 1 с .помощью ребер связаны узлы 2, 3, ...,ш. Узел 1 означает централь- ный коммутатор первичной сети. Узлы 2, 3,..., m являются цент- рами коммутации соответствующих вторичных сетей, причем «со- седние» из них также связаны ребрами. Ребра в этом случае оз- начают кабельные соединения. Отказы и тем самым неработоспо- собность узлов и ребер могут быть обусловлены техническими не- поладками, но возможны и внешние воздействия (разрыв кабеля при подземных строительных работах). Для практики интересно, например, знать вероятность того, что, несмотря на возможные отказы определенных узлов и ребер, любая пара абонентов мо- жет получить соединение. На рис. 9.2 показана модифицированная иерархическая струк- тура. Предположим, что она представляет собой систему обеспе- чения питьевой водой некоторой территории. Пусть узел 1 озна- чает центральный резервуар с водой, который должен снабжать 277
2 Рис. 9.1. Радиальная структура 1 Рис. 9.2. Модифицированная иерархи- ческая структура всех пользователей. Прочие узлы — это места разветвлений си- стемы трубопроводов, соединяющей с насосными станциями или с потребителем. Отказы вновь могут носить как внутренний (износ и старение трактов трубопровода), так и внешний характер. Здесь интересен вопрос, с какой вероятностью каждый потребитель со- единен с остальной сетью. Примеры разъясняют смысл следую- щих надежностных показателей сетевых структур. 1. Вероятность связности двух заданных узлов и и v (вероят- ность P(u, v) связности «и—V»). Она определяет вероятность того, что существует, по крайней мере, один исправный путь между узлами и и v. (Путь называ- ется работоспособным, или исправным, если он состоит только из> исправных узлов и ребер.) 2. Вероятность связности узла и с сетью (вероятность Р(и, U) связности «и—U»). Она определяет вероятность того, что существует, по крайней мере, один исправный путь между узлом и и всеми остальными узлами сети. 3. Вероятность полной связности (вероятность P(U, U) связно- сти «U—U»). Она определяет вероятность того, что между двумя произ- вольными узлами сети существует, по крайней мере, один исправ- ный путь. Другими словами, P(U, U) есть вероятность того, что каждый узел сети достижим из любого другого узла. Вероятности связности P(u, v), P(u, Ц) и P(U, U) относятся к произвольному, но фиксированному моменту. Зависимость этих характеристик от времени не рассматривается. 9.1. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ГРАФОВ Анализ надежности сетевых структур требует использования основных понятий и результатов теории графов. Разумеется, и на- оборот, анализ надежности сетевых структур тоже приводит к 278
новым достижениям в теории графов. Читателю, интересующему- ся теорией графов, можно предложить, например, книги [65, 125, 167, 171, 294, 357, 346]. Терминология теории графов не является однозначной, поэтому необходимо дать перечень основных поня- тий. 9.1.1. НЕНАПРАВЛЕННЫЕ ГРАФЫ Пусть U — произвольное непустое конечное множество, а Ки— совокупность подмножеств U, состоящих из двух различных элементов. Если (ui, и2)еКи, то пары (ui, U2) и (U2, Ui) не раз- личаются, т. е. последовательность элементов в паре из Ки не иг- рает никакой роли. Пусть К — подмножество Ки- Определение 9.1. Пара (U, К) называется ненаправленным графом с множеством узлов U и множеством ребер К. В дальнейшем мы идентифицируем каждый узел графа с на- туральным числом, т. е. полагаем U={1, 2,.... m}. Поэтому каж- дый элемент из множества ребер К представим в виде (i, j), где i,jell. Если (i, j)eK, то пишем короче — к1Л. Узлы i и j называ- ются концевыми узлами ребра кц. Говорят также, что ребро kij инцидентно узлам i и j, или узлы i и j взаимно связаны ребром kij. Пусть __ 11, если kij^Ku, i, j = 1,2,..., m, ,J [0—в противном случае. Матрица 1=((хц)) называется матрицей инцидентности графа. Если матрица инцидентности задана, то граф характеризуется полностью. Граф называется полным, если К=Ки. Поэтому в полном гра- фе любые два узла связаны между собой ребром. На рис. 9.3 изображен полный граф с четырьмя узлами и шестью ребрами. Узел имеет степень g, если ему инцидентны g ребер. Граф назы- вается регулярным степени g, если все его узлы имеют степень g. В частности, полный граф с m узлами — полный степени m—1. Регулярный граф степени 2 называется циклом. Граф, изобра- женный на рис. 9.3, очевидно, регулярный степени 3 и содержит •семь циклов. Связность. Пусть i0 и ii — два произвольных узла и пусть за- дана последовательность узлов и ребер, обладающая свойством кы,, , ki.i,, ig,..., ij_j, kij_j ip ij, - Такая последовательность называется путем между узлами i0 и ii. Натуральное число I называется длиной пути, а io и й являют- ся его концевыми узлами. Не вызовет недоразумений, если запи- сать путь между i0 и h в виде kioi„ ki,i,,..., кц^ц. Выделим •следующие два понятия, которые важны для анализа надежности сетевых структур. 279
2 Рис. 9.3. Полный регулярный граф Рис. 9.4. Граф с мостом степени 3 Определение 9.2. Два произвольных узла, i0 и ib взаимно свя- зны, если между ними существует путь. Если узлы i0 и ii взаим- но связны, то говорят также, что ii достижим из ii и наоборот. Определение 9.3. Граф связен, если между любыми из двух его узлов существует путь. В частности, связный граф называется де- ревом, если он не содержит ни одного цикла. Узел изолирован, ес- ли из него не достижим ни один другой узел. Отсюда узел изоли- рован тогда и только тогда, когда он имеет степень 0. Определение 9.4.Граф (Ub Ki) называется подграфом графа (U, К), если Ui^U и Ki<=K. В частности, подграф (Ub Ki) на- зывается порожденным множеством Ub если Ki есть множество таких ребер из К, для которых концевые узлы содержатся в U,b Определение 9.5. Подграф (Ub Ki) называется компонентой графа (U, К), если он порожден максимальным множеством вза- имосвязных узлов Ub Таким образом, в связном графе имеется только одна компо- нента, а именно, сам граф. Напротив, несвязный граф состоит из конечного числа компонент. (Мы договорились рассматривать только графы с конечными множествами узлов.) На рис. 9.4 по- казан граф, который после удаления ребра (3.4) «распадается» на две компоненты. Ребро с таким свойством называется мостом графа. Следующее определение характеризует степень связности графа. Определение 9.6. Пусть задан граф (U, К) и пусть Ui — наиме- нее мощное множество узлов такое, что либо |U\Ui| = l, либо граф, порожденный U\Ub несвязный. Тогда граф (U, К) называ- ется k-связным, если |Ui|^k. (Здесь |М| означает число элементов в конечном множестве М.) В k-связном графе существует, таким образом, к^1 узлов таких, что их (одновременное) удаление нарушает связность гра- фа. В частности, если граф односвязный, то существует узел, с удалением которого граф теряет свойство связности. Реберный подграф (Ub Ki) графа (U, К) есть подграф, обла- дающий свойствами Ki<=K и Ui=U. 280
Рис. 9.5. Типичные остовы графа, изображенного на рис. 9.3. Определение 9.7. Реберный подграф без циклов называется остовом графа (U, К). Следовательно, остовы графов — это деревья, которые содер- жат все узлы графа. На рис. 9.5 показано множество остовов гра- фа, изображенного на рис. 9.3, содержащих ребро ki2- Чтобы по- лучить все остовы этого графа, нужно ребро ki2 заменить на реб- ра к1з и ki4 (циклическая перестановка). 9.1.2. НАПРАВЛЕННЫЕ ГРАФЫ Пусть задано непустое конечное множество узлов U={1, 2, ... ..., m} и отображение Г, которое каждому ieU ставит в соответ- ствие подмножество U, не содержащее узел i. Определение 9.8. Пара (U, Г) называется направленным гра- фом. Для каждого jeT упорядоченная пара (i, j) является направ- ленным ребром графа, которое устанавливает связь от узла i к узлу j, но не наоборот. Если, кроме того, ieT(j) (это, однако, не обязательно должно иметь место), то ребра (i, j) и (j, i) следует различать. Для этого также используется обозначение (i, j), что- бы подчеркнуть, что узел i связан с узлом j. Как и для ненаправ- ленных графов, полагаем kjj= (i, j). Таким образом, последова- тельность узлов в индексации ребра задает одновременно направ- ление ребра. Узел i называется начальным, а узел j конечным для ребра kjj, которое инцидентно узлу j, но не узлу i. Число ребер, для которых узел i является исходным (конечным), называется выходной (входной) степенью i. Матрица инцидентности опреде- ляется по аналогии с ненаправленными графами. 281
Замечание. Направленные графы так же, как и ненаправленные, можно за- давать множеством К направленных ребер (вместо функции Г). Имеется зави- щ симость К = Г (i). issi Под путем (точнее, направленным путем) длины 1, соединяю- щим узел io с узлом и, мы понимаем последовательность узлов и направленных ребер вида ifl> ki1(js, ^2*'**’ _1 Ц* Ij* Узлы io и ii называются соответственно начальным и конечным уз- лами пути. Тем самым в направленном пути конечный узел од- ного ребра совпадает с начальным узлом следующего ребра или является конечным узлом пути. (При задании направленного пу- ти также можно пренебречь записью узлов.) Узел ii, кроме того, называется достижимым из узла io, если существует путь соответ- ствующего вида. Граф называется сильно связным, если между любыми двумя узлами в обоих направлениях существует направленный путь. Граф называется слабо связным, если можно добиться сильной связности при изменении направления определенных ребер. Изо- браженный на рис. 9.6 граф является слабо, а не сильно связным. Направленный цикл — это сильно связный граф, все узлы ко- торого имеют выходную и входную степень 1. Понятие направлен- ного цикла соответствует понятию цикла для ненаправленного' графа. К примеру, в графе, изображенном на рис. 9.6, имеются циклы (к]2, кгз, кз4, k4i) и (к56, кв?, кув, кзз) (рассматриваемые как подграфы). Дерево — это слабо связный ациклический граф. (Ациклический граф не содержит циклов.) Направленное дерево обладает тем свойством, что ни один из его узлов не имеет вход- ной степени, большей чем 1. В направленном дереве существует ровно один узел с входной степенью 0. Он называется вершиной направленного дерева. Направленный остов — это реберный под- граф, который одновременно является направленным деревом. Под базой графа (направленного или ненаправленного) мы по- Рис. 9.6. Пример слабо связного гра- фа 282 Рис. 9.7. Направленная мостиковая структура
снимаем минимальное множество узлов М такое, что каждый узел графа достижим, по крайней мере, из одного узла, принадлежаще- го М. Соответственно под антибазой понимается минимальное множество узла N такое, что из каждого узла графа достижим, по крайней мере, один узел, принадлежащий N. Замечание. Определение как направленных, так и ненаправленных графов исключает из рассмотрения графы с «петлями». Петли — это ребра, у которых оба концевых узла, например оба начальных или оба конечных узла, совпадают. Следовательно, петли есть циклы или направленные циклы длины 1. 9.2. ВЕРОЯТНОСТЬ ПАРНОЙ СВЯЗНОСТИ Относительно исследуемых сетевых структур сделаем следую- щие предположения: 1. Все узлы абсолютно надежны. 2. Ребра находятся либо в «работоспособном», либо в «нерабо- тоспособном» состояниях. Состояния ребер являются взаимно не- зависимыми бинарными случайными величинами. 3. Сетевые структуры суть направленные графы. Вероятность парной связности P(u, v) между двумя узлами и и v есть вероятность того, что узел v достижим из узла и. Пред- положение 3 (о направленности сетевой структуры) не ограничи- вает общности в смысле вычисления вероятности P(u, v). Можно показать, как это сделано в [254], что в предположениях 1 и 2 любой ненаправленный или частично направленный граф сводит- ся к эквивалентному направленному, при замене каждого нена- правленного ребра (i, j) с коэффициентом готовности р на два взаимно независимых ребра (i, j) и (j, i), также имеющих коэф- фициент готовности р. С другой стороны, в [3] показано, что с учетом предположения 2 предположение 1 не ограничивает общность, поскольку если ко- эффициент готовности узла не задан сразу равным 1, то этого можно добиться формально соответствующим изменением коэффи- циента готовности ребер. Для того чтобы все ребра были существенны с точки зрения вычисления вероятности P(u, v), будем определять вероятность парной связности только для р-графов. Определение 9.9. Граф называется р-графом относительно уз- лов и и v, если а) каждое ребро содержится, по крайней мере, в одном пути из узла и в узел v; б) база (антибаза) состоит только из узла u(v). В заданной сетевой структуре р-графы могут содержаться как подграфы, зависящие от входного узла и или выходного узла v. Узлы и ребра, которые не принадлежат р-графам относительно узлов и и v, не влияют на вероятность P(u, v). 283
Замечание. Методы вычисления вероятности парной связности могут быть применены для анализа надежности произвольных систем. Для этого надо пред- положить, что схемы надежности систем обладают следующим свойством: каж- дому элементу соответствует ровно одно ребро и наоборот. В этом аспекте анализ надежности сетевых структур принадлежит к основ- ным направлениям исследований в теории надежности. 9.2.1. ИНТЕРПРЕТАЦИЯ В ТЕРМИНАХ МОНОТОННЫХ СИСТЕМ Заданием р-графа относительно узлов и и v определена моно- тонная система. Множество ее элементов {ei, i=l, 2, ..., п} обра- зовано всеми ребрами графа, поскольку, по предположению, узлы абсолютно надежны. Пусть Zi — индикатор случайного состояния элемента е$: ( 1, если ребро ej работоспособно, 1 “(0, если ребро ej отказало. Пусть z=(zi, Z2, zn) —реализация вектора Z=(Zi, Z2, ..., Zn). Соответствующая структурная функция <p=<p(z) равна 1 тогда и только тогда, когда существует, по крайней мере, один исправный путь, соединяющий узлы и и v. Множество минимальных путей задано множеством всех ацик- лических путей 2R1, ЗЙ2, •. •> 5Rw от узла и к узлу v (в дальнейшем называемых минимальными путями). Тогда согласно формуле (8.15) W <р(г)=П П zi- (9-0 i=i Отсюда P(u, v)=E(<p(Z)) (9.2) и вычисление парной связности можно осуществить, как показано в разд. 8.3, переходом к соответствующей линейной форме. (Каж- дое ребро р-графа существенно относительно структурной функ- ции <р.) Аналогично, согласно выражению (8.17) (S \ П II 2, , (9.3) j=l{i:e.eSj} / где ©1, ©2, ..., ©s — совокупность соответствующих минимальных сечений. Минимальное сечение ©j в этом частном случае является множеством ребер, обладающих следующим свойством: если все ребра, входящие в сечение ©j, неработоспособны, то не существует 284
исправного пути из узла и в узел v. Если же одно из этих ребер работоспособно, то существует, по крайней мере, один такой пути (Предполагается, что все ребра, не входящие в сечение ©j, рабо- тоспособны.) Применение выражений (9.2) и (9.3) требует знания минималь- ных путей и минимальных сечений. Поэтому сначала остановимся на способах получения минимальных путей. Потенцирование матрицы инцидентности ребер. Если каждую единицу в матрице инцидентности $=((Кц)) заменить символом соответствующего ребра kij, то получим матрицу инцидентности ре- бер ((Ки)), т. е. „ [ kij, если kjj существует, Kij = [ (О—в противном случае. Пусть = ((К1^))получается в результате (г—1)- кратного ум- ножения матрицы Я самой на себя, причем с элементами kij фор- мально обходятся как с числами, = Я. Пусть = К. Матрица обладает следующим важным свойством (см., например, [201,186]): слагаемые, из которых состоит элемент Kijr\ взаимно однозначно соответствуют путям длины г из узла i в узел j. Например, слагаемое вида kii.ki.i,... kijj соответствует пути i, кц,..., ki,.,, j. Поскольку нас интересуют минимальные пути, немного модифицируем этот прием Пусть матрица получается из матрицы умножением на мат- рицу Я и последующим замещением во всех элементах слагаемых, соответствующих путям с направленными циклами, на нули, г>2.. Слагаемые, из которых составляется элемент Кцг\ соответствуют взаимно однозначно минимальному пути длины г из узла и в узел у [3]. Проиллюстрируем модифицированный метод на примере. Пример 9.1. На рис. 9.7 показан р-граф относительно узлов и=1 и v=4 (направленная мостиковая структура). Матрицы Я и Я®’ имеют вид .0 ех е2 0 \ «- °" ' “l, (9.4> I 0 е4 0 е6 I 'О 0 0 0/ /0 е2е4 е^з e^-f-e^A ^<2>=|° 0 0 езе« |, 1 0 0 0 е4е6 I \о о о о / 285>
еде ei=ki2, e^ku, es=k23, e4=k32, е5=к24, е6=к34. В матрице Я только эле- мент ' не равен нулю: КрР =646364 + 6^465. Поскольку К tip =ei6s-|-e2e6, то имеется по два минимальных пути длины 2 и 3 ют узла и=1 к узлу v=4: 341= (еь е5), ЗЯ2=(е2, е6), (9.5) 34з= (eb е3, e,), SW4=(e2, е4, е,). Понижение ранга матрицы инцидентности ребер. Применение этого метода требует специального расположения элементов ма- трицы инцидентности ребер. В первой строке стоят все ребра, ис- ходящие из узла и, а во втором столбце — все ребра, оканчиваю- щиеся в узле v. Основная идея метода, предложенного в [2], со- стоит в том, чтобы исходя из матрицы инцидентности ребер, кото- рая имеет ранг m($=$<m>), последовательно получать матрицы jffm-i), $(m-2)( ( ^(2> порядка гл—1, гл—2, ..., 2. Если обозначить 4?<г>== ((Кцг))), ТО алгоритм построения этих матриц выглядит •следующим образом: Kir’^K^P + KfpK^, г = ш, ш—1........... 3; I. j = 1, 2,..., г, (9.6) причем действуют соглашения, введенные для предыдущего мето- да. В частности, при рекурсивном вычислении элемента Ki(P по- лагаются равными нулю слагаемые, соответствующие циклическим «утям. Слагаемые, составляющие элемент KfP матрицы $(2), вза- имно однозначно соответствуют минимальному пути из узла и в узел v. Этот метод эффективнее с точки зрения времени счета, чем предыдущий, поскольку в нем отсутствует перемножение матриц, а ранги матриц, с которыми приходится работать, все время по- нижаются. Пример 9.2. Изменяя нумерацию узлов и проводя перемещения элементов в матрице инцидентности ребер (9.4), соответствующей направленной мостико- вой структуре, приходим к исходной матрице /О 0 ех е2\ я«>= 0 0 0 0 |. I О ев О е3 I \0 е, е4 0 / 286
Применение преобразования (9.6) дает / 0 e2ee ei + ese4\ Ж3) = 10 0 ° ]; '0 е5 + е3е6 0 Я(2) = /0 ехе6 + еаев + ехе3е6 + е2е4еб \ \0 О J' Структура элемента позволяет определить совокупность минимальных путей (9.5). Метод определителей. Исходной точкой этого метода, развито- го в [277], является матрица инцидентности ребер Я1. Если она задана, то алгоритм построения минимальных путей состоит из трех шагов: 1. Прибавление к матрице $ единичной матрицы 6 порядка п. Получается матрица U. 2. Удаление из матрицы U u-го столбца и v-й строки. Получа- ется матрица 8. 3. Определение детерминанта S3 произвольным способом. Уда- ляются те слагаемые, в которых одно ребро входит сомножителем более одного раза или которые соответствуют циклическим путям. Оставшиеся слагаемые взаимно однозначно соответствуют мини- мальным путям из узла и в узел v. (Знак перед слагаемыми не имеет значения.) Пример 9.3. Исходя из матрицы инцидентности ребер (9.4) имеем Вычисление детерминанта дает 18Э | =е1езев-]-е2е4е5—eies—eje^. Слагаемые соответствуют минимальным путям (9.5). Следует указать на то, что описанным методом можно пряма или после очевидных изменений определить и минимальные пут» между двумя узлами в ненаправленной сетевой структуре. В [278] разработан другой способ определения всех минималь- ных путей между двумя узлами, который основан на результатах, теории взвешенных графов. На достижения теории графов опира- ется также метод, предложенный в [304]. Тщательного сравнения отдельных методов до сих пор в публикациях нет. Минимальные сечения. Задача определения минимальных се- чений может быть сведена к отысканию минимальных путей (и 287
наоборот). Основу для этого образуют правила де Моргана: ЕхАЕ^-ПЕп = Ё, U Ё2 U - UEn; (9.7) ExUE2U-UEn = Ёх А Ё2 А - А Ёп. (9.8) Здесь Ei, i—1, 2, ..., n (п>1)—случайные события, a Ei — их дополнения. Для того чтобы применить эти правила, положим = {®il> ei2>-”> eiw.^’ aij = ~ « Aj = a(1 A ai2 A ••• aiWj’ (9*9) причем Zjj есть по определению индикатор случайного состояния ребра ец. Таким образом, ац={7ц=0} и согласно правилу (9.7) Aj ='ai1 U^i2 U • • U aiV,- (9-10) •Событие Aj(Aj) означает, что минимальный путь исправен (не- исправен). Отсюда A=A,UA2U ... UAw (9.11) означает случайное событие, состоящее в том, что узел v дости- жим из узла и. Построение минимальных сечений осуществляется в три этапа [212]: _ 1. Случайное событие А в соответствии с правилом (9.8) пред- ставляется в виде А = Aj А А2 А ••• A Aw 2. В эту формулу подставляются значения Aj, найденные с по- мощью выражения (9.10). 3. Полученное выражение приводится к следующему, одно- значно определенному с точностью до последовательности «компо- нент» виду А= U Вь (9.12) i=l где В,=1й'Ааи>А-Аа1в1. (9-13) .причем для фиксированных i событие ац, j = l, 2,..., si, наступает ровно один раз. Согласно выражению (9.12) не существует исправного пути из узла и в узел v тогда и только тогда, когда наступает, по крайней 288
мере, одно из событий Bi, i=l, 2, s. Поэтому множества ин- дексов (ii, i2) is,) взаимно однозначно соответствуют сечени- ям ©1={ен, ei2, ..e)Sj}. Пример 9.4. Минимальные пути направленной мостиковой структуры (рис. 9.7) заданы с помощью формул (9.5), поэтому имеем (двойной индекса- цией в конкретном случае можно пренебречь) A^aiflas, А2=а2Па6, А3=а1Г|азГ1аб, А4=а2Па4Па5. После перехода к представлению (9.12) для А в этом частном случае получается s=4, а также В1 = а1Па2, В2=а5Паб, Вз=а1ПазПаб, В4= =а2Па3Па5. Отсюда следует ©i={ei, е2}, ©2={е5, е6}; ©3={еь е4, е6}, ©4={е2, е3, е5}. 9.2.2. ПРИМЕНЕНИЕ ПРИНЦИПА ВКЛЮЧЕНИЯ- ИСКЛЮЧЕНИЯ , Случайное событие А, определенное с помощью выражения ; (9.11), равносильно существованию, по крайней мере, одного ис- правного пути от узла и к узлу v. Если минимальные пути извест- ны, то можно вычислить вероятность парной связности на основе следующего соотношения: • P(u, v)=P(A!UA2U ... UAW). (9.14) 5 Более подробно его можно записать, применяя формулу включе- ния-исключения (8.25): P(U, v) = SP(Ai)-SP(AinAj)+ 2 P^nAjAAfc)-... f i i<j i^j<k • ... + (-l)w-1P(AinAan-nAw). (9.15) । где индексы суммирования i, j, k, ..удовлетворяя указанным ограничениям, пробегают значения от 1 до w. । Первая сумма в выражении (9.15) содержит слагаемых, вто- рая f L третья ( w V наконец, последняя ( w ( = 1). г \ 2 / \ 3 J \ w j *1 Всего, следовательно, имеется 2W—1 слагаемых. Тем самым, ]' уже при умеренных размерах сетевых структур число слагаемых в ' выражении (9.15) растет слишком быстро даже для современных I мощных ЭВМ. Например, для w=20 и w=30 число слагаемых {имеет порядок соответственно 106 и 109. Поэтому нужны методы, которые позволяют эффективно вычислять вероятность P(u, v) {исходя из выражения (9.15). Основная идея всегда заключается в том, чтобы представить случайное событие А как сумму по воз- можности меньшего числа простых, взаимно независимых собы- * тий. В [51, 136] для этой цели использованы методы теории элек- 19—6301 289
трических цепей. Однако их алгоритмы требуют после каждого шага проверять непересекаемость получаемых событий. Этих до- полнительных трудностей лишен (при равном числе получающихся компонент) метод, изложенный в [3, 4]. Алгебраические методы применялись в [208, 1, 347]. Сравне- ние эффективности по времени счета между некоторыми из указан- ных методов проведено в [214]. Можно подходить к вычислению вероятности парной связности используя соотношение (9.14), а выражение P(u, v)=l—P(B1UB2U ... UBs), (9.16) где случайные события В] определены с помощью (9.13). Наступ- ление В] равносильно тому, что каждое ребро минимального сече- ния ©i работоспособно. Применение выражения (9.16) вместо со- отношения (9.14) целесообразно, вообще говоря, тогда, когда име- ется меньше минимальных сечений, чем минимальных путей s<w. Если разность w—s достаточно велика, то с вычислительной точ- ки зрения может оказаться выгоднее определить с помощью име- ющегося множества минимальных путей совокупность минималь- ных сечений и применить выражение (9.16). Опыт показывает, что вычисление минимальных путей занимает только от 10 до 15% всего времени счета, необходимого для получения вероятности P(u, v). Пример 9.5. Для направленной мостиковой структуры (рис. 9.7), (9.15) имеет вид Р(1,4)=Р(А1)4-Р(А2)+Р(Аз)+Р(А4)-Р(А1ПА2)-Р(А1ПАз)~ -Р (A i n А4) -Р (А2п Аз) —Р (А2п А4) -Р (А3П А4) 4-Р (А^ А2П А3) + +Р(А1ПА2ПА4)Н-Р(А1ПА3ПА4)+Р(А2ПАзПА4)-Р(А1ПА2ПАзПА4). (9.17) Согласно предположенной независимости состояний ребер Р(1, 4)=р1р5—|-Р2р6“|-plp3p6-|-p2p4p5—Р1Р2р5р6—Р1р3р5р6—Р1р2р4Рб— —р 1 ргрзрб—ргр4р5р6—р 1Р2рЗр4р5Рб4~Р 1р2рЗр5Рб4"Р 1р2Р4р5Рб~|“ “|~р1р2рЗр4р5рб-|-р1Р2Рзр4р5р6—Р1Р2Рзр4р5рб, (9.18) где pi==P(ai) =P(Zi= 1). В частности, для pi=p, i=l, 2, ..., 6, получим Р(1, 4)=2р2(14-р4-р3)— 5р4 (9.19) (см. рис. 9.11). (Сравнение с примером 8.6 подтверждает эквивалентность сете- вых структур, заданных на рис. 8.1 и 9.7, которая следует из вычисления вероят- ности Р(1.4).) Соотношение (9.17) содержит 15 слагаемых, однако из выра- жения (9.18) видно, что после сокращения их остается только 11. Следовательно, при использовании формул включения-исключения 290
получаются взаимно уничтожа- 2 4 ющиеся члены. Это еще более ---------Jk проявляется при анализе сетевой /7 Vx\ I 1 \ структуры системы ARPA, изо- S I J^v=6 браженной на рис. 9.8. Имеется 13 минимальных путей из узла и __________^г в узел v, и, следовательно, в выра- -з 5 женин (9.15) имеем 213—1=8191 Рис 98 сетевая структура ARPA слагаемых [299]. Однако только 123 из них не уничтожаются. (Вообще, при увеличении размеров сетевой структуры можно на- блюдать тенденцию к уменьшению доли не уничтожающихся сла- гаемых от общего числа членов.) Поэтому разумно искать методы, в результате применения которых появляются только не уничто- жающиеся слагаемые. Один такой метод найден в [299]. Опишем его в следующем подразделе. Он знаменует собой качественный скачок по сравнению с уже упомянутыми методами, в которых ис- пользовались формулы включения-исключения. 9.2.3. ПРИМЕНЕНИЕ МЕТОДОВ ТЕОРИИ ГРАФОВ Используем еще два понятия, специфичных для р-графов. Определение 9.10. Пусть Ш1— множество всех минимальных пу- тей в р-графе G от узла и к узлу v, а 91— подмножество 8R. Тогда 91 называется р-покрытием графа G, если объединение всех путей, содержащихся в 91, составляет граф G (т. е. каждое ребро и каж- дый узел графа содержится, по крайней мере, в одном из мини- мальных путей из подмножества 91). Определение 9.11. Пусть Mi(M2)—число всех р-покрытий р- графа G, состоящих из нечетного (четного) числа минимальных путей. Разность Dp=Dp(G)=Mi—М2 называется р-доминантой графа G. Каждому случайному событию, входящему в выражение (9.15), соответствует ровно один р-подграф Gv в исходном графе G. Он состоит из тех ребер и узлов, работоспособность которых требует выполнения события Aiif)Ai2n . • • ПАп. На примере 9.6 показано, что каждому р-подграфу Gv могут соответствовать несколько со- бытий Aiif|Ai2(] ... ПАп. Группируя такие события, из выражения (9.15) получаем P(u, v) = £dp(G,)P(G,), (9.20) V причем суммирование производится по множеству {Gv, v=l, 2, ...} всех р-подграфов, отвечающих исходному подграфу G, a P(GV) есть вероятность того, что каждое ребро, входящее в подграф Gv, 291
Рис. 9.9. Ациклические р-подграфы направленной мостиковой структуры, изобра женной на рис. 9.7. исправно. Основной результат работы [299] составляет следую- щая теорема. Теорема 9.1. Для циклического р-графа р-доминанта равна 0. Для ациклического р-графа она равна либо —1, либо -f-1, а имен- но DP(G) = (—Где m=m(G) и n=n(G)— число узлов и ребер в графе G. Вследствие этой теоремы выражение (9.20) приобретает более простой вид: Р (u, V) = 2 (—1)” ~m’+l Р (G?\ (9.21) V причем суммирование ведется по всем ациклическим р-подграфам Gv(a) исходного сетевого графа. Таким образом, вычисление веро- ятности парной связности P(u, v) с помощью выражения (9.21) уже требует знания не минимальных путей или сечений, а лишь р-подграфов. В [299] предложен эффективный численный метод определения всех р-графов. 292
На рис. 9.9 показаны ациклические р-подграфы направленной мостиковой структуры, изображенной на рис. 9.7. Легко поставить эти подграфы в однозначное соответствие тем слагаемым в выра- жении (9.18), которые остались после взаимного уничтожения. 9.3. ВЕРОЯТНОСТЬ СВЯЗНОСТИ УЗЛА С СЕТЬЮ Пусть рассматриваемые сетевые структуры снова удовлетво- ряют предположениям, сделанным в начале разд. 9.2. Для достижимости из узла и всех прочих узлов направленного сетевого графа необходимо и достаточно, чтобы существовало, по крайней мере, одно направленное дерево, все ребра которого ра- ботоспособны. Поэтому нужно лишь вычислить вероятность P(u, U) связности узла с сетью для t-графа. Определение 9.12. Относительно узла и t-граф — это направлен- ный граф, обладающий тем свойством, что каждое из его ребер принадлежит одному из направленных деревьев с вершиной и. Что касается вычисления вероятности P(u, U), t-граф является монотонной системой, поскольку в нем все ребра существенны. Со- ответствующие минимальные пути заданы с помощью направлен- ных деревьев с вершиной и. Поэтому уравнения вида (9.2) и (9.3) вновь применимы для вычисления вероятности P(u, U), если обо- значить через SWi, .... SWw совокупность направленных деревьев, a через А) случайное событие, состоящее в том, что все ребра, при- надлежащие множеству SWi, работоспособны. Для того чтобы при- вести соотношение, аналогичное (9.21), используем еще два опре- деления. Определение 9.13. Множество направленных деревьев t-графа G называется t-покрытием G, если их объединение составляет граф G. Определение 9.14. Пусть Ni(N2) —число t-покрытий t-графа G, состоящих из нечетного (четного) числа направленных деревьев. Разность Dt(G)=Ni—N2 называется t-доминантой графа G. Как и при выводе выражения (9.20), можно убедиться в спра- ведливости соотношения Р (u, U) = S Dt (Т,) Р (Т,), (9.22) где суммирование ведется по множеству {Tv, v=l, 2, ...} всех ре- берных t-подграфов, соответствующих исходному графу, a P(TV) есть вероятность того, что каждое ребро, принадлежащее множе- ству Tv, исправно. Теорема 9.2 [259]. Для циклического t-графа t-доминанта рав- на 0. Для ациклического t-графа Т, имеющего m узлов и и ребер, 293
Рис. 9.10. Ациклические t-подграфы направленной мостиковой структуры, изоб- раженной на рис. 9.7 Dt(T) = (—По этой теореме из соотношения (9.22) следу- ет р (и, и) = 2(—1)”’ m,,+1 р(т«а)). V (9.23) 294
причем суммирование осуще- ствляется по всем ациклическим реберным t-подграфам Tv<a), со- ответствующим исходному гра- фу, a mv(nv)—число узлов (ре- бер) в множестве Tv(a). Алгоритм для определения всех ациклических реберных t-подграфов построен в [259]. Пример 9.6. Направленная мостико- вая структура на рис. 9.7 является t-графом относительно узла 1. На рис. 9.10 показаны ациклические ребер- ные t-подграфы для этой структуры. В первых двух строках стоят шесть на- правленных деревьев относительно узла и=1. Поэтому с учетом независимости состояний ребер и выражения (9.23) Рис. 9.11. Сравнение зависи- мостей вероятностей связности Р(1, 4) и P(l, U) от коэффи- циентов готовности ребер для направленной мостиковой струк- туры, изображенной на рис. 9.7 вероятность связности узла с сетью определяется как Р(1, и)=Р1Р2Р5+Р1Р2Рб+Р1РзРб+Р2Р4Р5+р1РзР5+р2Р4р6—Р1Р2РЗР5— —Р 1Р2рЗр6—Р 1р2р4р5—Р 1р2р4р6—Р1РЗр5Рб—р2р4РбРб-plp2P5p6~F +Р1 р2рЗр5Рб~|~Р 1 Р2р4р5р6- В частности, для pi = p, i=l, 2, ..., 6, получим P(l, U)=p3(6—7р—{—2р2). (9.24) На рис. 9.11 сравниваются вероятности связности Р(1, 4) и P(l, U), за- данные с помощью выражений (9.19) и (9.24). Как и ожидалось, P(l, U) < <Р(1, 4) для всех р, 0<р<1. 9.4. ВЕРОЯТНОСТЬ ПОЛНОЙ СВЯЗНОСТИ Вероятность полной связности P(U, U) —это вероятность того, что сетевой граф связен. Такого рода характеристика интересна обычно только в ненаправленных сетевых структурах (сетях свя- зи). Поэтому рассматриваемые в этом разделе сетевые структуры считаются ненаправленными. В то же время предположения 1 и 2 из разд. 2 учитываем и впредь. При вычислении вероятности P(U, U) применима теория моно- тонных систем. В этом случае множество минимальных путей за- дано с помощью множества деревьев сетевого графа. Если обозна- чить эти деревья через Э12, • • •, 5Jlw, то вероятность P(U, U) снова можно вычислить с помощью формулы (9.2). Ее можно оп- ределить и по формуле включения-исключения (9.15), если поло- жить Ai={ece ребра в % работоспособны}. 295
Рис. 9.12. Ненаправленная мостиковая структура и ее остовы Пример 9.7. На рис. 9.12 показана ненаправленная мостиковая структура (рис. 8.1) и множество ее деревьев. Прямое использование формулы (9.15) по- требовало бы вычисления 28—1=255 слагаемых. Поэтому рекомендуется раз- ложить задачу на подзадачи (ср. с примером 8.2): P(U, U|Z3=i)=[i—(1—pi)(i—p2)J[i—(1—р<)(1—ps)]; Р(U, UIZ8=0) =Plp2pH-PlP2Ps+Plp4Ps+P2P4P5—3plP2P4PS- Для определения вероятности P(U, U|Z3=0) по формуле включения-исключения требуются вычислить только 15 слагаемых, так как при условии {Z3=0} необхо- димо рассмотреть лишь четыре дерева. Из выражения (8.23) следует P(U, U)=p3P(U, U|Z3=l)+(l-p3)P(U, U|Z3=0). В частности, для pi=p, i—1, 2, ..., 5, получаем (рис. 9.13) P(U, U)=p3(8-11р4-4р2). (9.25) В [298] показано, что формулу (9.23) для вычисления вероят- ности связности узла с сетью в направленном графе можно при- менять для определения вероятности полной связности в нена- правленном графе G. Для этого нужно поставить в соответствие ненаправленному графу соответствующий симметричный направ- ленный граф G], который получается заменой каждого ребра к в графе G на два противоположно направленных ребра с теми же 296
концевыми узлами, что и к. (Выбор вершинного узла и не влияет на веро- ятность связности узла в симметрич- ном направленном графе.) 9.5. МЕТОД ДЕКОМПОЗИЦИИ То обстоятельство, что с ростом размера сетевой структуры время счета, необходимое для определения Рис. 9.13. Зависимость вероят- ности полной связности не- направленной мостиковой струк- туры, изображенной на рис., 9.12, от коэффициента готовности ре- бер ее надежности, растет экспоненциаль- но, привело к развитию методов деком- позиции. Основная идея состоит в том, чтобы разложить сетевые графы на более простые для расчета подграфы, а затем, используя результаты, полу- ченные для подграфов, вычислить же- лаемые показатели надежности исходной сетевой структуры. На целесообразность модульной декомпозиции (см. разд. 8.4) уже указывалось. Поэтому с самого начала будем исходить из сете- вых структур, которые не допускают нетривиальной модульной декомпозиции. Один естественный прием декомпозиции был уже применен в примере 9.7. Он основывается на формуле разложения (8.23) для коэффициента готовности монотонной системы, причем pj означа- ет теперь коэффициент готовности ребра ej, a h(p) есть интересу- ющая нас характеристика надежности: h (о) = р( h «01( р)) + (1—р^Ь((1ь р)). (9.26) Функция h((Oj, р)) соответствует подграфу Go исходного гра- фа G, который получается из него удалением осевого ребра. Функ- ция h((li, р)) соответствует графу Gb который получается из гра- фа G слиянием начального и конечного узлов ребра ei. Примене- ние характеристики (9.26) к вычислению вероятности парной связ- ности P(u, v) детально изучено в [366], где для р-графов доказа- на следующая теорема. Теорема 9.3. С учетом предположений 1 и 2 из разд. 9.2 с по- мощью подходящего выбора осевого ребра всегда можно достичь того, чтобы, по крайней мере, один из графов Go или Gi нетриви- альным образом мог быть разложен на модули. В соответствии с этой теоремой алгоритм декомпозиции пля произвольного р-графа выглядит следующим образом. Выбор осе- вого ребра порождает графы Go и Gi, которые затем разлагаются на модули. Выбираются осевые ребра соответственно для графов Go и Gi и т. д. Этот алгоритм оказывается одним из самых про- 297
е2 з е5 G Рис. 9.14. Исходная сетевая структура в примере 9.8 2-1-4 стых, но эффективных методов вычисления вероятности P(u, v). В [366] также приведен алгоритм для (последовательного) вы- бора осевого ребра. Пример 9.8. На рис. 9.14 показаны исходная ненаправленная сетевая струк- тура G, а также графы Go и Gi, порожденные выбором е3 в качестве осевого ребра. Графы, как Go, так и Gi, допускают нетривиальное разложение на моду- ли, в то время как для графа G это не справедливо. Имеем h ( (Оз, Р)) = (р1Рб+Р2—Р1Р2Рб) (р4Рт+Р5—Р4Р5Р;), h ((1з> р))= (1— Рб— РтЧ-РбРг) (P1P4+P2PS—Р1р2р4р5)4-(рб+р7—РбР?) (Pl+ -|-P2—pips) (Р4“|-Р5—Р4Рб). Отсюда можно определить вероятность парной связности для узлов и=1 и v=5 P(l, 5)=h(p) = (l-P3)h((03,_р))+рзЬ((1з, р)). В [296] для вычисления различных вероятностей связности применена формула разложения (9.26). Объединением методов теории графов, кратко описанных в подразделе 9.2.3 и разд. 9.3, в этой работе обобщены результаты [366] и получены применимые на практике результаты. Другие методы декомпозиции для вычис- ления вероятностей связности содержатся, в частности, в [15, 17, 192, 310]. В [259] предложен алгоритм для разложения 2-связного графа на 3-связные подграфы. Такие разложения повышают эффектив- ность названных методов при вычислении вероятностей связности. Приемы декомпозиции используются и при построении приближен- ных методов вычисления вероятностей связности [273, 308, 309]. 9.6. РЕКУРРЕНТНЫЕ СЕТЕВЫЕ СТРУКТУРЫ На принципах декомпозиции основан также анализ рекуррент- ных сетевых структур, происхождение которого восходит к [139]. Конечно, само построение рекуррентных сетевых структур уже свя- зано с применением определенных методов декомпозиции. Определение 9.15. Сетевая структура Gr называется рекуррент- ной ранга г, если ее можно представить в виде объединения рекур- рентной сетевой структуры ранга г—1 с подграфом gr, структура 298
Рис. 9.15. Открытая радиально-кольцевая структура которого одна и та же для всех рангов г, причем переход к более высокому рангу может быть связан с удалением по единому дл^ всех г>1 алгоритму узлов или ребер в структуре Gr-i. Начальная же структура графа Go не должна быть такой же, какая у под- графа gr. Индикация подграфа gr необходима, несмотря на их одинако- вую структуру, поскольку при этом надежностные параметры уз- лов и ребер могут быть различными. Если они не различаются, то соответствующая рекуррентная сетевая структура называется изо- тропной, Принцип анализа надежности рекуррентных сетевых структур поясним на примерах определения вероятности полной связности. Попутно уясним вопрос о коэффициентах готовности узлов. Пред- полагается, что состояния узлов и ребер независимы друг от друга. Пример 9.9. На рис. 9.15 показана ненаправленная открытая радиальная структура ранга г—1 с подструктурами Gi и gr. Пусть коэффициент готовности узла i равен ль а ребра кц соответственно pij. Пусть центральный узел 0 абсо- лютно надежен (л0=1). Пусть также соответствующие коэффициенты «неготов- ности» равны tti=l—Hi и pij=l—pij. Далее предположим, что Wr — вероятность полной связности структуры Gr, r=0, 1, ..aWr|kOr—вероятность полной связности структуры Gr при условии, что ребро kOr исправно. Поскольку л0=1, имеем W]=pipoi и^1|кО1=Рь По формуле полной вероятности для г^2 полу- чаем Wr = Os-PopPr—1, г + ^гРогРг—1, г) Wr_i + ^rPorPr—i, rWr-1 | ко, г—ь (9.27) При вычислении второго слагаемого в правой части выражения (9.27) заметим, что ЛгрогРг-1, г есть вероятность того, что все элементы подструктуры gr исправ- ны. Но при последнем условии всегда существует исправный путь между узлами О и г—1, так что при этом случае вероятность полной связности Gr равна Wp—jfko, г—1- Уравнение (9.27) справедливо для произвольных коэффициентов рОг. Отсюда для рОг=1 Wr ) kOr ~rrPr-l, г^г—1 +пгРг—1, rWr-1 | ко, г—1- (9.28) 299
Рис. 9.16. Замкнутая радиально-кольцевая структура Для г>1 определим вектор i Wr \ -r = (w \wr|kOr/ а для г>2 матрицу . 21,=«г(Р0гРГ1’г+Р0гРг_1'Г Po-rPr-’’r\ (9.29) \ Pf—It г Pr—l,r / Тогда выражения (9.27) и (9.28) можно записать в следующей матричной форме; Wr = 5lrWr_p г >2. Повторное применение последнего соотношения дает (9.30) В частности, для изотропной системы, у которой яг=я, por=p, pr, r+i = q(r^l), п=1—л, р=1—р, q=l—q из выражения (9.30) получаем г ах — а2 где а1/2 =-^(P + 2qp±Kpa+4qqpp. (9.31) Пример 9.10. На рис. 9.16 показана замкнутая радиальная структура Gr-i ранга г—1 с подструктурами Gi и gr. (Эта структура эквивалентна графу, пред- ставленному на рис. 9.1.) При переходе от структуры Gr-i к структуре Gr для г^З в Gr-i удаляется ребро ki, г-ь Вместо него в структуре Gr появляется 300
ребро kir. Рассматривая различные комбинации состояний узлов и ребер из под- структуры gr, можно снова построить полную систему событий и с ее помощью записать, аналогично уравнению (9.27), вероятность Wr полной связности струк- туры Gr. Вместо (9.30) теперь имеем векторное уравнение Wr=^5r^5r_1... где Wr = (Wr, Wr, Wr(kor, Wrlkop Wr|k01 |kOr)T, РогРг—1, г Рог Рг—1, гР1г PorPlrPr—1, г Рог₽г— 1, Г₽1Г РогРг—1, rPlr 0 91г 0 0 ®г="г 0 о 0 0 0 0 9(r 0 0 0 Wj = J’hPoi. я1Ро1> Я11 я1> ”i)T» причем соответствующие обозначения имеют тот же смысл, что и в примере 9.9. Величина Wf । k011 к0 г есть вероятность полной связности открытой радиальной структуры Gr при условии, что оба ребра kOi и kOr (г^2) исправны. В частности, для изотропной замкнутой радиальной структуры при дополнительном предпо- ложении pir=pr, r+i = q для г»1 получаем Wr = ajr + а,г — 2 (»tpq)r, где ai и аг заданы с помощью выражения (9.31). Другие многочисленные рекуррентные сетевые структуры рассмотрены с при- влечением описанного метода в [139, 195]. ГЛАВА 10. ДИНАМИКА ВОССТАНАВЛИВАЕМЫХ СИСТЕМ СПИСОК ОБОЗНАЧЕНИИ {Z (t)} фазовый процесс {Z(t)} стационарный фазовый процесс 3 пространство состояний, пространство меток S подмножество 3 Zn Z(Tn+0); состояние после n-го изменения состояния Тп момент n-го изменения состояния Dn Tn+i—Тп; время пребывания в состоянии Zn Ри (t) переходные вероятности (pt0) начальное распределение 30h
Pj аИ Я {N(t)} Vk,M стационарная вероятность состояния переходные интенсивности матрица интенсивностей считающий процесс время пребывания в множестве состояний М при на- чальном состоянии к Wk(M(t) tk.M Nj(t) Hj(t) P(Vk,M^t) E(Vk,M) количество j-восстановлений на интервале (0, t] функция восстановления для j-восстановления Hij(t), H°ij(t) функция восстановления для j-восстановления при начальном распределении соответственно р? = 1, F?.(t) и HjO(t) p?= 1. рт„(Ч = Р|,(1) 2р?н”(о i Ф ф8 случайный помеченный точечный процесс (ПТП) случайный помеченный точечный процесс с простран- <ф8 Р) Ф ФШ ством меток 3 помеченный точечный процесс ФЗ с распределением Р стационарный помеченный точечный процесс синхронный помеченный точечный процесс, порож- Тф. Р) денный последовательностью £ случайный точечный процесс (ТП) точечный процесс ф с распределением Р стационарный точечный процесс случайный процесс с вложенным точечным процессом [1. Й (ПВТП) стационарный процесс с вложенным точечным про- Р цессом распределение процесса (точечного, помеченного то- Р р° su A(u) I(t) а чечного, с вложенным точечным процессом) распределение стационарного процесса распределение Пальма сжимающий оператор ведущая функция функция интенсивности а(Р), интенсивность стационарного точечного про- цесса (помеченного точечного процесса) с законом Н(Р) L„ {Zn(t), 0<t<Ln} 302 распределения Р 1/а(Р) длина n-го цикла [Ln, {Zn(t), O^t<Ln}], n-й цикл случайного процес- са с вложенным точечным процессом
В этой и следующих главе мы займемся моделированием, а также точным и приближенным вычислением показателей надеж- ности систем с восстановлением, обладающих структурой. В от- личие от гл. 8 и 9 на переднем плане стоит динамика таких систем. Этот вопрос уже рассматривался для простых систем в разд 4.7, правда, при сильных ограничительных условиях на независимость последовательностей наработок и времен восстановления. Поведение системы во времени описывается стохастическим процессом {Z (t), t>0}, где Z(t) означает состояние системы в мо- мент t (вообще говоря, случайное). Множество 3 возможных со- стояний системы называется пространством состояний для про- цесса {Z(t)}, который является фазовым процессом рассматри- ваемой системы. Чаще всего будем предполагать, что множество 3 конечно и его можно представить в виде 3=3+U3-, где 3+Q3-= =0, причем 3+(3-) означает множество состояний работоспособ- ности (отказа). Так, для простой восстанавливаемой системы 3= ={0, 1}, 3+={1}, 3-={0} (СМ. разд. 4.7). Для монотонной систе- мы с п элементами и структурной функцией ср (см. гл. 8) 3 есть множество n-мерных векторов z с бинарными компонентами, а 3+={z, zge3, <р (z)=l}. Если система приняла состояние z из множества 3, то она про- водит в нем некоторое время, вообще говоря, случайное, а затем вследствие отказа или окончания восстановления какого-либо эле- мента «скачкообразно» переходит в новое состояние. Таким обра- зом, все реализации фазового процесса {Z(t)} являются кусочно- постоянными. В этой главе будут изложены преимущественно теоретические основы анализа надежности систем, имеющих структуру. При этом будут использоваться как традиционные модели, такие, как мар- ковские и полумарковские процессы, так и более современные — случайные помеченные точечные процессы, процессы с вложенным точечным процессом и в особенности полурегенерирующие про- цессы. Связь этих областей теории случайных процессов с анали- зом надежности систем будет подчеркнута на примерах. Собствен- но вопросы применения будут обсуждаться в гл. 11. В разд. 10.1 рассматриваются сравнительно простые для изу- чения марковские модели. На эту тему существует обширная ли- тература (см., например, [156, 280, 140, 195], причем в последней работе содержатся в изобилии формулы для конкретных систем). По этой причине дается лишь короткий обзор. Подчеркиваются и подробнее обсуждаются те результаты, которые можно затем обоб- щить, ослабляя требования, предъявляемые к марковской модели. При анализе надежности мы ограничиваемся рассмотрением по- ведения системы до первого отказа. Стационарные характеристи- ки обсуждаются в разд. 11.1. Раздел 10.2 посвящен полумарковским процессам. Подход кот- 303
бору материала и к анализу надежности такой же, как в случае марковских моделей. В разд. 10.3 речь идет о случайных точечных процессах и слу- чайных помеченных точечных процессах, причем используются только те понятия и факты, которые соответствуют нынешним взглядам на теорию надежности. Введение понятия случайного по- меченного точечного процесса мотивировано его эквивалентностью стохастическому процессу с кусочно-постоянными реализациями. Другими словами, случайные помеченные точечные процессы явля- ются еще одной подходящей моделью для описания динамики систе- мы. Помеченные точечные процессы вводятся в разд. 10.2, так что полумарковские процессы часто трактуются как частный случай. Случайные точечные процессы рассматривают как процессы, предназначенные для описания динамики отказов. Формулируются различные варианты пуассоновской предельной теоремы для ком- позиции редеющих точечных процессов. Эта предельная теорема объясняет тот факт, что процесс, порожденный моментами отка- зов системы с очень многими высоконадежными элементами, хоро- шо аппроксимируется пуассоновским процессом. Центральное ут- верждение разд. 10.3 состоит в описании связи между стационар- ными помеченными точечными процессами и стационарными по- следовательностями соответствующего вида, или, иначе говоря, между стационарными и синхронными помеченными точечными процессами. Исходя из теорем 10.19 и 10.20 становится ясно, что стационарный и соответствующий синхронный помеченный точеч- ный процесс описывают динамику одной и той же системы в ста- ционарном режиме, хотя и с разных точек зрения. Уже здесь от- четливо видно, что точечные и помеченные точечные процессы представляют собой удобное обобщение процессов восстановления и марковских процессов, применимое и тогда, когда отсутствует независимость, предполагавшаяся в гл. 4 и разд. 10.2. В разд. 10.4 обсуждается исключительно важный для теории надежности класс процессов с вложенным точечным процессом. Это понятие непосредственно связано с понятием помеченного то- чечного процесса, поэтому все результаты для данного класса про- цессов можно получить из результатов разд. 10.3. В частности, в этот класс входят такие типы стохастических процессов, как ре- генерирующие, полумарковские, скачкообразные марковские и по- лурегенерирующие процессы, что позволяет рассматривать их с единой точки зрения. Главный результат этого раздела — форму- лировка взаимосвязи между стационарными и синхронными про- цессами с вложенным точечным процессом — является обобщением теоремы 4.12 и 4.13. Для того чтобы облегчить чтение этой главы, используемые понятия и факты теории стохастических процессов изложены в приложении в конце книги. 304
10.1. МАРКОВСКИЕ МОДЕЛИ Точное вычисление показателей надежности системы сущест- венно упрощается, если соответствующий фазовый процесс {Z(t)} является марковским. Определение 10.1. Стохастический процесс {Z(t), t^O} с про- странством состояний 3={0, •••, т} называется (однородным) марковским процессом с переходными вероятностями pij(t), t^O, i, jeB, если для произвольных n^l, ub un, u, s, где 0^ui< ... ... <un<u<s, и ji, ..., jn, i, jeS, справедливо следующее равен- ство: P(Z(s)=j|Z(u1)=j1,..., Z(un)=jn, Z(u)=i) = =P (Z (s) = j | Z (u) =i) =PiJ (s-u). (10.1) Свойство (10.1) называется «отсутствием памяти» у процесса {Z(t)} или соответственно у рассматриваемой системы. Оно озна- чает, что при известном «настоящем» {Z(u)=i} «будущее» {Z(s), s>t} не зависит от «прошлого» {Z(ui)......Z(un)}. Если динами- ка системы описывается марковским процессом {Z (t)}, то говорят о марковской системе или о марковской модели. Предположение о том, что рассматриваемая система является марковской, существенно облегчает анализ надежности (часто он вообще возможен лишь в этом случае). Следует все же указать, что в основе предположения лежат ограничения на поведение эле- ментов системы и участвующих обслуживающих приборов. Именно, если предположить, что все существенные в произвольный данный момент наработки и времена восстановления независимы, то это будет означать, что система является марковской, когда указан- ные величины распределены экспоненциально (см. теорему 2.3). Из теоремы 10.2 следует «почти» обратное утверждение (см. так- же 8.17). Очевидно, вероятности состояний марковского процесса {Z(t)} можно выразить через его начальное распределение p°=P(Z(0)=i), i=0.....m, (10.2) и переходные вероятности Pj(t) = P(Z(t) = j) = 2PoPij(t), j = 0.m. (10.3) 1=0 Для нестационарного коэффициента готовности получается выра- жение K(t) = P(Z(t)G8+)= 3 S Р°Ри(*)- (Ю.4) 163+ i=0 20—6301 305
Вообще, распределение марковского процесса (см. Приложение) определяется с помощью начального распределения (pi0) и пере- ходных вероятностей pij (t). 10.1.1. УРАВНЕНИЯ СОСТОЯНИИ. СТАЦИОНАРНЫЕ ВЕРОЯТНОСТИ СОСТОЯНИЙ Переходные вероятности удовлетворяют некоторой системе дифференциальных уравнений. Существуют предельные значения a, =lim(p. (t)/t), i=/=j. (10.5) t->OO Отсюда получаются уравнения m рц (t) = 3 Pik (0 akj, au = — 2 %•> 1. jeB. (10.6) k=0 Начальные условия для уравнения (10.6) имеют вид Рн(0)=6ц, Наоборот, если заданы числа aij^O, i=£j, удовлетворяющие ус- ловиям (10.6), то система уравнений (10.6) с начальными усло- виями рц(0) =dij имеет однозначное решение Pij(t), i, js3 такое, что 2 pij (t)=l для всех ie£ и t^0 [140]. Поэтому анализ на- дежности марковской системы в значительной мере сводится к определению так называемых переходных интенсивностей aij, i=/=j. Для их определения заметим, что выражение (10.5) можно запи- сать в виде P(Z(h)=j|Z(O)=i)=aijh+O(h) для h|0. (10.7) Последняя формула означает, что вероятность перехода из состоя- ния i в состояние j на малом интервале времени приближенно равна aijh. В качестве первого шага при анализе марковской си- стемы рекомендуется составить так называемый граф переходов (диаграмму состояний). Узлы этого графа соответствуют состоя- ниям системы, направленные ребра — определенным переходным интенсивностям (рис. 10.1). Пример 10.1. Рассмотрим простую систему, в которой все наработки и вре- мена восстановления независимы я имеют функции распределения соответственно F(t)=l— e-at и G(t)=l— Поведение системы описывается процессом Рис. 10.1. Граф переходов: а —к примеру 10.1, б — к примеру 10.2 306
{Z(t)}, который принимает значение 1, если система работает в момент t, и О в противном случае. Полагаем, что система начинает работу в исправном со- стоянии: Z(0) = l. Система уравнений (10.6) принимает следующий вид (см. рис. 10.1,а): pjo (t) = — Р Рю (t) + аР11 G)’ Pn(t) = PPio(t) — aPn(t)- Отсюда (см. также выражение (4.70)) а (1 — е-(а+РИ) р+ ae“(a+p)t Р1о(9 = » Р11 (f) = а р Очевидно, ~ a ~ р lim р10 (t) = р0 = —— , lim pn (t) = р, = ——. t->oo “ + Р t-»oo “ + Р В примере 10.1 переходные вероятности Pij(t) сходятся при t->oo к предельным вероятностям pj, которые не зависят от на- чального состояния i. Это обстоятельство всегда имеет место для неприводимых марковских процессов. Определение 10.2. Марковский процесс {Z(t)} с пространством состояний 3 называется неприводимым, если каждое состояние i достижимо из любого состояния j, т. е. для каждой пары (i, j) существует ttj такое, что pij(t)>0 при t>tij. Теорема 10.1. (Теорема Маркова). Если марковский процесс {Z(t)J неприводим, то существуют числа pj такие, что Spj=l и для каждого je3 lim р.. (t) = р. для всех i G 3. t-»oo 3 3 Вектор р=(ро, •••, pm) называется предельным распределени- ем марковского процесса. Он представляет собой однозначное ре- шение системы уравнений m П = о, 3Pj=l. (Ю.8) i=o где 91 = (ац)| (см. также (10.6)). Таким образом, предельное распределение р=(р0, .... Pm) заданного произвольного неприво- димого марковского процесса полностью определяется своими ин- тенсивностями перехода (аи)} ^д. Предельные вероятности pj обладают и другим важным свойством. Если рассмотреть их в качестве начального распределения, т. е. положить pj°=pj для всех je3. то pj(t)=P(Z(t)=j)=pj для всех t^=0. В этом случае 20* 307
марковский процесс является стационарным (см. приложение, оп- ределение А.2). Величины pj, je3 называются также стационар- ными вероятностями состояний. Пример 10.2. Рассмотрим дублированную систему с нагруженным резервом, состоящую из двух одинаковых элементов (система «1 из 2»). Для полного вос- становления отказавшего элемента имеется в распоряжении единственный прибор обслуживания. Наработки и времена восстановления независимы и имеют функ- ции распределения соответственно F(t) =P(X^t) = 1—e~at и G(t)=P(Y^t)= = 1—e-pt, где X и Y означают «типичную» наработку и «типичное» время восста- новления. Как только один элемент отказал, немедленно начинается его восста- новление (поскольку обслуживающий прибор свободен). После восстановления элемент немедленно включается в работу. Отказ системы наступает, если во время восстановления одного элемента испортился другой. Пока длится восста- новление первого, этот последний ожидает восстановления. Введем следующие состояния системы: 0 — оба элемента исправны и работают параллельно; 1 — один элемент работает, а другой восстанавливается; 2 — оба элемента неисправны, один восстанавливается, а другой ждет своей очереди. Отказ системы описывается марковским процессом {Z(t), t^O}, причем Z(t) означает число элементов, неисправных в момент t. Система уравнений (10.6) принимает следующий вид (см. рис. 10.1,6): Ро2^) = — Р Роа(О 4" aPoi (*)> Poi(V = ? P02G) — (а + Р) Poi (0 + 2а Poo(t); Poo(t) = ?Poi(t) — 2apoo(t). Из системы уравнений (10.8) для матрицы интенсивностей / — 2a 2a 0\ 91 = I a —a — р р I ' 0 р — р' получаются стационарные вероятности состояний ~ 2a2 ~ 2ар ~ р2 Р° = 2а2 + 2ар + р2 ’ ₽1= 2а2-}-2ар + р2 ’ Й ” 2а2 + 2ар + р2 ‘ Определение 10.3. Марковский процесс {Z(t)} называется про- цессом гибели и размножения, если его переходные интенсивности atj=O для |i—j|^2, aIil+i = ai при i<m и ац-1=р’ при i>0. Если кроме того, все pi=0, то говорят о процессе гибели. Процессы гибели удобны для моделирования избыточных си- стем без восстановления. При этом наработки элементов распре- делены экспоненциально. Процесс {Z (t)} означает число элемен- тов, отказавших к моменту t. Состояние ш является поглощающим, т. е. система уже не покинет это состояние, раз достигнув его. Дру- 308
гимн словами, m есть состоянии# отказа системы 3+= {0» • • •» m— —1}, В этом случае интересна функция распределения времени до первого отказа системы F<0}(t) = Pom(t) = p(inf {u:Z(u) = m}<11 Z (0) = 0). Если переходные вероятности процесса гибели равны pok(t), то система уравнений (10.6) приобретает очень простой вид. Ее точ- ное и приближенное решения даны в [156, разд. 3.3]. Поскольку аи-1 есть среднее время пребывания в состоянии к (см. теорему 10.2), то среднее время до первого отказа системы Н,г = fP/x(t)dt = — + — + ... + —. Чо} J {оГ' «0 ах %_х о Подробное изложение теории процессов гибели и размножения с примерами и приложениями к теории надежности можно найти в [156, разд. 4.3—4.5]. Если величины си и pi положительны, то про- цесс гибели и размножения {Z(t)} неприводим и имеет однознач- но определенное стационарное начальное распределение / m \— 1 'i=0 ' (10.9) Для того чтобы получить распределение времени до первого отказа марковской системы, рассмотрим сначала случайное время пребывания Vr,m с функцией распределения Wk,M (t) =Р (Vk,M<t) =Р (inf {u: Z (u) ^M} <t| Z (0) = k), ks=M. Таким образом, через Vk,M обозначено случайное время, которое система находится в множестве состояний М, если к началу на- блюдения она находилась в состоянии кеМ. ОО Для W*M(s) = (e-s‘dWk,M(t) и тк М = Е (Ук,м) получается сле- 6 дующая система уравнений: sW;M(s)= S akJ+S akJW;,M(s), к GM; j£M jeM аЛм=1+ S akj'tj,M> kGM. (10.10) jeM Пусть 3=3+113- и 0еЗ+- Если система начинает работу из состоя- ния 0, то время до первого отказа системы X^oj s= Vog+. 309
10.1.2. ВЛОЖЕННАЯ МАРКОВСКАЯ ЦЕПЬ Перейдем к другому описанию марковской системы, которое позволяет более ясно понять смысл переходных интенсивностей ап. Оно основано на понятии «вложенной марковской цепи» и дает некоторые преимущества с вычислительной точки зрения. Сверх того, это представление дает основу для моделирования марков- ских процессов (систем). Одновременно оно является исходным для введения классов стохастических процессов, которые предназна- чены для описания немарковских систем. Для заданного однородного марковского процесса {Z(t)} обо- значим через Ti, Т2 ... моменты последовательных изменений со- стояний системы (Z(Tn—0)=/=Z(Tn+0)), а через Zb Z2—состояние системы непосредственно после этих моментов: Zn=Z(To+O) (см. рис. 10.2). Кроме того, полагаем То=О и Zo=Z(O). Ясно, что процесс {Z(t)} содержит столько же информации о динамике системы, сколько и последовательность {[Tn, Zn], п^О} или последователь- ность {[Dn, Zn], п^О}, где Dn = Tn+i—Тп. Отметим, что Dn есть случайное время пребывания системы в состоянии Zn. Теорема 10.2. Пусть {Z(t)| — марковский процесс с переход- ными интенсивностями ац, i, j^3- Тогда последовательность {[Dn, Zn]} образует марковскую цепь с пространством состояний (0, оо)хЗ (см. определение А.4) и переходными вероятностями Р (^п+1 = j’ + I = t Dn) ” = P(Zn+1 = j, Dn+1<t I Zn = i) = Чц(1 -e-ai‘); (10.11) q,. = P(Zn+1 = j | Zn = i) = -X i^=j, qH = 0, P(Dn<t | Zn = i) = 1 -e~aj\ ai = Saik. k^i (10.12) Последовательность {Zn} также образует марковскую цепь с пе- реходной матрицей Q=(qij). Последовательность {Zn} называется вложенной марковской цепью марковского процесса {Z(t)} (относительно вложенных мо- ментов Тп). Обращением теоремы 10.2 является теорема. Теорема 10.3. Пусть задана марковская цепь {[Dn, Zn]} с пе- реходными вероятностями вида (10.11), причем (qij) есть стоха- стическая матрица, в которой qii=0, a ai — положительные числа. Если положить п—1 Tn = 0, Tn=3Dj, п>1; Z(t) = Zn. Tn<t<Tn + 1, (10.13) j—0 310
то {Z(t)J образует марковский процесс с переходными интенсив- ностями аи=—ai и aij = aiqij для i^j. Очевидно, моменты Тп, п^1, определенные с помощью выра- жения (10.13), являются как раз моментами скачков марковского процесса {Z(t)J, a Zn — состояниями системы, в которые она пе- реходит в моменты Тп. Марковские процессы являются регенери- рующими процессами (см. разд. 4.8). Для каждого фиксированного jeg моменты скачков Тп, для которых Zn=j, являются момента- ми регенерации процесса {Z (t)}. Процесс {Z(t)J неприводим тогда и только тогда, когда его вложенная марковская цепь {Zn} неприводима, т. е. когда все эле- менты некоторой степени матрицы (qij) положительны. Напомним следующее утверждение (см. например, [66]). Лемма 10.1. Марковская цепь {Zn} с пространством состояний 3={0,..., т} неприводима тогда и только тогда, когда она имеет единственное стационарное начальное распределение (pi). При этом pi>0 для и (pi) является однозначным решением си- стемы уравнений Pj = £₽!%. jG8, Spi=l- (10-14) I i Стационарные вероятности состояний pj процесса {Z(t)} мож- но вычислить с помощью стационарных вероятностей pj вложен- ной марковской цепи и наоборот. Теорема 10.4. Пусть p,j=aj—1 означает среднее время пребыва- ния системы в состоянии j. Тогда р~ = _ЕЕ1_; (10.15) pj=_Pi^_. (10.16) SPkF'k SPkak k=0 k=0 Пример 10.3. (Продолжение примера 10.2.) Имеют место равенства q00= = qo2=qn=q2o=422—0 и 4о1=421—1- Далее получаем оо Чю= Р(X>Y) = J(1 -e~f‘)e—‘dt = 1-;^-, 412=1-4x0 = о ар а а+ р’ Из системы уравнений (10.14) находим р 1 а Ро=2(а + р) ’ Р1 = Т’ Ра= 2(а + р)’ Из выражения (2.31) следует (Xi и Х2 — наработки обоих элементов) fx0 = E(min(X1, Ха)) = -^-, й1 = Е(пИп(Х, Y))=-J-, j*,:-- 2ос ос -4- р р 311
Справедливость выражений (10.15) и (10.16) легко установить для значений Ро, pi и р2, взятых из примера 10.2. Рассмотрим теперь марковскую цепь {[Dn, Zn]}, которая удов- летворяет условию (10.11), причем стохастическая матрица (qij) имеет единственное стационарное начальное распределение (pj) — однозначное решение (10.14). Последовательность {[Dn, Zn]} ста- ционарна (см. определение А.2). Пусть {Z(t)} — марковский про- цесс, определенный в теореме 10.3. Тогда его начальное распре- деление также (pj). Если не все времена pj одинаковы, то процесс {Z(t)} является нестационарным. (Из формулы (10.15) следует, что (pj)#= (Pj).) Однако он обладает следующим свойством инва- риантности: для каждого п процесс {Z(Tn+t), Т>0} распределен так же, как и процесс {Z(t), t^0}. Назовем {Z(t)} синхронным марковским процессом, определенным параметрами (qij) и (ai). Пусть, кроме того, {[Dn, Zn]} — марковская цепь, которая также удовлетворяет условию (10.11), т. е. P(Zn+i = j. Dn+1<t ] Zn = i, Dn) = qu(l — e~a,‘), и пусть распределение Zo задано с помощью формулы (10.15). Марковский процесс, определенный через {[Dn, Zn]} так же, как в теореме 10.3, обозначим через Z(t). Он, по определению, стацио- нарен. Назовем {Z(t)} стационарным марковским процессом, за- данным параметрами (q^) и (ai). Таким образом, установлено, что динамика марковской систе- мы с параметрами (qij) и (ai) описывается синхронным и стацио- нарным марковским процессами. Они имеют одинаковые переход- ные интенсивности aij=aiqij для i=#j, но различные свойства ин- вариантности. Их распределения связаны формулами (10.15) и (10.16). Подобная ситуация уже встречалась для процессов вос- становления и регенерирующих процессов (см. теоремы 4.4 и 4.12). В разд. 10.4 будет показано, что эта взаимосвязь имеет место в стационарном режиме при существенно более общих предположе- ниях относительно рассматриваемой системы. Различие между ста- ционарным и соответствующим синхронным процессами состоит исключительно в выборе начала отсчета времени. Замечание. Представляя марковский процесс {Z(t)} как марковскую цепь {[Dn, ZJ}, можно совершенно отказаться от требования qii=0. Пусть {[Dn, Zn]} — марковская цепь вида (10.11), где (qij)—произвольная стохасти- ческая матрица; aij — положительные числа. Тогда согласно условиям (10.13) определен марковский процесс со следующими параметрами: aij=aiqij, i#=j, ап=—ai(l— qii). (10.17) 312
10.2. ПОЛУМАРКОВСКИЕ МОДЕЛИ В теоремах 10.2 и 10.3 было получено представление марков- ского процесса марковской цепью {[Dn, Zn]}. Исходя из него вве- дем более далеко идущее и весьма полезное для теории надежно- сти обобщение марковского процесса (см. [280, 140, 312]). Рас- смотрим марковскую цепь {[Dn, Zn], п^О} с пространством со- стояний (0, оо)хЗ и обозначим через Zo начальное состояние системы, через Zn, п^1 — ее состояние после n-го скачка и через Пь, п^0 время пребывания в состоянии Zn. Предположим, что Р(Zn+i==j|Zn=i, Dn)=P(Zn+i=j|Zn=i)=qij; (10.18) P(Dn+I^t|Zn=i, Zn+i=j)=Ftj(t), (10.19) где qij — элементы стохастических матриц (случай qn>0 не ис- ключен для определенных см. замечание выше), a F1j(t)> i, j —функция распределения положительной случайной вели- чины. По сравнению с выражениями (10.11) и (10.12) обобщение состоит в том, что время пребывания в состоянии Zn может зави- сеть также от следующего состояния Zn+i и, кроме того, имеет про- извольное распределение. Если, к примеру, Zn=te3- (состояние отказа), Zn+i=j<=3+ (рабочее состояние), то время пребывания в состоянии Zn совпадает с временем ремонта и вполне может зави- сеть от желаемого уровня работоспособности j. Введем моменты п—1 То-о, Tn=3Di, п>1, (10.20) 1=0 и определим фазовый процесс согласно формуле Z(t)=Zn для Tn<t<Tn+i, п>0. (10.21) Для полного определения процесса {Z(t)} необходимо еще за- дать начальное распределение, которое складывается из распре- деления начального состояния Zo и условного распределения вре- мени пребывания Ti=D0 в состоянии Z0=i при условии, что сле- дующее состояние есть Zi=j: p? = P(Z0 = i), P(T1<t|^0 = i, Z1 = j)=F«>(t); (10.22) P(Z0=i, Zx = j, D0<t) = poqi.FO (t). (10.23) (Должно выполняться равенство P(Zi=j |Zo=i)=qij, однако функ- ция распределения Fq (t) может отличаться от функции Fij(t).) Соотношениями (10.18), (10.19) и (10.23) распределение {[Dn, Zn]} и, тем самым, процесс {Z (t)} полностью заданы. Определение 10.4. Процесс {Z(t), t^0}, определенный форму- лой (10.21), с пространством состояний 3={0. 1, •••, т} называ- ется полумарковским процессом (ПМП) с параметрами (qij), 313
Fq(t), i, je3 и начальным распределением, определенным вели- чинами (pi0) и Fij°(t) по формуле (10.23). Последовательность {Zn, п^О} называется вложенной марковской цепью для процес- са {Z(t)} (относительно моментов То, Ti,...). Последовательность {[Тп, Zn]} называется марковским процессом восстановления. Определение ПМП содержит одновременно способ его модели- рования. Предположим, что все математические ожидания конеч- ны, т. е. H° = jF?j(t)dt, иц= о о Если пространство состояний 3 состоит из одного элемента, то можно отказаться от задания состояний Zn и получить процесс восстановления {Dn} (в обозначениях гл. 4 Dn=Xn-i). Для 3= ={0, 1}, qol = qio=l и Foi(t)=G(t), Fi0(t)=F(t) процесс {Z(t)} есть альтернирующий процесс восстановления с начальным рас- пределением pi0 F(t)+po°G(t) (см. разд. 4.7). Если Fij(t)=Fi(t) = = 1 — e-ait, i, js3, то {Z(t)} — марковский процесс с переходными интенсивностями (10.17). Пример 10.4. Ненагруженный резерв. Рассмотрим простую систему, наработ- ка X которой имеет функцию распределения F(t). Пусть существует m—1 экзем- пляров других таких же резервных систем, которые не могут отказать. Для вос- становления отказавших систем имеется один прибор обслуживания. Продолжи- тельность восстановления У имеет функцию распределения G(t)=l—е~Р*. Процесс {Z(t)}, выражающий случайное число неисправных в момент t систем, есть ПМП и имеет следующие параметры: ОО qI>i+1 = P (X<Y) = Je~₽‘dF(t) = F*(?), 1 <1<ш-1; о qi, i-i=l—F*(p), l^i^m—1; qij=O для |i—j|=Aj, qoi=qm,m-i=l; FI,i+1(t)=F(t), 0<i<m-l; Fi, 1.-1 G) = 1 ~e~₽t, 1 < i < m. Q. f Если равенство Fij(t)=Fi(t) = 1— e 1 не выполняется хотя бы для одной пары i, j, то ПМП {Z(t)} не является марковским (см. теорему 10.2). Однако из {Z(t)} можно получить марковский процесс введением так называемой до- полнительной переменной. Если обозначить N(t) =max {n: 0<Tn^t}, V(t)= =Tn(d+i—t (остаточное время пребывания в состоянии ZN(t)), то процесс {|Z(t), ZN(t)+i, V(t)], t^O} является марковским с пространством состояний ЗХЗХ Х(0, оо). Если Fij(t) =Fi(t), i, je3, то марковским является даже процесс {[Z(t), V(t)]}. 314
4 10.2.1. ВРЕМЕНА ПРЕБЫВАНИЯ. ПРОЦЕСС к-ВОССТАНОВЛ ЕНИИ Пусть рассматриваемая система моделируется с помощью по- лумарковского процесса. Для анализа надежности важно знать врмена пребывания Vk,M. Здесь Ук.м — это случайное время, кото- рое проводит система в множестве состояний Мс$ при условии, что в момент 0 она находилась в состоянии к, кеМ. Следователь- но, P(Z0=k)=pk0=l и Fkj°=Fkj, je3- Функция распределения" ве- личины Ук,м есть Wk,M (t) =Р (inf {u :Z (u) <t | Z0=k). Например, время до первого отказа системы равно Vk g где 3+ — множество рабочих состояний системы, а к — ее начальное состояние. Функции распределения Wk,M(t) удовлетворяют систе- ме уравнений t wk,M (t) = 2 qkjFkj (t) + S qkj J wj>M (t-u) dFkJ (u), к e m. j&M о (10.24) Для преобразования Лапласа — Стилтьеса Wk,M (s) и сред- них времен пребывания Тк,м=ЕУк,м получается система уравне- ний W;,m(s)= 3 qWFw(s)+ S qkjFkj(s)W;>M(s), к GM; (10.25) jeM тк,м = ^+ 2 Pk= 2 % P-кг ^kj = jFkj(t)dt. (10.26) jeM js3 о Если M=M(k)={0, 1,..., k—1} и qij=0 для то при k^2 имеем рекуррентную формулу W* /м 3k—l,kFk—l,k (S) Wk-l,M(k) W k=2 k=2 . 1 “Чк-1,к-1 Fk-l.k—l(s) — X 4k-l,iFk-l,i^s) fl Wj,M(j+l/S) i=0 j=i Относительно других формул для Тк,м следует обратиться к [260, Для каждого j моменты Тп такие, что Zn=j, являются момен- тами регенерации процесса {Z(t)} (см. разд. 4.8). Эти моменты называют ^-восстановлениями и говорят о процессе ^восстанов- лений. Введем обозначения: Nj(t)—количество j-восстановлений за время (0, t]; Hj (t) =Е (Nj (t))—функция восстановления для j-восстановле- ний; 315
Gij(t) функция распределения времени до наступления первого j-восстановления при начальных условиях pi°=l, Ftj°(t) =Fij(t) для всех ieg. Тогда (t) = 4ij Fu (t)+2 Чц (Fij * Gkj) (t) k#j 00 и, следовательно, для математических ожиданий Дц = J Gy (t) dt о справедливо представление m во Aij = Hi + 3 4ii Ajk, Hi = 2 q» Hir Hu = ( Fij (t) dt. k#U j=0 0 Пусть вложенная марковская цепь {Zn} неприводима и имеет един- ственное стационарное распределение (pt), где pi>0 для всех ieB (см. лемму 10.1). Тогда ДЯ = Н/РГ где и= 2 PiAtkH-fk- (10-27) i.kes Теорема 10.5. Для каждого начального распределения (pj°), Fij°(t), i, jeB справедливы следующие асимптотические утверж- дения: pflim = —)= 1, limE(Nj(t))= А.; \t-*OO t / t-HOO р lim Р (Nj^—.^Pj^t < x^ = Ф (x), где о? = D2 Y^. t-л \ a,yt(Pj/n)’ J v ” J 11 Первое утверждение следует непосредственно из теоремы 4.5 и (10.27), второе—из теоремы 4.10 и формул (10.27). 10.2.2. СТАЦИОНАРНЫЕ ПОЛУМАРКОВСКИЕ ПРОЦЕССЫ Так же, как в подразд. 10.1.2, при изучении теории восстанов- ления зададимся вопросом, существует ли для заданных объектов (qu) и 'Fij(t), i, jeB, единственное начальное распределение, для которого полумарковский процесс {Z (t)} стационарен (см. опре- деление А.2). Если обозначить через H?j (t) и Нij (t) функции вос- становления для j-восстановлений при начальных распределениях соответственно pi0—l.Fy (t), i, jeB и pi°=l, Fij°(t) =Fij(t), i, je e=3, и положить Hj°(t)=2pJH^ (t), то по аналогии c (4.12) полу- чается система уравнений (марковские уравнения восстановления) t H?(t)=2p?qijF?j(t)+22pIqijjF4(t-u)dH?1(u). (10.28) 316
Исходя из (10.28) получим следующее обобщение теоремы 4.1, Теорема 10.6. Пусть вложенная марковская цепь {Zn} для ПМП {Z(t)} неприводима и имеет стационарное начальное распределе- ние (pi). Тогда для справедливости при всех je3 н?«)=х-=4’ "<10-29> ” и i.J (см. также формулу (10.27)) необходимо и достаточно, чтобы на- чальное распределение {Z (t)} имело вид F?,(l) = 4-(4ow (10.30> г* ‘ Ц i) j О Полумарковский процесс стационарен тогда и только тогда, когда стационарен марковский процесс {[Z(t), ZN<t)+i, V(t)], t>0}. Теорема 10.7. Пусть вложенная марковская цепь {Zn} непри- водима и имеет начальное распределение (pj). Тогда процесс {Z(t)} стационарен тогда и только тогда, когда его начальное распределение имеет вид (10.30) или когда функция восстановле- ния Hj°(t) для j-восстановлений при любом j имеет вид (10.29). В частном случае, когда Fij(t)=Fi(t), для всех i, js3 процесс {Z(t)} стационарен тогда и только тогда, когда он имеет началь- ное распределение t Р (Zo = i, Do < t) = —— f F, (u) du. Мы снова снабжаем все переменные и характеристики стацио- нарного ПМП знаком ~~ Теорема 10.8. Для стационарного ПМП {Z(t)J справедливы формулы t Р (Z (0) = i, Z17(0)+1 = j, V (0) <t) = f Fij (U) du; (10.31} Г* t) 0 p( = P (Z (0) = i) = -^- Pi qfJ p.fJ = -? -1— ’ (10.32} 1 k=0 t Pj|(Z(0)G3+, V(O)<t)= -A_jFi(u)du, (10.33> ie8+ 0 317
Fi(t) = SqljFI.(t), j m где »i = 2 Чц1*ц — среднее время пребывания в состоянии i, J=o Таким образом, стационарные вероятности состояний не зави- ГЛ сят от вида функций распределения Fu(t) и Fi(t)=2 4ijFij (t) .Они j=o зависят лишь от соответствующих математических ожиданий (см. (10.32)). В формуле (10.31) можно заменить остаточное время V(t) на возраст R(t) =t — Tfy{t). Стационарные вероятности являются предельными при t->-oo и для ПМП. Теорема 10.9. (Эргодическая теорема.) Пусть {Z(t)} — ПМП с параметрами (qij), Fij(t), i, je3, и произвольным начальным распределением удовлетворяет следующим предположениям: а) его вложенная марковская цепь неприводима и имеет ста- ционарное начальное распределение (pj), где pj>0 для je3; б) по крайней мере, для одного кеЗ функция распределения времени возвращения Gkk(t) не является арифметической. Тогда t l:mP(Z(t) = i, Zy(t)+i = j. V(t)<x)=fFij(u)du; (10.34) t^OO H J ~ p. u. limP(Z(t)=i) = p = -ir^_ t->oo x k=0 (10.35) Доказательство теоремы основано на фундаментальной теоре- ме восстановления 4.6. Распределение Gkk(t) не является ариф- метическим, в частности если распределение Fij(t) для всех i, js3 не арифметическое или если распределение Fkj(t) не арифметиче- ское для некоторого j такого, что Pkj>0. Без предположения б) утверждение получается слабее (см. теорему (10.23)). Рассмотрим теперь начальное распределение Pi°=pi, ie3, и Fij°(t) =Fij(t). Тогда последовательность {[Dn, Zn]} стационарна (см. определение А.2). (Из формул (10.31) и (10.32) следует, что соответствующий ПМП {Z(t)} стационарен тогда и только тогда, когда Fij(t)=Fi(t)= 1 — е“t/w для всех i и j, а также для всех i.) Из стационарности последовательности {[Dn, Zn]} следует, однако, что для каждого п ПМП {Z(Tn-H), t^0}, сдвинутый на 318
Тп, имеет то же распределение, что и ПМП {Z(t), t^O}. Назовем {Z(t)} синхронным ПМП, порожденным с помощью (qij), F^, i, j«=3- 10.3. СЛУЧАЙНЫЕ ПОМЕЧЕННЫЕ ТОЧЕЧНЫЕ ПРОЦЕССЫ Пусть задана система, динамика которой описывается стоха- стическим процессом {Z (t), t>0} с пространством состояний 3= ={1, 0, ..., т}. Предположим, что система изменяет свое состоя- ние только в случайные моменты Т], Т2, ... и обозначим через Zn состояние, в которое она попала в момент Tn, Zn=Z(Tn+0). (Не исключено, что для некоторых п справедливо Z(Tn—0)=Z(Tn-|-0).) Согласно предположению о том, что состояние системы не меняет- ся между моментами Тп и Tn+i, п=1, 2, ..., стохастический про- цесс {Z(t), t>0) и последовательность {[Tn, Zn], п>0} дают аде- кватную модель для описания рассматриваемой системы (рис. 10.2). Обычно в теории надежности используется модель {Z(t)}, тем не менее, для многих рассуждений проще все же модель {[Tn, Zn]}. Относительно последовательности моментов скачков {Тп} для {Z (t)} предположим, что с вероятностью единица То=0<Т!<Т2< .... (10.36) Момент То=О, вообще говоря, не должен быть моментом скачка (см. также гл. 4); Zo означает состояние системы в начале наблю- дения. Потребуем, кроме того, чтобы P(limTn=oo)= 1. (10.37) П->00 Требование (10.36) исключает одновременное наступление не- скольких скачкообразных изменений состояния системы (отказов, окончаний восстановления элементов). Другими словами, исклю- чается наличие состояний, которые система может принимать и «мгновенно» покидать. Так, например, не могут отказать одновре- менно несколько элементов. Требование (10.36) выполняется, в ча- стности, если наработки и времена восстановления элементов име- ют непрерывные функции распределения. Требование (10.37) так- же очень естественно. Оно исключает точки сгущения моментов скачков на конечных интервалах времени. Определение 10.5. Последовательность {[Tn, Zn], пЗ>0} дейст- вительных случайных величин Тп и случайных элементов Zn в про- странстве состояний 3, удовлетворяющая условиям (10.36) и (10.37), называется случайным помеченным точечным процессом (ПТП) на интервале (0, оо) с пространством меток 3, а элементы Zn — метками моментов Тп. 310
2(t)i Заметим, что ПТП можно определить для существенно более общих пространств ме- ток. (Например, пространство состояний 3 может быть про- извольным полным сепара- бельным метрическим прост- ранством.) В этом разделе также не используется конеч- ность пространства 3- В тео- рии надежности ПТП высту- пают не только как упрощен- ные модели фазовых процес- сов. Например, с точки зрения ремонтного оборудования каждый отказ характеризует- ся не одним моментом своего наступления, но и некоторой меткой, задающей происхож- Рис. 10.2. Типичные реализации кусоч- но-постоянного стохастического про- цесса и эквивалентного помеченного точечного процесса дение, вид повреждения и т. д. Обозначим ПТП {£Tn, Zn], п^О} с пространством меток 3 сим- волически через Фд . Используем также обозначение (Фд,Р) вме- сто выражения «ПТП Фд с распределением Р». Если не может возникнуть недоразумений, то пишем Ф вместо Фд. В этом разделе дается краткий очерк теории случайных поме- ченных точечных процессов. При этом почти полностью отсутст- вуют доказательства. (Смотрите, например, [190, 157, 131].) Наша главная цель — связать относительно абстрактные понятия и ре- зультаты с уже изложенными из теории восстановления и полу- марковских процессов, а также дать интерпретацию в терминах теории надежности. Простым примером ПТП являются альтернирующие процессы восстановления, обсуждавшиеся в разд. 4.7,3={0,1]. Другой важ- ный частный случай ПТП составляют марковские процессы вос- становления (см. определение 10.4). Закон их распределения пол- ностью задается формулами (10.18), (10.19) и (10.23). В частно- сти, P(Z0 = i0, D0<t0,..„ Zn = in, Dn<tn) = in — 2 P?o 4ioix ••• 4in_j in 4i i^ioi 1 (to) ••• Pin1 (tn)- i—0 i u 10.3.1. СЛУЧАЙНЫЕ ТОЧЕЧНЫЕ ПРОЦЕССЫ В теории надежности часто в первую очередь интересуются свойствами последовательности моментов скачков {Тп}. При этом •соответствующие состояния Zn не играют роли. Так, например, 320
рассматривают последовательность моментов отказов системы, не принимая во внимание, какой элемент был причиной отказа. Определение 10.6. Последовательность ф={Тп, п^О} случай- ных величин, обладающая свойствами (10.36) и (10.37), называ- ется случайным точечным процессом (ТП) на интервале [0, оо). Очевидно, ТП можно рассматривать как частный случай ПТП с пространством состояний из одного элемента. Обозначим через N(t) случайное число моментов Тп для ТП -ф (для ПТП Ф) за время (0, t]: N (t)=max {n : 0<TnsCt}. Очевидно, стохастический процесс {N(t), t^0} принимает только целочисленные значения и монотонно не убывает, причем согласно свойству (10.36) скачки равны 1. Этот процесс {N(t)J называется считающим процессом, соответствующим ТП ф (или Ф). Распределение Р для ТП ф однозначно определяется свои- ми конечномерными распределениями P(N(b1)-N(a1)=k1, ..., N(bn)-N(a„)=kn), ai<bj, i= 1, ..., n; n=l, 2, ... При этом N(b)—N(a) есть случайное число моментов Тп из ТП ф таких, что Tns (а, b]. Особенно важный и наиболее часто используемый в теории на- дежности класс точечных процессов составляют пуассоновские. Определение 10.7. Пусть А (и), и^0— монотонно неубывающая функция 1йпА(и)=оо. Точечный процесс ф называется пуассонов- ским с ведущей функцией А (и), и^0, если а) для каждого конечного набора ио=О <Ui<U2< ... <Uk случайные величины: N(uj)—N(Uj-i), j=l, ..., k независимы; б) для каждого полуинтервала (а, Ь] случайная величина N (Ь)—N(a) имеет пуассоновское распределение с параметром А(Ь)—А(а), т. е. Р (N (b) - N (а) = к) = А- (А (Ь) - А (а))к ехр (-А (Ь)ЖА (a)), k = К! = о, 1, Особый интерес представляют пуассоновские процессы, у кото- рых ведущая функция имеет вид A(t)=at. В этом случае распре- деление числа моментов Тп на определенном интервале зависит уже не от его положения, а только от длины. Такой пуассоновский процесс называют однородным (стационарным). Мы охарактеризовали пуассоновские процессы теми свойства- ми, которыми обладает число моментов Тп на различных интерва- лах. Такие свойства ТП называются считающими. Можно, однако, описать ТП с помощью свойств отрезков D0=Ti, Di=T2—Ть ... ..Dn=Tn+i—Тп. Если, в частности, величины Dn, п^0, независи- мы и одинаково распределены (п^1), то получаем процесс вос- 21—6301 321
становления. Точечный процесс {Тп}, полученный из марковского процесса восстановления {[Tn, Zn]}, можно так же просто охарак- теризовать его «интервальными свойствами». В частности, P(D0<t0, ..., Dn<tn} = 2... 2p?oqio.........qinIF?oil(t0)... F (tn). io i Важными численными характеристиками для ТП ф или для ПТП Ф являются функции I(t)=Ep(N(t)), D2(t)=D2(N(t)), где N(t) означает считающий процесс, соответствующий ТП ф или Ф. Функция I(t) называется функцией интенсивности для ТП ф или ПТП Ф. Она задает среднее число моментов Тп за время (0, t] и, очевидно, монотонно не убывает и непрерывна справа. Для пуас- соновского процесса ведущая функция A(t) совпадает с функци- ей интенсивности I(t), которая является его функцией восстанов- ления H(t). Для марковского процесса восстановления I(t) = =2 Hj° (t) (см. подразд. 10.2.2). j Рассмотрим последовательную систему из двух элементов, ко- торые функционируют независимо друг от друга и в случае отка- за немедленно заменяются. Процесс отказов этих элементов мож- но описать с помощью ТП для моментов отказов. Если интерес представляют моменты отказа системы, то следует рассмотреть композиции этих двух ТП (рис. 10.3). Имеется много других по- становок задач, в которых нужно рассматривать композиции ТП, например в планировании запаса для однотипного парка машин или оборудования. Вообще, мы называем объединение моментов Тп для двух ТП и ф2 композицией и обозначаем ее г^-рфг. Если Ii (t) и I2(t) — функции интенсивности для ТП ф1 и ф2, то функция интенсивности для ф1+ф2 равна Ii(t)+I2(t). В дальнейшем рассмотрим компо- зиции лишь независимых ТП. Теоретически возможно, что некото- рые моменты Тп для ф1 и ф2 совпадают. В этом случае композиция Ф1+Ф2 не является ТП в смысле определения 10.5, что в дальней- шем исключается. Следующая теорема показывает, что это огра- ничение не является серьезным. I X-----X—И и--------к—и—ф. о -г1 I—е---е е-------------е—=^ф„ 0 t^2 I—в-о--------------------& О Рис. 10.3. Композиция двух симых точечных процессов незави- Теорема 10.10. Пусть Ii(t) и I2(t) —функции интенсивности двух независимых ТП, ф1 и ф2, a Ui и U2 — множества точек разрыва соответственно для Ii (t) и I2(t). Тогда соотношение UiAU2=0 является достаточным для того, чтобы все моменты Тп для ТП ф1 и ф2 были различны с вероятностью 1. 322
Доказательство тёореМы можно найти в [185]. Заметим, что условие Uif)U2=0 всегда выполнено, в частности тогда, когда, по крайней мере, одна из функций интенсивности непрерывна. Напри- мер Ii(t)=ait или l2(t)=a2t. Определение 10.8. Пусть (фь Pi) и (ф2, Рг) “Два независимых ТП таких, что UiDU2=0. Композицией f-ф2 мы называем ТП, который получается объединением моментов Тп для процессов ф1 и ф2 и перенумерацией в виде (10.36). Распределение ф1+ф2 на- зывается сверткой Pi и Р2 и обозначается Pi*P2. (Аналогично определяются композиция и свертка независимых ТП фь ..., фп, обозначаемые соответственно ф1-|- ... -рфп, Pi * ... * Рп, п^2.) Замечание. Если при рассмотрении композиции ТП Ф — Фх + ... + Фп инте- ресуются «происхождением» отдельных моментов Тд, то вместо ф рассматривают ПТП Фд с пространством меток 3 — {1, ..., и}. Моменты Тп для ПТП Фд и композиции ф совпадают и момент Тп из ПТП Фд имеет метку j тогда и толь- ко тогда, когда он принадлежит ТП фр Композиции для ПТП Фь ..., Фп (с одним и тем же простран- ством меток 3) вводятся также с помощью определения 10.8. Теорема 10.11. Если (фь Pi) и (ф2, Р2) —независимые пуассо- новские процессы с функциями интенсивности Ai(t) и A2(t), при- чем UiDU2=0, то их композиция также является пуассоновским процессом и имеет функцию интенсивности Ai (t)4-A2(t). Если поведение отказов отдельных (действующих независимо друг от друга) элементов последовательной системы описывается с помощью пуассоновских процессов, то это имеет место и для всей системы. Теорема 10.12 [237]. Пусть ф1 и ф2— обычные процессы восста- новления с распределениями наработки Fi(t) и F2(t). Для того чтобы композиция ф1+ф2 была процессом восстановления, необ- ходимо и достаточно, чтобы (фь Pi) и (ф2, Р2) были однородными (стационарными) пуассоновскими процессами. (По теореме 10.11 объект Ф1+Ф2, Pi * Р2 тогда также образует однородный пуассо- новский процесс.) Эта теорема показывает, что структура процесса отказов после- довательной системы даже в простейшем случае, когда элементы восстанавливаются индивидуально, является сложной. Если же число элементов в такой системе велико, а отдельные элементы высоконадежны, то их вклад в процесс отказов системы «прене- брежимо мал», и, следовательно, этот процесс может быть очень хорошо аппроксимирован пуассоновским процессом. Данное об- стоятельство, наряду с теоремой 10.12, подчеркивает значение пу- ассоновских процессов для теории надежности. Для формулировки соответствующей предельной теоремы пред- положим, что для каждого п^1 задана последовательная система из п независимых элементов. Пусть отказы k-го элемента образу- 21* 323
tot процесс восстайойлейия фПк с начальным распределением Fi.nk(t) и распределением наработки Fnk(t). (Это предположение выполнено, если элементы можно заменять индивидуально и за пренебрежимо малое время.) Через Nnk(t) и Nn(t) обозначим счи- тающие процессы, соответствующие процессу -фпк и композиции фп=фп1+. . .. +'фпп. Пусть Hi,nk(t), Hnk (t) — соответствующие функции восстановления (для начальных распределений Fi>nk(t) и Fnk(t)). С возрастанием п «вес» каждого отдельного процесса вос- становления должен становиться все меньше, что выражается в формальном требовании lim max P(Nn. (t) > 1)— lim max F. n. (t) = 0. (10.38 n-»-oolCk<n n-»ool<k<n ’ K Теорема 10.13. Пусть для каждого n=l, 2, ..., фпк — независи- мые процессы восстановления с распределениями наработки и времени восстановления Fi.nk(t), Fnk(t), k=l........п. Пусть эти распределения удовлетворяют условию (10.38). Тогда для сходи- мости конечномерных распределений композиции фп=фп1+ ... ... 4-фпп при п->оо к конечномерным распределениям пуассонов- ского процесса с функцией интенсивности A(t) необходимо и до- статочно, чтобы для всех точек непрерывности и и s функции A(t) (u<s) выполнялись условия n S fFnk(s--t)dH1>nk(t) = A(s)-A(u); (10.39) п->оо, , J k=l и n s fFnk(S-t)dF1.nk(t) = °- (10.40) п->00, , V к=1 и В частности, lim Р (N (t) = j) = (AKt))1 e-A (t). n->oo j! Таким образом, по теореме 10.13 отказы последовательной си- стемы образуют примерно пуассоновский процесс. (Если рассма- тривается система, не являющаяся последовательной, то компо- зиция t|)ni+ ... +t|)nn не идентична процессу отказов системы, а описывает наступление отказов элементов.) Заслуживает внима- ния то, что скорость сходимости в теореме 10.13 высока. Например, в случае одинаковых элементов она имеет порядок 1/п [127]. По- добные предельные теоремы можно доказать, если независимые ТП фок не являются процессами восстановления. Предположение независимости в теореме 10.13 и в аналогичных более общих тео- ремах также является относительно несущественным [66]. Доказательство теоремы 10.13 можно найти в [128], где, кроме того, показано, что условия (10.39) и (10.40) следуют из соотно- 324
шений lim max Fnk (t) = О, (10.41) n->oc к n Iim£ Flink(t)=A(t). (Ю.42) Для обычных процессов восстановления (для всех к справедливо равенство Fi,nk(t)=Fnk(t)), а также в симметричном случае (для всех к справедливо равенство Fnk (t) =Fn (t)) условия (10.41) и (10.42) эквивалентны соответственно (10.39) и (10.40). В допол- нение к теореме 10.13 можно сформулировать следующее асимп- тотическое утверждение. п Теорема 10.14. Пусть An=2 Hj nk(t). Если для всех t i=i lim max H. . (t) — lim max H . (t) = 0, (10.43) n->oo k * n—>oo k то для произвольных max P(Nn(t)-Nn(u)-j)— (A"(t)~^2e-(An (t)-An(u))i -^0. j V n' ’ n ' ' " j I | twoo 10.3.2. СТАЦИОНАРНЫЕ ПОМЕЧЕННЫЕ ТОЧЕЧНЫЕ ПРОЦЕССЫ Для помеченного точечного процесса Ф и и>0 определим сдви- нутый на величину и ПТП 5иФ, так что каждый момент Тп сдви- нут на ту же величину влево, а метки Zn не изменились. При этом моменты Тп, Tn<u, уничтожаются, а остальные сдвинутые момен- ты Тп—и перенумеровываются согласно условию (10.36). Фор- мально это означает следующее SU®=SU{[T„, Zn], n>0}={[T„u, Znu], n>0}; Tou=0, T„“=Tn+N(u)—u, n>l; Znu=Zn+N(U), n>o. ~ _ (10.44) Определение 10.9. Помеченный точечный процесс (Ф, Р) назы- вается стационарным, если для каждого и>0 сдвинутый ПТП БцФ имеет то же распределение Р, что и процесс Ф. Стационар- ность ТП (ф, Р) определяется так же. Если Ф описывает поведение системы на полупрямой [0, оо), то процесс БцФ описывает динамику той же системы, если сдви- нуть начало отсчета времени на и (рис. 10.4). Физически стацио- нарность ПТП Ф означает, что рассматриваемая система находит- ся в стационарном режиме. Очевидно, что ПТП ф={[Тп, Zn]} стационарен тогда и только тогда, когда соответствующий фазо- вый процесс {Z(t)}> т. е. Z(t)=Zn для Tn^t<Tn+i, строго стацио- нарен в смысле определения А.2. 325
z Рис. 10.4. Типичные реализации ПТП Ф и сдвинутого на и ПТП 5иФ Замечание. Для стационарного ПТП при каждом t справедливо равенство P(Tn=t для некоторого п^1)=0. Следовательно, Тп¥=0 для процесса Ф. Пример 10.5. а. Однородный пуассоновский процесс, очевидно, стационарен. б. Если F(t)—функция распределения наработки с конечным математиче- ским ожиданием р,, то по теореме 4.3 стационарный процесс восстановления, определенный с ее помощью и с помощью начального распределения FR(t) = t = — I р (u)du, стационарен. Его моменты восстановления Ть Т2, ... образуют И oJ стационарный точечный процесс в смысле определения 10.9. в. По теореме 10.7 марковский процесс восстановления {[Tn, Zn]} с пара- метрами (qij), Fij(t), i, je3, (см. определение 10.3) стационарен тогда и только тогда, когда начальное распределение удовлетворяет соотношению t • Р?=Рр = (4(«)du- hi J Непосредственно из определения 10.9 получается следующая теорема. Теорема 10.15. Функция интенсивности стационарного ТП или ПТП имеет вид I(t)=at, где a—фиксированное положительное число. Пусть {N(t)} — считающий процесс, соответствующий стацио- нарному ТП ф или ПТП Ф (для процессов восстановления вместо 32Q
N(t) мы используем обозначение Nr(1)). Число а = Е~(Ы(1)) (10.45) называется интенсивностью ТП ф или ПТП Ф. Очевидно, а при этом есть среднее количество моментов Тп на интервале длиной 1. Интенсивность однородного пуассоновского процесса равна а. Ин- тенсивность стационарного процесса восстановления с распреде- лением наработки F(t) равна а=1/р (см. пример 10.5,6 и теорему 4.3). Интенсивность упоминавшегося в примере 10.5,в стационар- ного марковского процесса восстановления, а==1/ц=2 piqijHij (см. i.j теорему 10.6). Другую полезную трактовку интенсивности а стационарного ТП или ПТП дает следующая теорема. Теорема 10.16. Если ф— стационарный ТП с конечной интен- сивностью а, то при Ц0 Р (N (t)> 1) =at+o (t), Р (N (t) > 1) =о (t). (10.46) Отсюда следует, что P(N(t)=l) =at+o(t) и, тем самым, limp<N <>-'> = a. (10.47) Uo t По теореме 10.10 всегда определена композиция стационарных точечных процессов. Более того, справедлива следующая теорема. Теорема 10.17. Пусть (фь Pi) и (ф2, Р2)—стационарные ТП с интенсивностями сч и а2. Тогда ТП, означающий композицию ф1+ +ф2, также стационарен и имеет интенсивность «14-а2. В стационарном случае теорему 10.13 можно видоизменить сле- дующим образом. Теорема 10.18. Если для каждого п процессы восстановления фпк, k= 1,..., п, стационарны с интенсивностями аПк, то для сходи- мости конечномерных распределений процесса фп=фп1+ ... +фпп к конечномерным распределениям однородного пуассоновского процесса с интенсивностью п a = lim 2 ank достаточно, чтобы lim max ank = 0; (10.48) n—>oo k lim max Fnk (t) = 0 для всех f; (10.49) n->oo k n lim S ank = a- n-*°°k=l 327
Поскольку Fnk (t)<Hnk (t) И Hnk(t)^Fnk(t) (Fnk(t) )-1, условия (10.48) и (10.49) эквивалентны. Для справедливости теоремы 10.14 в стационарном случае до- статочно выполнения условия (10.48) или (10.49). * Пример 10.6. Пусть задана последовательная система из многих независимо работающих высоконадежных элементов. Необходимо найти вероятность без- отказной работы системы P(Ti(n)>t), Ti(n)=sup {t: Nn(t)=O) на интервале (0, t]. Если выполнены условия (10.48) и (10.49), то из теоремы 10.14 для всех t и nlim | Р (Т<"> > t)-e~“nt 1 = 0, ап = 2 апк. Если «вклад» каждого из независимо работающих элементов последователь- ной системы в общий процесс отказов равномерно мал в смысле условий (10.48) ! и (10.49), то наработка системы распределена приблизительно экспоненциально (а процесс отказов является приблизительно пуассоновским). 10.3.3. СТАЦИОНАРНЫЕ И СИНХРОННЫЕ ПОМЕЧЕННЫЕ ТОЧЕЧНЫЕ ПРОЦЕССЫ Согласно теореме 4.4 каждому обычному процессу восстанов- ления, наработка которого имеет конечное математическое ожида- ние ц, соответствует однозначно определенный стационарный про- цесс восстановления с начальным распределением t FR(t) = — (*F(u)du. р* •/ о Ясно, что справедливо также обратное утверждение. Теорема 10.7 и пример 10.5,в свидетельствуют о том, что каждой стационарной марковской цепи {[Dn, Zn]}, правила перехода которой заданы с помощью выражений (10.18) и (10.19), соответствует ровно один стационарный марковский процесс восстановления {[Tn, Zn]} с начальным распределением (10.30). Обратное утверждение также верно. Точнее говоря, речь идет о взаимосвязи между распределе- ниями {[Dn, Zn]} и {[ТП, Zn]}. Покажем теперь, что эта связь ни- 1 коим образом не зависит от ограничительных предположений о не- | зависимости, встречавшихся в теориях восстановления и полумар- ковских процессов. $ Определение 10.10. Пусть g={[Dn, Zn], n^0}—стационарная последовательность случайных величин, причем Dn принимает зна- чения из интервала (0, оо), a Zn из множества 3- Пусть также выполнено условие Р[£ Dn (10.50) \п=0 / 328
Помеченный точечный процесс Ф(£) = {[ТП, Zn], п^О} такой, что п—1 То = О, ТП = 2Ц, п>1, (10.51) 1=0 называется синхронным ПТП, порожденным последовательностью (Определение синхронного точечного процесса очевидно.) Простым примером синхронного ТП является обычный процесс восстановления. В этом случае g={Dn}, а случайные величину Dn независимы и одинаково распределены. Если {[Dn, Zn]} — марков- ская цепь, определенная с помощью выражений (10.18) и (10.19) и имеющая начальное распределение pi°=pi, i(=3, F°j (t), то мар- ковский процесс {[Тп, Zn]}, порожденный ею, является синхрон- ным. Распределение Ф(£) однозначно определено с помощью рас- пределения Р для | и обозначается поэтому также через Р. В даль- нейшем используются обозначения (g, Р) и (Ф, Р) вместо выраже-. ний «| есть стационарная последовательность {[Dn, Zn]} с распре- делением Р» и «Ф={[ТП, Zn]} есть стационарный ПТП с распре- делением Р». Обобщением теорем 4.3 и 10.8 служит теорема. Теорема 10.19. Существует взаимно однозначное отображение между множествами {(£, Р) : p,(P) =Ep(D0) <оо} и {(Ф, Р) : 0< <а(Р) =Ep.(N(l))<оо}. Пара (Ф, Р), соответствующая заданной паре (g, Р), определена согласно формуле ОО Р (ф G (•)) = -4г Г р (Do > t, St® (?) G'( •)) dt; (10.52) y-(p) J 0 Наоборот, P(E6(-)) = I*(P)S P(f <1. E(S-®)6(-)). (W.53) T' где g(STj<f>)={[Dj+n, Zj+n], rrX)}, a (•)—произвольное (имею- щее смысл) утверждение относительно ПТП Ф и последователь- ности g. В отличие от процессов восстановления и марковских процес- сов восстановления для определения распределения Р требуется, вообще говоря, знать распределение Р всей последовательности что, однако, не является неожиданным, поскольку независимость ее элементов не предполагается. Тем не менее, формулы (4.45) и 329
(4.46) можно перенести и на общий случай: если применить фор- мулу (10.52) ко всему пространству реализаций g, то а (Р) = 1/ц(Р). (10.54) Властности, из (10.52) следует тх P(f1<x)= -L-rJp(D01>4)dt. (10.55) о Вообще, из формулы (10.52) получается следующая зависи- мость между считающими процессами N (t) и N(t), соответствую- щими процессам Ф и Ф(£) (см. (4.47)): t P(N(t) > k) = (P(N (u)•= k - l)du. о Теорема 10.19 описывает лишь формальную связь между объ- ектами (|, Р) и (Ф, Р). Можно, однако, интерпретировать распре- деление процесса Ф(£) как условное распределение стационарного ПТП Ф, соответствующего последовательности £ по теореме 10.19, при условии, что «начало отсчета есть момент из Ф». А именно, lim(sup | Р(Ф(?)€(.))-Р(5~Фе(-) I L<h) | ) = 0. hjo (•) т> В частности, р (z0 е L)=пш р (z;e l । ft < h). (ю.5в) h 10 Для процессов восстановлений и ПМП (марковских процессов восстановления) стационарные распределения оказываются со- гласно теоремам 4.8 и 10.9 предельными при t—>-оо. В общем слу- чае имеет место теорема. Теорема 10.20. Если для последовательности | выполняется ус- ловие Р(НшТя/п = |»(Р)) = 1, (*) h-H» то справедливы уравнения t lim — С P (БиФ «) е (•)) du = Р (Ф е (•)); (10.57) t->oo t J 0 n n!i“vSP(SfidG(’)) = P(®(?)G(‘))- (10,58) J=J 330
В отличие от теорем 4.8 и 10.9 в выражении (10.56) нельзя заменить начальное распределение, означающее, что «ПТП Ф(£) синхронный», на произвольное начальное распределение. (Здесь нельзя даже определить, что такое произвольное начальное рас- пределение.) Предел по Чезаро, вообще говоря, нельзя усилить. (Для процессов восстановления с арифметической функцией рас- пределения F(t) можно привести контрпример.) Из теорем 10.19 и 10.20 получается следующее, очень важное для применения в теории надежности, толкование соотношений между синхронным ПТП Ф(£) и соответствующим стационарным ПТП. Оба этих процесса описывают динамику одной и той же си- стемы в стационарном режиме. (Имеется в виду, что система на- чинает работу в —оо.) В первом случае система изучается наблю- дателем, который находится в точке произвольного скачка, во вто- ром — наблюдателем, который находится в произвольной точке. Различие между процессами Ф(£) и Ф состоит только в различном выборе начальной точки отсчета времени. Для иллюстрации рассмотрим процесс отказов системы с мгно- венным восстановлением, находящийся в стационарном режиме, и исследуем модели g={D0, Dj, ...} и Ф(£) = {Т0—0, Ть Т2, Нас интересует функция распределения времени между двумя отказа- ми системы и его математическое ожидание. Ясно, что можно вос- пользоваться синхронной моделью: F(t) =P(D0<T), p,==E(Do). При этом указанные характеристики можно вычислить только с помо- F щью уравнения (10.58), например р.= lim _1. Напротив, интенсив- п->оо П ность отказов, введенная для стационарной модели, в синхронной .. N(t) модели определяется как предельное значение а = lim--------. t-»OO ‘ Теорема 10.19 имеет большое практическое значение. При мо- делировании систем часто бывает проще построить соответствую- щую стационарную последовательность g={[Dn, Zn]}. Тогда, со- гласно формуле (10.15) стационарные вероятности состояний си- стемы ОО р, = P(Z (0) = i) = Р (Zo = i) = -МР(D0>t, Z0(St<S($)) = о оо = i)dt = -l— fP(D0>t, Z0 = i)dt, i£3, Iх (H J о поскольку N(t)=O, Zo(StO(g))=Z0 для всех t<D0 (см. выраже- ние 10.44). Часто интересуются моментами только тех скачков, после кото- рых система обладает определенным свойством, т, е. находится в 331
определенном подмножестве состояний S (например, в множестве состояний отказа). В этом случае поведение системы также можно описать с помощью некоторого ПТП Ф^, который получается из первоначальной модели процесса при выбрасывании всех пар I (Tn, Zn] таких, что Zn^S, и перенумерации оставшихся пар [Tj, [ Zj] согласно условию (10.36). Если процесс Фд — стационарный, то таким же будет и процесс Ф^. Интенсивность последнего = S Р(ТП<1, ZnG®). (10.59) П = 1 Отсюда, а также из формул (10.53) и (10.54) следует P(Z0G®) = ^- (Ю.60) (см. также соотношения (10.27) для марковских процессов восста- * новления, где 93 = {j}, а = — и — д—j. । Пусть заданы стационарный ПТП (Ф, Р) и соответствующая | стационарная последовательность (g, Р) (см. теорему 10.19). Рас- | пределение синхронного ПТП Ф(|) называется распределением ’ Пальма для процесса Р и обозначается Р°. Теорема 10.21. Пусть (Фь Pi), ..., (Фп, Рп) —независимые ста- ционарные ПТП с интенсивностями ai, ..., an. Распределение Паль- ма композиции (Ф1+ ... 4-Фп) определяется по формуле (P1*...*PJ(.) = —^1—_{Рг0*(Рг...»Рп)](.)+... | •••+—-[(Р1»-*Рп_1)*Рп01()- (10.61) “1+ • • • + “и Пример 10.7. Пусть задана последовательная система из взаимно независи- мых элементов. Отказавшие элементы сразу же восстанавливаются. Предпола- гается, что система уже находится в стационарном режиме и функции распре- деления времени между двумя отказами Fj (t) для каждого элемента известны. Пусть 8 _ р, = j* Fj(t) dt < 0, i = 1, ..., n. 6 Определим функцию распределения F(t) времени между двумя отказами систе- мы и его математическое ожидание. С помощью формулы (10.54) получаются 332
йнтенсйбйбстй бтказоб МеМентоб |Х1^=1/а1. Интенсивность отказов системы а= = «i+ ••• +«п. Еще раз применяя формулу (10.54), получим 1 / 1 1 \-1 a =Ur+""+l‘n) • Если обозначить через Pi распределение стационарного процесса отказов для i-го элемента, то согласно формуле (10.61) п оо F (t) = (Р,> ...» Рп)0 (Tf> 1) = (t) П j FJ W du> (10-62) 1=1 J=M t Еще раз обратим внимание на то, что при выводе выражения (10.62) не требуется предположения независимости элементов. Процессы восстановления обсуждаются, например, в [156]. Случай, когда время восстановления не явля- ется пренебрежимо малым, рассматривается в подразд. 11.1.3. 10.4. ПРОЦЕССЫ С ВЛОЖЕННЫМ ТОЧЕЧНЫМ ПРОЦЕССОМ В предыдущем разделе было установлено, что помеченным точечным процессам (ПТП) взаимно однозначно соответствуют стохастические процессы с кусочно-постоянными реализациями, причем пространство меток в ПТП совпадает с пространством состояний системы. Далее, было показано, что каждому стацио- нарному ПТП взаимно однозначно соответствует синхронный ПТП, который описывает стационарный режим той же самой системы, но с точки зрения наблюдателя, находящегося в точке произволь- ного скачка. В этом разделе утверждения обобщаются на мо- дель, которая для многих приложений оказывается полезнее (см., например, [131]). Откажемся от предположения, что фазовый процесс Z (t) имеет кусочно-постоянные реализации. Определение 10.11. Пусть £={Z(t), t>0} — случайный про- цесс со значениями в множестве 3, реализации которого непре- рывны справа и имеют предел слева. Пусть также {Тп, п^О} — случайный точечный процесс на том же вероятностном простран- стве. Тогда пара [|, i|>] = [{Z(t)}, {Тп}] называется случайным процессом с вложенным точечным процессом (ПВТП). Моменты Тп вложенного ТПгЬ называются вложенными моментами ПВТП [L Ф]. Слова «на том же вероятностном пространстве» означают только то, что £ и *ф описывают одно и то же стохастическое явле- ние. В приложениях чаще всего встречается случай, когда Тп означают моменты пересечения заданного уровня или попадания в заданное множество, например в множество 3- (тогда Тп— моменты отказов системы). Может также встретиться случай, когда Тп означают моменты внешних воздействий, например 333
Изменений нагрузки. В качестве примера ПВТП можно привести полумарковский процесс {Z(t)}, где в качестве вложенных мо- ментов выступают j-восстановления, Z(Tn + O)=j. Вложенные моменты Тп разбивают процесс {Z(t)} на циклы [Ln, {Zn(t), O^t< <Ln}], где Zn(t)=Z(Tn+t) при 0<£t<Ln, (10.63) a Ln=Tn+i — Tn — длина цикла. Для краткости вместо [Ln, {Z(t), O^t<Ln}] пишем {Zn(t), 0<t<Ln}. В соответствии с разд. 10.3 каждый помеченный точечный про- цесс является кусочно-постоянным стохастическим процессом и поэтому представляет собой ПВТП, причем Тп — моменты скач- ков. С другой стороны, ПВТП можно интерпретировать как ПТП, рассматривая циклы {Zn (t), O^t<Ln) как метки момен- тов Тп. Конструкцию соответствующего пространства меток можно найти в [133], а также в [131, § 1.5]. Поэтому можно перенести на ПВТП все утверждения, приведенные в подразд. 10.3.4 для ПТП. Непосредственное изложение теории ПВТП содержится в [330]. Другой подход к ПВТП, основанный на так называемом принципе сохранения интенсивности, предложен в [191], см. так- же [131, § 1.6]. Пусть [g, ф] = [{Z(t)}, {Тп}]—ПВТП. Для каждого числа и>0 определим ПВТП Su[g, if], сдвинутый на величину и, сле- дующим образом. Часть процесса {Z (t), u^t) и моменты Тп та- кие, что Тп—и^О, сдвигаются влево на величину и, а моменты Тп перенумеровываются согласно условию (10.36). Часть {Z(t), 0^t<u} процесса {Z(t)} и моменты Тп такие, что Тп—и<0, уни- чтожаются. Формально Su[g, if] = [{Z(u+t), t>0}, {Tmu, m>0}], где T0u=0, Trau=Tn+N(u)—u, N(u)=max{n:Tn^u}. Определение 10.12. а. Процесс ПВТП [j, if] с распределением P называется ста- ционарным, если для каждого u>0 сдвинутый ПВТП Su[^ if] имеет то же самое распределение. б. Интенсивностью а стационарного ПВТП [g, if] называется интенсивность вложенного точечного процесса if. Как уже упоминалось, циклы ПВТП представляют собой слу- чайные элементы со значениями в некотором подходящем функ- циональном пространстве. Поэтому можно говорить о стационар- ной последовательности циклов {{Zn(t), O^t<Ln}, п^О} (см. определение А.2). Среднюю длину цикла для стационарной по- следовательности циклов обозначаем через р, и в дальнейшем всегда полагаем 0<ц.<оо. Определение 10.13. Процесс ПВТП [g, if] = [{Z(t), t^0}, {Tn, n^sO}] с распределением Р называется синхронным, если его последовательность циклов стационарна. 334
Очейидйо, регенерирующие процессы яНЛяютсй частным сЛу^ чаем ПВТП, причем их циклы взаимно независимы и для п^1 одинаково распределены (см. разд. 4.8)* (Обратим внимание, что в разд. 4.8 мы начинали нумеровать циклы с 1). Очевидно, ПВТП [£, ф] синхронный тогда и только тогда, когда он инвариантен по отношению ко всем случайным сдвигам Sfn, т. е. если ПВТП [{Z(t+Tn), t^O}, {Tn+j—Tn, j^O}] имеет то же распределение, что и процесс [£, ф]. По аналогии с теоремой 10.19 имеет место теорема. Теорема 10.22. Существует взаимно однозначное отображение между множествами {Р: Р есть распределение синхронного ПВТП} и {Р : Р есть распределение стационарного ПВТП с ко- нечной интенсивностью}. Соответствующие друг другу распреде- ления Р и Р связаны следующими выражениями: 00 Р(|1 Йе(-)) = Y Jp(U> u> sufr Ф1е(-))ди; (10.64) о /N(D ~ \ Р(15, Ф]С(-)) = ИЕ? 2) Ф1) > \ i=i 1 / (10.65) где 1(.) означает индикатор множества (•). Согласно формуле (10.54) снова а=р,-1. Выражение (10.64) можно преобразовать к эквивалентному виду: Lo J i(.>(su[e, f])du о p(M1g(0) = ve₽ г (10.66) Для процессов {Z(t)} и (Z(t)} из формулы (10.64) получаем ОО P({Z(t), t > 0}G(->) - yJP(L0>u, {Z(t + u), t>0}e(.))du. r 0 (10,67) В частности, 00 P (Z (0);g «) = — f p (Lo > u, Z (u) e 6) du. (10.68) Iх J 0 Применение обычных методов интегрирования позволяет из вы- ражения (10.66) получить утверждение: для каждой неотрица- тельной функции g, заданной на множестве 3, (10.69) о 335
Выражения (10.67) и (10.68) формально не отличаются от (4.86) и (4.88), однако они получены без предположения о неза- висимости циклов. Замечание. Из рассуждений, проведенных в начале раздела, вытекает, что выбор вложенных моментов Тп может быть весьма произволен. Ниже мы пока- жем на примерах, что исследователь может существенно облегчить вычисление характеристик надежности системы надлежащим выбором вложенных моментов. При этом следует обратить внимание на следующее обстоятельство. Пусть [{Z(t)}, {Тщ}] и [{Z(t)}, {Т2П}] — два стационарных ПВТП с распределениями Pi и Р2. Предположим, что процесс {Z(t)} в обоих случаях один и тот же: Pi({Z(t)}e(-)) = P,({Z(t)G=(.)}). (10.70) Пусть, кроме того, [{Zi(t)}, {Тщ}] и [{Z2(t)} {Т2п}]—соответствующие синхронные ПВТП, распределения Pi и Р2 которых получают из распределений Pi и Р2 с помощью выражения (10.65). Тогда из соотношений (10.70) и (10.67) следует 00 P({Z(t), t>0}G(-)) = — [p1(L1.0>u, {Z^t + u), t>0}e(-))du = H J о 00 =— fPa(L2,o>u. {Z2(t+u), t>O}€=(-))du. (10.71) P*2 J 0 Это означает, что стационарные вероятности всегда можно вычислить с по- мощью выражений (10.67) или (10.68), независимо от того, как выбраны ело* женные моменты синхронного процесса. Наглядный пример сказанному — полу- марковские процессы. Для каждого j можно построить синхронный ПМП, в ко- тором для всех к надо положить pj°=l и Fjk (t)=Fjk(t). Однако все эти синхронные процессы приводят к одному и тому же стационарному ПМП, опре- деленному по формулам (10.31). Уравнение, аналогичное (10.56), можно записать также для ПВТП: lim(sup|Р([5, |je(-))-P(Sr,[i Йе(-) I T,<h) I ) = 0. (10.72) h|0 (•) Как и для помеченных точечных процессов, распределение Р стационарного ПВТП [g, ф] можно получить как предельное рас- пределение соответствующего синхронного процесса (и наоборот). Теорема 10.23. Пусть [§, тр] — синхронный ПВТП такой, что (п—1 \ lim _LVl. = |x = 1. п—>оо П I i=0 7 336
Тогда t f P(SU[5, <[>]G(-))du = Р(|К ф1£(-)) (10.73) t —>00 I J 0 и, в частности, t lim — f P (Z (u\G @) du = P (Z (0) G S). (10.74) t-*OO t J 0 Из теорем 10.22 и 10.23 следует, что стационарный ПВТП и соответствующий ему по теореме 10.22 синхронный ПВТП можно рассматривать как эквивалентные модели для описания динамики одной и той же системы в стационарном режиме. В первом слу- чае начало отсчета времени выбрано произвольно, а во втором совпадает с одним из вложенных моментов. Замечание на стр. 336 свидетельствует о том, что для заданной системы, находящейся в стационарном режиме, существует ровно один стационарный фазовый процесс {Z(t)}. Напротив, с помощью синхронных фазо- вых процессов эту систему можно описать различными способами в зависимости от выбора вложенных моментов. Полурегенерирующие процессы. В случае, когда циклы (как случайные элементы со значениями в функциональном простран- стве) образуют марковскую цепь, часто бывает легко построить со- ответствующий синхронный ПВТП и вычислить согласно выраже- нию (10.64) стационарные характеристики рассматриваемой си- стемы. Особенно простой пример — марковские и полумарковские модели. Теоретически не сложное, но весьма плодотворное для при- менений обобщение полумарковских процессов представляют собой полумарковские процессы с вспомогательными траекториями, или в современной терминологии — полу регенерирующие процессы [276, 86]. Образно говоря, речь идет о процессах с вложенным мар- ковским процессом восстановления. Пусть 83= {1, 0, ..., п} — подмножество пространства состояний 3- Пусть {Z(t)}—стоха- стический процесс. Вложенными моментами назовем такие Тп, для которых состояния Zn=Z(Tn+0) принадлежат подмноже- ству 53. Определение 10.14. Процесс ПВТП [{Z(t)}> {Тп}] называется полурегенерирующим, если последовательность циклов {{Zn(t), O^t<Ln}, n^0) образует марковскую цепь со следующими пере- ходными вероятностями: P(Zn=j, {Zn(t), 0^t<Ln}eC|Zn_1=i, {Zn-i(t), 0<i<Ln-i))=qijQ(C), (10.75) 22-6301 337
где Для i, je®, il^l qij=P (Zn=j |Zn—i = i); Qj(C)=P({Zn(t), (Xt<Ln}eC|Zn=j). (10.76) Распределение полурегенерирующего процесса однозначно определяется переходными вероятностями (10.75) и (10.76), а также начальным распределением Pio=P(Zo=i), Qi°(C) — P({Z0(t), 0<t<L0}eClZo=i), ie=S3. (10.77) Таким образом, динамику полурегенерирующих процессов можно описать следующим образом. Вначале с помощью начального рас- пределения (10.77) задается значение 0-го цикла. Затем с по- мощью стохастической матрицы (qij) «разыгрывается» состояние Zj. Если Zi=j, то течение первого цикла определяется условным распределением Qj(C) и т. д. Если подмножество $ состоит из одного элемента, то получается регенерирующий процесс. Если значение процесса не меняется на интервале между вложенными моментами, т. е. Zn(t)=Zn для O^t<Ln, то получается полумар- ковский процесс с пространством состояний Э. В общем случае п—1 {[T®,n, Zn]}, где п = 2 L(, является марковским процессом i=0 восстановления, т. е. процесс {Z(t)}, где Z(t)=Zn для Tn^t<Tn+i, п:>0, представляет собой ПМП. (Это объясняет первоначальное название полурегенерирующих процессов: «ПМП с вспомогатель- ными траекториями», причем {Zn(t), O^t<Ln} есть n-я «вспомо- гательная траектория».) Теорема 10.24 [10]. Для того чтобы распределение Q(j, С) = =P(Zo=j, {Zo(t), O^t<Lo}eC) было начальным распределени- ем марковской цепи {Ln, {Zn(t), O^t<Ln}, п^гО}, необходимо и достаточно, чтобы Q(j, C)=PjQj(C) для всех j и С, (10.78) где (pj) — стационарное начальное распределение вложенной марковской цепи {Zn}. Ниже предполагается, что вложенная марковская цепь непри- водима. Тогда она имеет ровно одно стационарное начальное распределение. По теореме 10.25 получаем синхронный полуреге- нерирующий процесс [{Z (t)}, {Тп}] с параметрами (qij) и Qi (С), полагая, что начальное распределение pi°=pi, Qi°(C), ieS. Пусть Fi(t) =P(L0^t|Zo=i)=Q'i(L0^t), ОО P>(= jF,(t)dt, l*= 2 P‘1V 0 ie2 338
Пусть также ц—«типичная» средняя длина цикла для синхрон- ного полурегенерирующего процесса. Распределение Р соответ- ствующего стационарного полурегенерирующего процесса [{Z~(t)}, {fn}] получается с помощью формул (10.64), (10.67) — (10.69). Например, Pj = Р (Z (0) = j) — (1 /р.) I |*Е J J 1 {j} (Z (t)) dt I Zo = j). j e 58. (10.79) Для полурегенерирующих процессов можно усилить эргодиче- скую теорему 10.23 следующим образом. Теорема 10.25. Для каждого начального распределения t lim -У f Р (Su [Ml G (•)) du = Р (О £ (• ))> t->OO t J 0 где [g, ф]—полурегенерирующий процесс с заданным начальным распределением, а [§, ф]—стационарный полурегенерирующий процесс с теми же параметрами (qu) и (Qj (С)), что и процесс [£. ф]- В частности, t lim — [P(Z(u)eS)du = P(Z(0)GS), Scg. t->oo t J 0 Точно так же, как и для полумарковских процессов, можно ввести понятие k-восстановления для полурегенерирующих про- цессов. Из фундаментальной теоремы восстановления следует, что если, по крайней мере, для одного к функция распределения вре- мени возвращения в состояние к не является арифметической, то limP(St[$, ф] e(.))du = P([f ф] (=(•))• (10.80) t->00 Замечание. Можно сделать несколько обобщений рассмотренных полуреге- нсрирующих процессов [10]. Например, вместо Qj(C) можно допустить зависи- мость вида Q.j(С) =P({Zn(t), 0^t<Ln}eC|Zn = i, ZP+i = j). Эргодическая теоре- ма 10.25 справедлива также для общих пространств 3 и S [330]. В этом случае непосредственное применение методов теории восстановления невозможно. 339
ГЛАВА 11. АНАЛИЗ НАДЕЖНОСТИ ВОССТАНАВЛИВАЕМЫХ СИСТЕМ СПИСОК ОБОЗНАЧЕНИЙ время до первого отказа системы, начальное состояние которой описывается событием 91 V) X F(t) xR P(X^^t) время между двумя отказами системы P(X<t) время между двумя отказами системы, находящейся в стационарном режиме FR(t) К P(XR^t) интенсивность отказов системы Hi Xi Vi Pi {Zi(t)} Z(t) средняя наработка элемента ei 1/И1 средняя продолжительность восстановления элемента ei 1/Vi синхронный фазовый процесс для элемента ef (Z,(t) Zn(t)) {Zi(t)} стационарный фазовый процесс для элемента ei Z(t) (Zi(t), .... Zn(t)) Введем некоторые обозначения и определения. Пусть — время до первого отказа системы, начальное состояние которой описывается событием 31, и F^ (t) — функция распределения • Если {Z(t)}—фазовый процесс с распределением Р, то (ty= р (inf {u/.z (u) e8_}[<t । z;(0)G9f). Как правило, нас интересует случай 31= {0}, где 0еЗ+ — состоя- ние, в котором «все элементы системы в момент 0 новые». Для того чтобы определить стационарные характеристики на- дежности системы, считаем, что она находится в стационарном режиме уже в момент 0 (т. е. работает, начиная с —оо). Из разд. 10.4 известно, что существуют две модели для описания динамики такой системы. В качестве первой рассмотрим синхрон- 340
ный процесс [{Z(t)], {Tn}], Tn> n>0, задаваемый условием Z(Tn-0)^Z(Tn + 0)e3+ (ПО или даже Z(Tn-0)e=3-, Z(Tn+0)G=3+- (11.2) Пусть P — распределение такого процесса. Длина каждого цикла Ln=Xn + Yn, где Хп — наработка, a Yn— продолжительность отказа в n-ом цикле. Из условия (11.1) .сле- дует P(Yn^0) = l, в то время как из условия (11.2) следует P(Yn>0) = l. Поскольку циклы {Zn(t), O^t<Ln} образуют ста- ционарную последовательность, можно опустить индекс и и обо- значить через L, X и Y «типичную» длину цикла, наработку и продолжительность отказа за цикл. Пусть F(t)=P(X<Jt) и G(t)=P(Y^t)—соответствующие функции распределения. В ли- тературе по теории надежности для величины X утвердилось на- звание «время между отказами системы». Очевидно, v [ inf {u : Z (и) 6Е 3_}, если Y > О, А = < (Lb противном случае. Математические ожидания ЕР(Х) и EP(Y) называются соответ- ственно средним временем между отказами системы и средним временем восстановления. В случае P(Y=0)>0 эти названия для X и ЕР(Х)) не совсем корректны — имеются в виду фактиче- ская и средняя наработки за цикл в стационарном режиме. Пусть теперь [{Z(t)}, {Тп}]—стационарные ПВТП, соответ- ствующий согласно теореме 10.9 процессу [{Z(t)}, {Тп}] и имек> щий распределение Р. Напомним, что процесс [{Z(t)}, {Тп}] опи- сывает динамику той же системы в стационарном режиме, однако начало отсчета времени соответствует произвольному моменту. Поэтому вероятность K = p(z(0)es+) (п.з) мы называем (стационарным) коэффициентом готовности системы. Если за модель рассматриваемой системы принять синхронный ПВТП, то по теореме 10.23 t K=lim—[P(Z(u)G3+)du, (11.4) t—>00 t J 0 и величина К совпадает с усредненным по периоду коэффициен- том готовности, определенным в разд. 4.7, правда, при очень спе- цифических начальных условиях. Для систем, которые можно моделировать с помощью полурегенерирующих процессов (см. разд. 11.2), предел (11.4) имеет место для любых начальных 23—6301 341
условий (см. теорему 10.25), и К есть коэффициент готовности в обычном смысле. Стационарный коэффициент оперативной готовности опреде- ляется как Kx=P(Z(u)ge3+, 0<u^x), х^О. (11.5) Если ввести функцию распределения F (t) = Р (inf {u : Z (и) е=3-}<t | Z (0) е=3+) то, как это будет показано ниже (см. формулу (11.8)), ОО Kx = K(l-F(x)) = K-^-fF(u)du. Е (Л) J х Таким образом, в обозначениях разд. 4.8 F(t)=FR(t). Случайную величину XR с функцией распределения FR(t) можно назвать остаточной наработкой системы, которая к началу наблюдения, скажем к моменту 0, исправна. В литературе X называют нара- боткой системы в стационарном режиме при условии, что она исправна в момент 0. Эта формулировка корректна в смысле утверждения (10.71). Часто вместо X и XR используются также обозначения Ts и ТЕ. Если [{Z(t)}> {Тп}] и [{Z(t)}, {Тп} ]— соответственно син- хронный и стационарный процессы, которые описывают поведение системы в стационарном режиме, то. величины pi=P(Z(O)=j) и pj=P(Z(O) =j), j&3 называются соответственно вложенными стационарными и стационарными вероятностями состояний. В разд. 11.1 излагается общий подход к вычислению стацио- нарных показателей К, Кх и (pj) и изучается стационарный коэф- фициент готовности монотонной системы, элементы которой вос- станавливаются индивидуально. Полученные результаты приме- няются затем к марковским и полумарковским моделям, причем в этих случаях возможно также определение функции распреде- ления времени между отказами системы. Относительно вычисле- ния кумулятивных величин, таких, как общая продолжительность отказа за время (0, t] при очень слабых предположениях относи- тельно независимости, следует указать [329]. В разд. 11.2 обсуждается возможность моделирования избы- точных восстанавливаемых систем с помощью полумарковских и полурегенерирующих процессов. При этом оказывается, что полу- марковские процессы являются важным вспомогательным сред- ством вычисления времени до первого отказа системы. Для моде- лирования поведения на длительном интервале времени и вычис- ления стационарных показателей надежности ПМП мало при- годны, чего нельзя сказать о полурегенерирующих процессах. Этот 342
тезис будет проиллюстрирован на нескольких примерах. В разд. 11.3 приводятся известные оценки и приближения для стационарных и нестационарных показателей надежности. По нашим сведениям лишь немногие работы посвящены вы- числению стационарных показателей надежности по результатам испытаний. Большинство из них содержат определение довери- тельных границ для коэффициента готовности К простой системы с восстановлением [340, 160, 161, 258, 81, 143, 144J. 11.1. ВЫЧИСЛЕНИЕ СТАЦИОНАРНЫХ ПОКАЗАТЕЛЕЙ НАДЕЖНОСТИ Теорема 11.1. Стационарный коэффициент готовности К (11.3) и стационарный коэффициент оперативной готовности Кх (П-5) системы вычисляются по формулам Ер(Х) _ ЕР(Х) . Ep(L) Ep(X) + Ep(Y) ’ k оо оо К,= ЁЧ1Т f p(X>u)du= Дг |'F(u)du, (11.7) Ч J Ep(L) J х х где L—длина цикла; X — время между отказами системы; Y — продолжительность восстановления в «типичном» цикле. Доказательство. Из выражения (10.66) получаем оо Кх = Р (Z (t) GE 3+, 0<t<x) =—— [p(L>u, Z(t + u)G kp (M J 0 do e3+0<t<x)du = —— Cp(L>u, Z(t)e8+, u<t<u + x)du = Ep(4 J 0 oo oo JP (L>X>u + x)du=g^r)Jp(X>u)du. 0 x Таким образом, формула (11.7) доказана. Поскольку К=ИшКх, получаем фор- х|0 мулу (11.6). Исходя из формулы (11.6) можно представить (11.7) в виде Кх = KFr (t), где Fr (t)> J F (u) du. (11.8) Сравнивая формулы (11.6) и (4.73), а также (11.8) и (4.72), видим, что формального различия между простой системой и 23* 343
; системой, имеющей структуру, иет. Что касается содержания, то ; различие очень велико, поскольку для простой системы правые 1 части в формулах (11.6) и (11.8) известны или могут быть легко I вычислены, в то время как для системы, имеющей структуру, их нужно определить. При вычислении стационарных вероятностей состояний будем [ полагать, что все моменты скачков системы являются вложенны- ми моментами, для чего построим синхронным процесс [{Z'(t)}, {Т'п}]. Пусть ц' = Ер,(Ь') = з гдер/=Р'(2/= Яин/=Ер,^Ь/го'= ! ie3 = j), jG3+. Из утверждения (10.68) получаем р =P(Z(0) = j)=-^-Ер, ( [1 (Z'(t))dt)-^L^-. (11.9) i Таким образом, для стационарных вероятностей состояний произ- вольной системы справедлива формула, которая с точностью до обозначений совпадает с формулой (10.35) для полумарковских процессов. Однако и здесь надо указать, что правую часть в фор- муле (11.9), вообще говоря, следует специально находить. Другая формула для стационарных вероятностей состояний получается, если использовать синхронный процесс [{Z"(t)}, {Т"п}] такой, что все члены {Т"п} содержатся в заданном множестве 8^3- Тогда, соответственно изменив обозначения, находим Р.-Ё^РДР/'4/'. О'-Ю) причем A/' = Ep,7LJ l{j}(Z"(t))dt|Z0" = j) X о / есть условное среднее время пребывания в состоянии j при усло- вии, что система в момент 0 находится в этом состоянии. С точ- ностью до обозначений формула (11.10) совпадает с формулой (10.78) для полурегенерирующих процессов. Предложение использовать ПВТП для вычисления характе- ристик надежности систем было сделано в частности в [257], Результаты этого раздела восходят к [132, 134]. Справедливость формулы (11.9) для полурегенерирующих процессов доказана । в [9], формулы (11.6) —в [129]. 344
i 11.1.1. МАРКОВСКИЕ МОДЕЛИ Нестационарный коэффициент готовности вычисляется с по- мощью выражения (10.4). Время Х^до первого отказа системы при условии Sl={Z(O)=k}, кеЗ+, а также его среднее значение Е(Х{йр получаются, вообще говоря, из уравнений (10.10). Слу- чай процессов гибели и размножения рассмотрен в [156, § 4.3, § 4.4]. Если 3+={0, • , к—1} и 3-={к, ..., п}, то среднее время до первого отказа системы (см. раздел 10.1) k—i / j ~ ~\ E<X{Op = S 2 P/Vib j=0 \i=0 / причем X,пх = Vn о , а р. задается выражением (10.9). Стационарный коэффициент готовности по определению к= S pk = f2 1 3 РЛ’Ь = а1 ’> <п п) кеЗ+ \ 1еЗ J кез+ где pi(pi)—стационарные (вложенные) вероятности состояний (см. выражения (10.8) и (10.14)). Если в качестве вложенных взять моменты переходов из 3- в 3+ (см. условие (11.2)), то Используем вероятности P(Z(+0)=i), i(=3 И P(Z(X+0)=i), i=3-. Для марковской модели P(Z(-|-0)=i) есть условная вероятность того, что совершился переход в состояние i при условии, что произошел переход из 3- в 3+* 2 w P(Z( + 0) = i) = qi(3+) = -—, iG3+. (11.13) 2 Pj^ik je8- ke3+ Аналогично, 3 Pj^Jf P (Z (-{-0) = i) = q. (8_) =-1^8±-------, iG3- (11.14) 2 2 Pj4jk jeS+keS- 345
По формуле полной вероятности Р*(8)= 3 ч, (3+) w;>3+ (S); 1е8+ (И.15) ЕР(Х)= S Ч,(3+Ц * ; 1е8+ ’3+ (Н.16) G*(s)= S q, (3_) w;>8_ (s); 1е8- (Н.17) EP(Y)= S g,(3_), , • ie8- (П.18) Часто бывает целесообразнее определять 1/(ЕР(Х)+EP(Y)) по формуле (10.60). При этом отношение °. *(®) = (Ep(X)+Ep(Y))-, Ме8 / P(z0G®)= — S S Pflij- « ie8-je8+ Имеет место равенство ------!------= V V Р|Ч,1... (11.19) Е₽(Х) + ЕР(У) S РЛ кед Из выражения (11.12) и равенства (11.19) следует Ер(Х)= S РЛ(' S 2 р14цу ; (11.20) ке8+ Ме3-1е3+ J Ep(Y)= S РЛ f S Р1%^ • (11-21) кеЗ- МеЗ+ 1еЗ- / Можно выразить математические ожидания ЕР(Х) и ЕР(У) через стационарные вероятности состояний (pi) и переходные интенсив- ности (aij). Пример 11.1. (Продолжение примера 10.3.) Выберем в качестве вложенных моменты окончания ремонта какого-либо элемента. Очевидно, Z(Tn)=0, если продолжительность Y'n-i (п—1)-го ремонта (окончившегося в момент Тп) мень- ше, чем остаточная наработка рабочего элемента Х'п-1, отсчитываемая от начала (п—1)-го ремонта. Вероятность данного условия была уже вычислена, а с уче- том экспоненциальное™ распределения (Х=а) наработки она равна qiQ=3
“ФЛН-Р)» P(Z(Tn)=l) = q 12=V(H~P)- Для типичного цикла L (Y', и х _f min (х'> y')’ ~ I min (X/, X/) 4- Y' И I min (Xx', X/) + min (X', Y'JI, в зависимости от того, начинается цикл в состоянии 1 (верхняя строка) или в со- стоянии 0 (нижняя строка). Следовательно, из формул (11.6) и (11.7) Ер (L) = 1/р Ч-?---, ЕР(Х) = ——4----------; Р /РТ(Х + ₽)2Х’ pV 7 Х+?Ч* + р)2Х’ К = 1/(^ + р)+р/(Х + р)2\_ 2-Х/(Х + р) . t(2X)-i(2Х/р + р/ (X + р)) 2Х/р + р (X + р) ’ (оо оо \ f е-(х+Р) “du + 4- f е—2X“du = J Л + p J / X X ' 2Xp (e~(X+p) + pe~2>,x) 2X(X+p) + p’ В заключение заметим, что при вычислении коэффициентов К и Кх не использовалось марковское свойство. Для произвольной функции распределения G(t) времени восстановления Y'a вычисления проводят аналогично [134]: EP(L)=E(Y')4-G*(X)/2X, к- 2-G*W G* (X) + 2ХЕ (Y') ’ 00 Je~xt( 1 — G (t)) dt + G* (X) е-2Хк/2Х JZ x, , ______________________________ x E (Y') + G* (X)/2X 11.1.2. ПОЛУМАРКОВСКИЕ МОДЕЛИ Время до первого отказа системы, которая в момент 0 находи- лась в исправном состоянии kG3+(Р° = 1> F°j(t) = Fkj(t)), равно X{k} = Vk (см. п. 10.2.1). Величины F{k} (t), F{k} (s) и E(X{k}) можно определить с помощью уравнений (10.24) — (10.26). Если выбрать вложенные моменты согласно условию (11.2), то стационарные характеристики надежности К, F*(s), Е(Х), G*(s) и E(Y) снова вычисляются по формулам (11.12), (11.15):— (11.18). Средняя наработка и среднее время восстановления за цикл могут быть также определены непосредственно по форму- лам (11.20) и (11.21). Замечание. На первый взгляд кажется — и это впечатление усиливается не- которыми работами и монографиями по теории надежности, что полумарковские процессы подходят для описания динамики широкого класса систем. В разд. 11.2 будет показано, что это действительно так по отношению к описанию поведения системы до первого отказа. Для описании поведения системы на длительном 3V
интервале времени и, следовательно, для определения стационарных показателей надежности ПМП столь же хороши, сколь и непригодны. Дело в том, что прихо- дится ограничиваться системами, элементы которых восстанавливаются пооди- ночке (нет восстановлений блоками). Для того чтобы систему можно было описать с помощью ПМП, нельзя ни для какого момента скачка Тп (момента изменения состояния) задавать наработку или время восстановления, распреде- ленными иначе, чем экспоненциально. В противном случае длина интервала Dn = = Tn+i—Тп зависела бы от того, как долго уже длятся не экспоненциально рас- пределенные наработки и восстановления. Это означает, помимо прочего, что в системах с несколькими одновременно функционирующими элементами (без ненагруженного резерва) распределения наработок должны быть экспоненциаль- ными, иначе «полумарковость» системы относительно моментов окончания восста- новления пропадает. Если же имеются несколько приборов обслуживания, то должны быть экспоненциально распределены длительности восстановления, по- тому что иначе «полумарковость» отсутствует как относительно моментов отка- зов, так и относительно моментов окончания восстановления. В системах с несколькими одновременно работающими элементами (нара- ботки их по необходимости распределены экспоненциально) и одним прибором обслуживания, имеющим неэкспоненциальное время обслуживания, полумарков- ское свойство нарушается в моменты, когда во время восстановления одного элемента отказывает другой. По этой причине поведение определенной системы описывают с помощью ПМП до первого отказа. Полумарковские модели, исполь- зуемые для описания системы на длительном интервале времени, в действитель- ности оказываются марковскими [194]. Исключение составляют, как уже упо- миналось, системы с ненагруженным резервом или с восстановлением блоками. И.1.3. МОНОТОННЫЕ СИСТЕМЫ С ИНДИВИДУАЛЬНЫМ ВОССТАНОВЛЕНИЕМ ЭЛЕМЕНТОВ Рассмотрим монотонную систему с п независимыми и индиви- дуально восстанавливаемыми элементами. Структурную функцию обозначим через <р, а вероятность безотказной работы системы — через h (см. гл. 8). Предположим, что к моменту 0 система уже находится в стационарном режиме. Поведение i-ro элемента со- гласно разд. 10.4 описывается с помощью стационарного бинар- ного процесса {Z<f> (t)} или с помощью соответствующего синхрон- ного процесса {Z<i>(t)}, i=l, ..., п. Циклы процесса {Z<!>(t)} имеют вид «/(О/п-Г1 для 0<t<X^, lo для X«,<t<X<!) + YS’. m>o, где Хп/1’ и Ym(i> означают последовательные наработки и време- на восстановления i-ro элемента. Поведение всей системы можно описать с помощью стационарного процесса {Z(t)} = {[Z<*>(t), ... ..., Z<n>(t)]} или с помощью соответствующего синхронного про- 348
цесса {Z(t)} = {[?<*>(t), ..., £(n)(t)]} с вложенными моментами Tm, причем <p(Z(Tm+O)) = l, <p(Z(Tm—0))=0 (моменты оконча- ний отказа системы). Обратим внимание на то, что бинарные про- цессы Z(i)(t) и Z<'>(t), вообще говоря, не тождественны. Положим Hi=E(Xm(i)) и Vi=E(Ym(I)). Согласно формуле (11.6) коэффици- ент готовности i-ro элемента определяется как Kj = P(Z(i) (0) = O^ix^+v,) и тем самым коэффициент готовности системы (см. (8.22)) К = Р(? (Z (0) = 1) - h (Р (Z(1) (0) = 1), .... P(n) (Z(n) (0) = 1)) = = h(K*.....Kn). (11.22) Если синхронный процесс {Z(t)} удовлетворяет условию (*) (стр. 330), то по теореме 10.23 t К = lim — С р (<р (z (u)) = l)du. t-»oo t J 0 Теорема 11.2. Среднее время между отказами рассматривае- мой системы удовлетворяет формуле Ep(X)=X~>h(Ki........ Kn), (11.23) где X — интенсивность отказов системы: п л- = 2 (h(K1F..., Ki.i, i, к!+1......кп) - i=l — h(Kv ...,К,_1( 0,K1+1.....Kn)); (11.24) l/(p,i -|- Vi), i=l, n. Доказательство. Будем исходить из стационарного процесса {Z(t)J, а в ка- честве вложенных рассмотрим моменты отказа i-ro элемента Tm(i). Соответствую- щий синхронный процесс обозначим через {Z(i>(t)}, а его распределение через P(i). Легко проверить, что по предположенной независимости элементов {z(l)(t)}={[Z(i)(t),.... z^d), z<'>(t), z<1+1'(t).z<n>(t)j}. Заметим, что %i = l/(p,i-J~vi) есть интенсивность стационарного точечного про- цесса {Tm(i)}- Точечный процесс {TJ для моментов отказов системы есть подпроцесс ком- позиции моментов отказов элементов (J {Т^}. Вследствие того, что Р = 349
«« для некоторых к и 1; i, j = 1, n)-0 (см. теорему (10. 10), интен- п сивность X для {TJ равна 2 \м» причем Xoj есть интенсивность таких моментов i=l отказов Т^т i-го элемента, которые приводят к отказу системы. Рассмотрим событие (т>0) = {? (Z(i) (T?m-0)) = 1, ?(Z(I) (T^ + 0)) = 0}, где {T?m}—синхронный ТП, соответствующий процессу {Т?т). Согласно формуле (10*60) Xoi = \Р(0 (Bi) = \ 1Р(0(? (Z(i) Jo?™ -0)) = 1) - P(i) (Ч (Z{l) (T?m + + O))-l)l = Xi[h(K1,...,Ki_x, 1, Ki+1.Kn)- -h(K1( .... Ki_r0, Ki+1, .... Kn)J. (H-25) Тем самым выражение (11.24) доказано. Поскольку Х= 1/EP(X-|-Y), из формулы (11.6) следует утверждение теоремы. Очевидно, вычисленное с помощью формулы (11.6) среднее время восстановления EP(Y)=X“41-h(Ki, Кп)). (11.26) Пример 11.2. Рассмотрим последовательную систему с и независимыми эле- ментами, которые восстанавливаются индивидуально. Тогда п п ✓ \ к-Пк.-П(^} i=l i=l 4 1 7 Интенсивность тех отказов i-ro элемента, которые приводят к отказу системы согласно выражению (11.25), определяется как п-4- Pi + 'li J#1 Mi + Vi n Общая интенсивность отказов системы X=^j Таким образом, из формулы i=l (11.23), получаем ЕР(Х) = (j] l/h) . Ep(Y) = Ер(Х). 35Q
Для последовательной системы можно, кроме того, найти функцию распределе- ния наработки системы F(t). Принимая во внимание соотношение (10.60), по формуле полной вероятности находим п п ___ 00 F <*>=Ё т Р'П-Ё Р1<•> п 77 j "i"*’ а“= i=l 1=1 3 t (<нет отказов на итервале (0,Л)>) (11.27) где Fi(t) означает функцию распределения наработки i-ro элемента. Сравнение с примером 10.6 показывает, что функции F(t) и ЕР(Х) не зависят от того, являются ли времена восстановления пренебрежимо малыми или нет. Этого можно было ожидать. Пример 11.3. Рассмотрим параллельную систему с п независимыми элемен- тами, которые восстанавливаются индивидуально. Согласно выражению (11.25) интенсивность отказов системы п х-Ё—г- Hi + vi п Ml VJ Hj+vj n n -S о/.,) n i=l k=l P'k + Vk ’ а коэффициент готовности Далее, согласно формуле (11.23) Величину G(t)=P(Y>t) для данной системы можно вычислить из соображений симметрии тем же способом, что и величину F(t) для последовательной системы. Пример 11.4. Рассмотрим систему «к из и», состоящую из независимых оди- наковых элементов, которые восстанавливаются индивидуально. Имеют место 351
соотношения к-V fп \ V ( v V~j L \ j ) [»+*) U+v ’ 13* /П — 1\ 1 / v \ n—к f \ к-1 /и — H nvn~k,->k~* \k — 1) Lt h+ V \|*+ v) \H-4- v/ \k—- 1/ («+v)n i=l '• 1 ' Формулы (11.22) и (11.23) доказаны в [291] для взаимно независимых нарабо- ток и времен восстановления элементов (при дополнительном предположении). Приведенное изложение следует [134]. 11.1.4. ДУБЛИРОВАННАЯ СИСТЕМА С НЕНАГРУЖЕННЫМ РЕЗЕРВОМ Рассмотрим дублированную систему с ненагруженным резер- вом, принцип работы которой рассмотрен в разд. 5.6. Обобщим модель, считая, что статистические свойства элементов различны. Предположим, что оба элемента работают независимо друг от друга, т. е. последовательности ([Xi,n, Yi,n], п^О) и {[Х2,п> Y2>n] п^О} независимы, где Х1)П и Yi,n — последовательные наработки и времена восстановления i-ro элемента, i=l, 2. (Подчеркнем, что не требуется независимость ни векторов [Xi,n, Yi,n], ни слу- чайных величин Xj,n и Yj,n. В частности, время восстановления элемента может зависеть от предыдущей наработки.) Предполо- жим также, что система уже находится в стационарном режиме и обозначим через Fi(t)=P(Xi^t) и Gt(t)=P(Yi^t) функции распределения типичной наработки и типичного времени восста- новления i-ro элемента, i=l, 2. Поведение системы описывается стохастическим процессом {Z(t)}, имеющим следующие состоя- ния [132]: 1. Элемент II работает, элемент I восстанавливается. 2. Элемент I работает, элемент II восстанавливается. 3. Элемент II работает, элемент I в резерве. 4. Элемент I работает, элемент II в резерве. 5. Оба элемента отказали, элемент I восстанавливается. 6. Оба элемента отказали, элемент II восстанавливается. В качестве вложенных выберем моменты Тп, в которые систе- ма находится в одном из состояний, 1 или 2, и начинается типич- ный цикл процесса {Z(t)}, причем с вероятностью 1/2 либо в со- стоянии 1 (случай 1), либо в состоянии 2 (случай 2). В случае 1 одновременно начинается реализация наработки Х2, а также от- счет времени восстановления Y't элемента 1, отказавшего в пре- дыдущем цикле. В случае 2 одновременно начинаются реализа- 352
ции Xi и Y'2. Типичный цикл имеет длину L_ |max(Xa, Y/) (случай 1), (max(Xx, Ya') (случай 2). Кроме того, в случае 1 Z(t) = если 0 < t < min (Ха, Y/), если Y/ <t < Ха (L = Ха'), если Xa<t<Y/ (L = YX), в случае 2 (2, если 0<t<min(Хх, Ya'), Z(t)= 4, если Ya'<t<Xx (L = Xx), (6, если Xx<t<Ya' (L = Ya'). Наработка системы X для типичного цикла равна также Х2 в случае 1 и Xi в случае 2. Следовательно, из формул (11.6) и (11.7) получаем К=2ВД<е*х*>+е<х-»' 00 Кх = J (Fx(t)+Fa(t))dt, X где 11.2. АНАЛИЗ НАДЕЖНОСТИ С ПОМОЩЬЮ ПОЛУРЕГЕНЕРИРУЮЩИХ ПРОЦЕССОВ Мы уже останавливались подробно на том, что моделирова- ние системы с помощью ПМП сильно ограничено (см. замечание в разд. 11.1). Однако существует большое число систем с экспо- ненциальными наработками, одним прибором обслуживания и произвольным распределением времени восстановления, поведе- ние которых до первого отказа можно описать с помощью этих процессов. Если в этих случаях объявить состояния отказа погло- щающими, то видоизмененный таким образом процесс является полумарковским на всей полуоси [0, оо). Тогда время Х^ до первого отказа системы соответствует времени пребывания моди- фицированного процесса в множестве 3+- Следовательно, преоб- разование Лапласа — Стилтьеса функции распределения Fgj и среднее время до отказа Е(Х^) можно определить с помощью 353
уравнений (10.25) и (10.26). На это обстоятельство часто не обра- щают внимание в литературе и предлагают различные «методы», которые, как и следовало ожидать, не приводят ни к чему иному, как к уравнениям вида (10.25) и (10.26) (см. также [60, 9, 320]). Часто попадание в множество состояний отказа системы 3- обусловлено отказом элемента именно в тот момент, когда обслу- живающий прибор еще занят. Очевидно, полумарковский харак- тер фазового процесса {Z(t)} в эти моменты нарушен, если времена восстановления распределены не экспоненциально. Оказы- вается, однако, что при тех же предположениях, которые обеспе- чивают полумарковский характер процесса до наступления пер- вого отказа, поведение системы можно описать с помощью регенерирующего процесса. Для этого необходимо выбрать из мно- жества 3 подходящее множество© (см. разд. 10.4). (Подмножество © не должно содержать состояния, в которых продолжаются «прежние» восстановления.) Стационарные показатели надежно- сти определяются затем по результатам для полурегенерирующих процессов, изложенным в разд. 10.4. При этом сложность их полу- чения сравнима со сложностью вычисления характеристик време- ни до первого отказа системы. Моделировать систему с помощью полурегенерирующих про- цессов можно, даже если ее поведение до первого отказа не явля- ется полумарковским. В качестве примера рассмотрим систему «к из п» с экспоненциальными наработками, одним обслуживаю- щим прибором и произвольным распределением времени восста- новления (п—к^2). Фазовый процесс {Z (t)} означает число эле- ментов, находящихся в состоянии отказов в момент L Этот про- цесс— полурегенерирующий, если выбрать в качестве вложенных моменты окончания ремонта, а в качестве Э произвольное под- множество множества {0, 1, ..., п—1}. Поясним применение полурегенерирующих процессов к анали- зу надежности на следующем примере. Дублированная система с облегченным резервом. Рассмотрим обобщение дублированной системы, описанной в примере 10.2. Предположим, что активный элемент имеет наработку Ха с функ- цией распределения Fa(t) = 1—e~zt, а резервный элемент — нара- ботку Хг с функцией распределения Fr(t) = 1—e~cU, где 0<с< 1 (облегченный резерв). Время восстановления отказавшего эле- мента может зависеть от того, находился элемент к моменту отка- за в работе или в резерве. Соответствующие времена восстанов- ления и их (произвольные) функции распределения обозначим через Ya и Ga(t) (соответственно Yr и Gr(t)). Система может на- ходиться в следующих состояниях: 0. Оба элемента исправны. 1. Один элемент работает, другой восстанавливается, после того как он отказал, находясь в рабочем состоянии. 354
2. Один элемент работает, другой восстанавливается поОЛё того, как он отказал, находясь в резервном состоянии. 3. Один элемент (отказавший, находясь в рабочем состоянии), восстанавливается, а другой отказал. 4. Один элемент (отказавший, находясь в резервном состоя- нии) , восстанавливается, другой отказал. Итак, пусть 3+={0> 1, 2} и 3-={3, 4}. Для определения ха- рактеристик времени до первого отказа рассмотрим моди- фицированный фазовый процесс {Zm(t)}, в котором состояния 3 и 4 являются поглощающими. Процесс {Zm (t)} —- полумарковский со следующими параметрами: qoi = Р (Ха<Хг) = 1/ (1 +с), q02=c/(1 + с); qiO = P (Ya<Xa) =G*a (%) , qi3= 1—G*a (Л) > q2o=P(Yr<Xa)=G‘r(%); q24=l—G*r(X); q33=q44—1 (все остальные qij равны нулю) Foi (t) = F13 (t) = Fa (t) = l-e-“, F02 (t) =F24 (t) =Fr (t) = 1-e-c«; F10(t)=Ga(t), F20(t)=Gr(t), F„(t)=F«(t)-O. Время до первого отказа системы Х^ равно времени пребыва- ния фазового процесса в множестве 3+, Х{0} — Vo g .Из формулы (10.25) получаем Wo, м (s) = qOiFoi (s) Wj, м 4* ЧоаРог (s) W2, м (s); Wj, m(s) — qlsFi3 (s) + q^Fio (s) Wo, м (s); W2, м (s) = q21F24 (s) -f- q^ (s) Wo, м (s); где M=3+={0, 1, 2}. Если разрешить эту систему, то wo,3+ (s) = 401413^01 (S)F13 (S) ~Ь 408424^02 (S) F24 (s) 1 401413^01 Fio(s) 402*120^02(s)F20 (S) Окончательно w0,8+(s) = (4~zh) (7-i) °™ v <’> ’ 355
где Fj(s) - Je-'(l-e-)dt= Fi(s)= 4--2_. 0 Поведение системы после ее отказа не может быть описано с помощью полумарковского процесса, поскольку момент сле- дующего скачка зависит от того, сколько уже длится восстанов- ление, начавшееся до отказа системы. Построим теперь синхрон- ный полурегенерирующий процесс, описывающий динамику системы в стационарном режиме. В качестве вложенных выберем мо- менты Тп, в которые оканчивается восстановление одного эле- мента. Если расщепить состояние 1 на 1+ и 1_, где 1+(1-) озна- чает переход в состояние 1 из состояния 0 (из состояния 3 или из состояния 4), то в обозначениях разд. 10.4 (SJ={0, 1_}) p00=P(Xa>Ya)P(Xa<Xr) +P(Xa>Yr)P(Xa>Xr) = =G*a (А) / (1 + с) +cG*r (А) / (1 +с); Poi= (1+с) “* (1 + с—G*a (А) —cG*r (А)); рю=Р (Xa>Ya) =G*a (А); рн = 1—G*a(A). Стационарные (вложенные) вероятности р = <У (М и р = Pei + Ga*(X) 1 Poi + Ga*(X)‘ Если цикл начинается в состоянии 1, то его длина L=Ya, в про- тивном случае L=Xa-|-Ya для Ха<Хг и L=Xr+Yr для Ха>Хг. Отсюда следует р Ga*(X) (1 /X + Е (Y.) + сЕ (Yr))/(1 + С) + риЕ (Y.) P<L> Poi + G.*(X) Средние наработки системы Е(Х|0) и Е (X11) при условии, что система начинает работу в состоянии 0 и соответственно состоя- нии 1, определяются Как E(X|0)=E(min(Xa, Xr))+P(Xa<Xr)E(min(Xa, Ya)) + +P(Xa>XrE(min(Xa, Yr)) = = ((1+c) A)-1 (2+c-G‘a (A)—cG‘r (A)); E (X11) = E (min (Xa, Ya)) = (1—G‘a (A) )/A. После вычислений получаем E СУ? l+c-cGr*(X) (l+c)X(p„+G.«(X))- 356
Теперь с помощью формулы (11.6) можно определить стационар- ный коэффициент готовности Ер(Х)_ i + c-cGr»(X) “ Ер (L) Ga‘(X) + (1 + с) ХЕ (Y.)+c (Ga*(X) Е (Yr)-G*r(X) Е (Ya))‘ В частности, для с=1 и Ga(t)=Gr(t)=G(t) (сравните с при- мером (Н.1) „ 2 —G*(X) G*(X) 4- 2ХЕ (Y)‘ 11.3. КАЧЕСТВЕННЫЕ СВОЙСТВА И ПРИБЛИЖЕННЫЕ ФОРМУЛЫ 11.3.1. СВОЙСТВА СТАРЕНИЯ ДЛЯ РАСПРЕДЕЛЕНИИ НАРАБОТОК ВОССТАНАВЛИВАЕМЫХ СИСТЕМ Рассмотрим монотонную систему с п элементами, которые после отказа восстанавливаются индивидуально. При этом пред- полагаем, что все наработки и времена восстановления элементов взаимно независимы. Во время восстановления отказавшего эле- мента другие продолжают работать. Если обозначить через <р структурную функцию системы, а через {Zi(t)} фазовый процесс элемента ei, то состояние системы в момент t можно описать как <p(Z(t)) =<p(Zi (t),..., Zn(t)). (Процесс {Zi(t)} есть альтерни- рующий процесс восстановления, см. разд. 4.7.) Полагаем далее, что элемент ei имеет распределение наработки Ft (t) с математи- ческим ожиданием p,i<oo, а также распределение времени вос- становления Gi(t) с математическим ожиданием vt<oo, i=l ...,n. В дальнейшем будем интересоваться, прежде всего, зависи- мостью между свойствами функций распределения наработки и времени восстановления элементов и свойствами функции распре- деления времени до первого отказа системы: Fgt (t) = Р (Xgj < 1) = Р (inf {u :V(Z (u)) = 0} <f№), причем здесь по условию 31 к моменту 0 все элементы — новые и начинают работу. Подобного рода утверждения будут исполь- зованы в подразд. 11.3.2 для вывода оценок и приближений для функции (t). Кроме того, охарактеризуем функции распределения для си- стем с экспоненциально распределенными наработками и време- нами восстановления: F (t) = Р (X<t) = Р (inf {и : <р (Z (и)) = 0} Сt), Fr (t) = Р (XR<t) = P(inf{и: <p (Z (u)) = 0} <t | <p(Z (0)) = J), 357
где {Z(t)} и {Z(t)}—синхронный и соответствующий стационар- ный фазовые процессы. Теорема 11.3 [292]. Функция распределения F^ (t) времени до первого отказа монотонной системы с экспоненциально рас- пределенными наработками и временами восстановления элемен- тов принадлежит классу НЛИ. Функция распределения F^(t) для системы с экспоненциаль- ными наработками и временами восстановления элементов не обязана принадлежать классу ВФИ. В частности, F^ (t) для системы «1 из 2» с неодинаковыми экспоненциальными наработ- ками и временами восстановления не является ВФИ-распредс- лением [292]. Тем не менее, имеет место теорема. Теорема 11.4. Если Fi(t) = l—e-xt и Gi(t) = l—е-^ для i = = 1, ..., п, то функция распределения Fgj(t) системы «к из п» принадлежит классу ВФИ. Доказательство. Пусть Z(t) есть число элементов системы «к из п», которые отказали к моменту t. Очевидно, {Z(t)J—однородный процесс гибели и размно- жения и Z(0)=0, так как в момент t=0 все элементы — новые. Тогда соглас- но [200] (см. также [182]) величина inf {t: Z(t) =ш} для каждого однородного процесса гибели и размножения {Z(t)J имеет ВФИ-распределение. Отсюда сле- дует утверждение теоремы, поскольку величина inf {t: Z(t) =n—k—1-1} представ- ляет собой время до первого отказа системы «к из п».И В [Д.9] доказано, что утверждение теоремы 11.4 справедливо и для случая, когда Fj(t) = = 1—e^/Gi (t) = l— eP1 , если толь- ко разность A,i—pi не зависит от i, i = - ,.. ., n. Утверждения теорем 11.3 и 11.4 не сохранятся, если не вы- полнено начальное условие 51. Чтобы показать это, рассмотрим систему «1 из 2», для которой Fi(t) = l—е"^ и Gj(t) = l—е~р{, i=l, 2, и предположим, что в момент t = 0 выполняется условие <В= [один элемент работает, а другой восстанавливается}. Спра- ведлива формула F$g(t) =P(min(Xi, Yi)^t, где Xi и Yi означают соответственно наработку и время восстановления элемента. Тогда функцию распределения F (t) остаточной наработки си- гО > X стемы при условии, что система не отказала до момента х, можно представить в виде смеси pFoi (t) + (1—p)F02(t), где р = = J e-P‘Xe-«dt, Foi(t)=P(min(X1, Y,)^t, a F02(t)=P(U + 6 + min(Xi, Yi)^t), причем U распределено экспоненциально с па- раметром 2Х. Очевидно, что для всех х имеет место неравенство 358
x(t), T. e.F^ (t) есть НХИ-распределение (см. усло- вие (3.25)). Столь же очевидно, что для рассматриваемой систе- мы F$g (t)=F(t) (Т есть вложенный момент, если Z(T4-0) — = 2 = Z(T—0) +1). Можно показать, что F^ (t) является даже УФИ-распределением, поскольку справедлива теорема. Теорема 11.5 [182]. Если наработки и времена восстановления элементов распределены экспоненциально, то распределения на- работок F(t) и FR(t) имеют убывающие интенсивности отказов и Fgj (t)<FR (t)<F(t) для всех t. (11.28; Теперь нас интересует вопрос, сохраняется ли принадлежность классу НЛИ функции распределения времени до первого отказа произвольной монотонной системы в том случае, когда наработки и времена восстановления элементов распределены неэкспоненци- ально. Нижеследующая теорема показывает, прежде всего, что времена восстановления не обязательно должны быть распреде- лены экспоненциально [240] (см. также [30, 83]). Теорема 11.6. Функция распределения F^ времени до первого отказа монотонной системы с экспоненциально распределенными наработками и НХИ-распределенными временами восстановления элементов принадлежит классу НЛИ и Fgi (t)^F(t) Для всех t. (11.29) Утверждения теоремы 11.6 сохраняются, если некоторые эле- менты системы не восстанавливаемы. При этом достаточно потре- бовать, чтобы невосстанавливаемые элементы имели НЛИ-рас- пределенные наработки [83]. Если все элементы системы не вос- станавливаемы, то получаем известное свойство замкнутости класса НЛИ-распределений относительно образования монотон- ных систем из независимых элементов [31]. Предположение о том, что функция распределения Fgj (t) принадлежит классу НЛИ и в том случае, когда восстанавливае- мые элементы имеют ВФИ-распределенные наработки [30], опро- вергнуто в [239]. 11.3.2. ОЦЕНКИ И ПРИБЛИЖЕНИЯ ДЛЯ ПОКАЗАТЕЛЕЙ НАДЕЖНОСТИ Точные вычисления функции распределения времени до пер- вого отказа системы Fgj (t), а также функций распределения F(t) и FR (t), вообще говоря, очень сложны. Поэтому дадим оцен- ки и приближения этих функций для систем, элементы которых 359
восстанавливаются индивидуально. При этом в дальнейшем будем называть системы с экспоненциально распределенными наработ- ками и временами ремонта элементов экспоненциальными. Прежде всего, дадим верхнюю оценку функции Fgj (t) для системы с произвольными наработками и временами восстанов- ления элементов. Теорема 11.7 [180]. Пусть ..., ®s — минимальные сечения монотонной системы. Тогда Fgj (t) < У, Mj (t) для всех t > 0, (11.30) j=i где t Mj(t) = J 2 Mu) П (1-Kk(u))du. о ie®. ke®, k^i t При этом Mj (t) и J hi (u) du означают среднее число отказов со- fl ответственно минимального сечения (Sj и элемента ei за время —х t (0, t]. Если Fi(t) =1 —е * , то справедливо равенство hi(t)=%iKi(t). (11.31) Вычисление по формуле (11.30) сложно уже для систем с экс- поненциально распределенными наработками элементов, если не делать дополнительных предположений относительно распределе- ний времени восстановления элементов Gi(t). Если же времена восстановления распределены экспоненциально или постоянны, то можно точно вычислить коэффициенты Kk(t) с помощью выра- жений (4.70) и (4.71) и тем самым получить точное значение функции Mj(t). В частности, в случае Fi(t) = l—е-м и Gi(t) = = 1—е-₽‘ м1(ч=(v) <-»' ш111 (s с л (я х k=0 \т=1 1—ехр(—(X + p))mt , + Х (X-f-p)m + ’ где iij означает число элементов в минимальном сечении ®j. Если условия Xi=% и pj—р нарушаются и система имеет мно- го минимальных сечений с большим числом элементов, то и для экспоненциальных систем оценка для функции распределения Fgf (t) по формуле (11.30) сопряжена с большим объемом вы- числений. Поэтому желательно, чтобы оценки были проще. 360
Теорема 11.8 [116]. Для экспоненциальной системы с мини- мальными сечениями @i.....<Ss справедливо неравенство Fg((t)<l-П(1—Fg(j(t)) для всех t>0, (11.32) j=l где Fgj (t) —функция распределения времени до первого отказа минимального сечения 6j. Если все минимальные сечения, не пересекаются, то неравенство (11.32) становится равенством. Оценка (11.32) представляет собой, вообще говоря, хорошее приближение для функции F^ (t) в точке t, если все величины (t) малы, например (t) < 10~2 (см. также пример 11.5). Со- гласно теореме 11.8, очевидно, достаточно вычислить или оценить функцию распределения времени до первого отказа параллельной системы. Точное вычисление функции распределения Fgj (t) для экспоненциальных параллельных систем хотя и возможно, но тру- доемко [71], поэтому дадим оценки, которые требуют более про- стых вычислений [71, 30]. Теорема 11.9. Для экспоненциальных параллельных систем справедливы оценки Fgj(t)<l—e-at для всех t > 0, (11.33) где F^(t)<l— е bt для всех t< 1/b, (11.34) причем число b задано в виде .4—1 j . _ . m—J ь = (Я---------1------. \iJ n(n-l)...(n-J)l it \ m Л Р / 1 j=0 m=0 r z где n Л =— V! Ai и p== min Pi, И i<i<n i=l и, наконец, Fgj(t)<Ct для всех t<l/c, 24-6301 (11.35) 361
где c-(S S ”) ’• Xj=l Kh<...<i.<n m=l ' 'm=l 7 Здесь c^a, так как a-1=E(X), c-1=E(Xgj). Если, кроме того, предположить, что и pi=p для i=l..........п, то с=Ь. Поэтому для достаточно малых t граница (11.35) ниже границы (11.33), и при Xi=% и pi=p граница (11.34) дает для всех t< 1/Ь лучшие оценки Fgj (t), чем (11.33) и (11.35). Отсюда неравенство (11.35) с учетом НЛИ-свойства функции распределения (t) (см. теорему 11.3) вытекает непосредственно из условия (3.30). Для вывода оценок и приближений функции распределения экспоненциальной системы «к из и» можно аналогично исполь- зовать ВФИ-свойство. В частности, из теоремы (11.4) и формулы (3.8) следует теорема. Теорема 11.10. Для экспоненциальной системы «к из и» при и pi=p справедлива оценка Fgj (t) < 1 — exp (— t/E (X^)) для всех t < E (X^), (11.36) где среднее время до отказа Е(Х^ ) задано в виде п—к Е(Х3() = У’----------------y!fnWXr~J- (П.37) v и n(n—l)...(n —j)X j=0 m—0 Оценки (11.34) и (11.36), очевидно, совпадают для k=l, Ai=% и pt=p. Легко заметить, что граница (11.36) для всех t<E (Xgj) меньше, чем границы, которые можно получить с по- мощью оценок (11.33), (11.34) и (11.35) с использованием тео- ремы 11.8 для экспоненциальных систем «к из п». В случае высо- конадежных элементов можно, кроме того, аппроксимировать функцию Fgj с помощью выражения 1—ехр (—t/E(Xgj)) . Со- гласно ВФИ-свойству функцииРэд (t) в формуле (3.14) абсолют- ная ошибка меньше или равна величине П—k J . . !-v = l-(l-2d^V—------------JL------— V (п )х VI \ п(п — 1)... (п — j)X ш \т/ 4 j = l т=1 4 7 / X \m-j V/2 X ( I ^П,П—П1 + 1 I » \ р / / где числа dnk заданы в правой части выражения (11.37). 362
Коэффициент вариации зависит от интенсивности отказов Л и интенсивности восстановления р только через отношение 0=р/%. При k^n—1 величина V$^ является возрастающей по 0. Имеют место неравенство 0<V^ где —коэффициент ва- риации той же самой системы без восстановления. Поэтому Fgj (t) тем лучше аппроксимируется с помощью функции 1—ехр(—t/EX^ ) чем больше параметр 0. Оценки функции Fg( (t) для экспоненциальных систем «к из п» с неодинаковыми распределениями наработки и времени вос- становления элементов приведены в [ДЮ]. Пример 11.5 [116]. Рассмотрим экспоненциальную систему «п—1 из и», для которой Xi=X и pi=p. Тогда (см., например, [195]) Fg((t)= 1 ~ (sn ~ rn)-1<sn ехР (— гп“) — ГП ехР sna)) (11.38) и, в частности, t п (п — 1) a Е (Xgj) = 2п- 1 + ₽ ’ где а=Ч ₽=р/Х, 2sn=2n-l+0-(P2+(4n-2).p4-l)'/2 и 2гп=2п—1+0+(02+ 4~(4п—2)0-|-1)1/2. Функции распределения F^ (t) также можно вычислить с помощью формулы (11.38), полагая п=2, поскольку минимальные сечения мо- гут трактоваться как системы «1 из 2». Поэтому из неравенства (11.32) полу- чаем оценку s2 exp ( — r2a) — r2 exp (— s2a) s2 - Ч а поскольку 1 , Л 2n(n-l) V/2 V9l \ (2n-l+₽)»J ’ n (n—1)/2 (11.39) — t / n(n— 1) a \ (t) аппроксимируется с помощью выражения exp —-----j"_|_ p j тем лУЧ11е» чем больше параметр р. Соответствующие результаты сведены в табл. 11.1. УФИ-свойства функций распределения FR(t) и F(t) (см. тео- рему 11.5) также можно использовать для вывода оценок и при- ближений. При этом с учетом неравенств (11.28) верхние границы функций F(t) и FR(t) одновременно являются верхними оценками для функции Fgj (t). Поэтому из теоремы 3.4, в частности, следует (см. также [ДЗ]) теорема. 24* 363
Таблица 11.1. Оценки абсолютных ошибок приближения функций Fp(t) и F(t) (1-я строка) и Fgj(t) (2-я строка с помощью функции распределения 1— —ехр(—t/E(X)) для экспоненциальной параллельной системы fi а 1 10 io2 103 ю* 0,44 0,089 0,0536 0,05016 0,049824 2а 0,42 0,091 0.0536 0,05016 0,049824 0,36 0,074 0,0520 0,05001 0,049809 0,565 0,336 0,3048 0,30156 0,301230 5а 0,549 0,336 0,3048 0,30156 0,301230 0,510 0,323 0,3034 0,30141 0,301216 0,682 0,565 0,5505 0,548976 0,5488281 10а 0,670 0,565 0,5505 0,548976 0,5488281 0,650 0,559 0,5498 0,548910 0,5488215 0,8982 0,88799 0,88703 0,886931 0,8869215 50а 0,8966 0,88797 0,88703 0,886931 0,8869215 0,8948 0,88758 0,88698 0,886927 (Г,8869211 0,9449 0,94205 0,941793 0,9417673 0,9417648 102а 0,9445 0,94205 0,941793 0,9417673 0,9417648 0,9439 0,94194 0,941782 0,9417662 0,9417647 0,994053 0,994021 0,9940183 0,9940180 0,9940180 103а 0,994048 0,994021 0,9940183 0,9940180 0,9940180’ 0,994041 0,994020 0,9940181 0,9940180 0,9940180 0,9994005 0,9994002 0,9994002 0,9994002 0,9994002 10*а 0,9994005 0,9994002 0,9994002 0,9994002 0,9994002 0,9994004 0,9994002 0,9994002 0,9994002 0,9994002 Теорема 11.11. Для экспоненциальной системы справедливо неравенство (t) < Fr (t) < 1 — exp (— t/E (X) для всех 15s 0, (11.40) где средняя наработка Е (X) задана в виде E(x) = h(K)^(h(lb К)—h(0b 54 Л 1 (П-41) Это соотношение справедливо также для систем с произвольно распределенными наработками и временами восстановления эле- ментов [291]. Кроме того, для высоконадежных экспоненциаль- ных систем функции распределения Fgj (t), FR(t) и F(t) хорошо аппроксимируются в виде 1—ехр(—t/E (X)) (см. также [182]). Если E(Xr) известно, то абсолютные ошибки, которые могут возникнуть при аппроксимации функций FR(t) и F(t) выражением 1—ехр(—t/E (X)), оцениваются соответственно как 1-ехр (—E(Xr)/E(X)4-1), (11.42) 364
1—E(X)/E(XR)+E(Z)/E(X), (11.43) GO / П X где E (Z) = П 1 — Ц (1 — ехр(А[ -|-Pi)x) 1 dx — средняя наработка 6 \ i=l ’ параллельной невосстанавливаемой системы с интенсивностями от- казов элементов Xi-j-Pi, i = 1. n. Пример 11.6. Для экспоненциальной параллельной системы при Xi = X и Pi = p [71] справедливы оценки E(Xr) = 1 (1 + Р)11-1 р ( п \ Г х <1+0)п-11Йгт ' т ’ 1 (i+P)n-1 X пр где р = р/Х. Оценки погрешностей (11.42) и (11.43) зависят в этом случае от величин X и р только через отношение р = р/Х. Отсюда видно, что абсолютная ошибка, возникающая при аппроксимации функции F^(t) экспоненциальным распределением 1—ехр (—1/Е(Х)) близка к нулю при достаточно больших зна- чениях р. Для функций Fr(1) и F(t) это утверждение справедливо при доста- точно больших и достаточно малых значениях р. Значения оценок погрешностей приведены в табл. 11.2. Для систем с экспоненциально распределенными наработками и НХИ-распределенными временами восстановления элементов можно с помощью средней наработки Е(Х) оценить функцию распределения F^ (t). Именно из НЛИ-свойства функции рас- пределения Fgj (t) и из неравенства (3.30) следует F^ (t)^t/E(Xgj), откуда согласно условию (11.29) Fgj (t)^t/E(X). Поэтому с уче- том выражения (11.41) имеет место теорема. Теорема 11.12 [30]. Для систем с экспоненциально распреде- ленными наработками и НХИ-распределенными временами вос- становления элементов справедливо неравенство К)-Ь(Оь (11.44) i=l 11 Если известны минимальные сечения системы, то можно по- лучить другие легко вычисляемые оценки для функции Fgj (t). Теорема 11.13. Пусть ..., ®s — минимальные сечения систе- мы с экспоненциально распределенными наработками и НХИ- распределенными временами восстановления элементов и пусть 365
Таблица 11.2. Сравнение значений функции F (t) для системы «2 из 3» с приближенным выражением ехр(—6а/(5-]-₽)) и с оценкой (11.39) (со- ответственно 1-я, 2-я, 3-я строки) А п 2 3 4 5 I0’3 0,0002498 0,0004994 0,0007489 0.0009982 10~2 0,002473 0,004933 0,007382 0,009819 10'* 0,02243 0,04379 0,06409 0,08336 1 0,1052 0,1678 0,1981 0,2060 10 0,06709 0,05203 0,03501 0,02653 ю2 0,009566 0,005079 0,003362 0,002514 103 0,0009956 0,0005009 0,0003337 0,0002502 nj означает число элементов в минимальном сечении ©j, j = = 1, s. Тогда Fgi (t)<t 2с„ (И.45) j=l 'к—1 i,<r"<ik \m=l n‘ ' J \m=l // i_€z®< m j и если, кроме того, 2 Pk ДЛя всех j = 1.... s, т0 keSj k=H=i s , S '- Hw (11-46) j=i ksSj ie®j Граница (11.45) приведена в [83]. Для экспоненциальной си- стемы Cj-1 представляет собой математическое ожидание времени до первого отказа минимального сечения @j. Оценка (11.46) следует из неравенства (11.30), если принять во внимание равенство (11.31) и тот факт, что в предположениях теоремы нестационар- ный коэффициент готовности Ki(t) элемента ei для всех t больше или равен коэффициенту готовности Ki [240]. Для систем, у которых элементы имеют произвольно распре- деленные времена восстановления, оценки для функции (t) известны лишь в немногих частных случаях. Относительно систе- мы «п—1 из п» укажем на работу [148]. В разд. 11.1 и 11.2 было сказано, что показатели надежности ряда избыточных восстанавливаемых систем с экспоненциально распределенными наработками элементов и произвольным рас- 366
пределением времени восстановления G(t) заданы точными фор- мулами, в которые входят соответствующие преобразования Лапласа — Стилтьеса. В отдельных случаях зависимость этих ха- рактеристик от преобразования Лапласа — Стилтьеса G*(s) = оо = Je~stdG(t) является монотонной (для некоторых значений s). о Это обстоятельство использовалось для получения оценок врЗО]. Такие методы получения оценок продемонстрируем, подробно разобрав пример с дублированной системой, имеющей облегчен- ный резерв и единственный прибор обслуживания (см. разд. 11.2). Пусть основной (резервный) элемент имеет экспоненциально рас- пределенную наработку с параметром А (сХ, O^c^l). Пусть так- же время восстановления имеет произвольное распределение G(t) и математическое ожидание v. Обозначим через F0(t) функ- цию распределения времени Хо до первого отказа системы при условии, что в момент t==0 оба элемента исправны, через К коэффициент готовности, а через ро стационарную вероятность того, что оба элемента исправны. Из формул, приведенных в кон- це разд. 11.2, получаем F*(S) = >2(1+с) __________J__________ к = (l+c)-cG*(X) °k 7 s-j-X X(l + c)+s/(l—a*(s + X)’ G*(X) + X(1 +c)v ’ E (Xo) = — (1 H---------------, p0 =----------------, (11.47) ' ' X \ (1+c)(l —G*(X)) K X(1 + c)v + G*(X) V где Ga(t) =Gr(t) =G(t). Если рассмотреть вышеописанные систе- мы, имеющие параметры X и с, а также распределения времени восстановления Gj(t) и Gj(t) такие, что G*i(s)^G*2(s) для всех s>0, (11.48) то из выражений (11.47) получим следующие соотношения для характеристик системы: F;.i(s)>Fo’.2(s), Е(Хсл)>Е(Х0.2), К^К,. (11.49) «Меньшим» по условию (11.48) временам восстановления со- ответствуют «большие» наработки системы, «большие» значения величин Е(Хо) и ро, а также «меньшие» коэффициенты готовно- сти. «Движение в обратную сторону», которое наблюдается у ко- эффициента готовности, обосновано в [142], где численно под- тверждено, что коэффициент готовности системы с экспоненци- ально распределенным временем восстановления больше, чем коэффициент готовности для системы с временем восстановления, имеющим распределение Эрланга (vi=V2=v). Исходя из соотношения (11.49) можно дать оценки показате- лей надежности дублированной системы при фиксированном рас- 367
пределении времени восстановления G(t). Ограничимся при этом средним временем до отказа Е(Хо). Оценки для других показате- лей получаются аналогично. Для произвольного распределения времени ремонта и заданного математического ожидания v из выражений (11.47) и (2.54) получаем оценку Если известна и дисперсия, то — (1_1--------!----5—^ <Е(Х0)< X \ ~ (1+ с) (1-e-’7) / 07 х \ + (1 4-с)(1 — е->"’<1+'”/ ’) J’ Другую верхнюю оценку можно получить с помощью выражений (11.47) и (2.55). Если G(t) представляет собой НСХИ-(НСЛИ-) распределение с заданным математическим ожиданием v, то со- гласно неравенству (3.32) Е(Х0)^^(1 + -Ш^-). «) х \ (1 +c)Xv/ Для гамма-распределения и распределения Вейбулла — Гне- денко G*(s) при всех s является убывающей функцией параметра формы [327]. С учетом замечания и из выражения (11.47) заклю- чаем, что Е(Хо) для двух указанных распределений времени вос- становления является убывающей функцией параметра формы. Это установлено численными методами и для распределения Эрланга [69, 261]. Другие нижние границы для функции Е(Х0) получаем из неравенства (3.15) для ВФИ-распределений G(t) с заданными параметрами v и ст2. Качественное обсуждение при- веденных здесь оценок можно найти в [130]. 11.3.3. БЫСТРОЕ ВОССТАНОВЛЕНИЕ Пусть динамика рассматриваемой системы описывается с по- мощью регенерирующего процесса {Z(t), t^O) с моментами реге- нерации Тп, п^1. Часто бывает возможно определить преобразо- вание Лапласа — Стилтьеса W*(s) функции распределения вре- мени до первого отказа системы Х{о} (см. разд. 10.2. 11.1, 11.2, 11.3) и в то же время, как правило, очень трудно найти обраще- ние W*(s), т. е. функцию распределения Х^. Так, оказывается, что если вероятность q отказа системы за время типичного цикла регенерации очень мало, то функция Х^ распределена прибли- зительно экспоненциально. В избыточных системах это особенно 368
часто имеет место, если время восстановления очень мало по сравнению с наработкой. Исследуем асимптотическое поведение функции распределения когда q—>0, в определенном смыс- ле. Для точной формулировки представим себе серию регенери- рующих процессов {Z<k>(t), t^O}, k=l, 2, ..., с типичной длиной цикла Lk. Введем обозначения Е(Ц) , р ,т . _ “k — (E(Lk))2 Чк И — he, где qk — вероятность отказа системы за время цикла процесса {Z<k>(t)} (вероятность достижения этим процессом множества со- стояний отказа 3- за время одного цикла). Пусть, кроме того, означает время до первого отказа k-й системы, т. е. X|lQ)j = inf {t:ZW(t)e8-}. Теорема 11.14. Если lim ак = lim = О, , к . о 1 к-* оо к-*оо ТО / Чк 4 m lim И- {0} >х)=е~х. (11.50) к-» оо \ / При анализе восстанавливаемых систем часто встречается сле- дующий случай. Поведение системы описывается регенерирующим процессом, у которого типичный цикл состоит из двух частей, причем первая часть имеет экспоненциально распределенную дли- ну Li: P(Li>t) =e-xt, а вторая — произвольно распределенную 00 длину L2: Р(L2^t) =G(t), ц2= J G(t)dt. Отказ системы может о наступить только во второй части цикла и пусть вероятность это- го события снова q. Такая ситуация характерна для избыточных систем с нестареющими элементами: вначале все элементы исправны (первая часть цикла регенерации), затем происходят отказы и восстановления (вторая часть), пока все элементы снова не будут исправны (новый цикл). Рассмотрим опять серию {Z(k)(t)} регенерирующих процессов P(Lxk>t) =ехр(—Xkt). Теорема 11.15. Имеет место соотношение lim Р(1 qk Х{0} >х) = е-х. (11.51) к-*оо Если параметры q и ц2 очень малы, то из теорем 11.14 и 11.15 вытекают следующие формулы: P(X{o}>t)Ss е ; (11.52) 369
Р(,Х{0)>!)=, е-Ч (11.53) Для избыточных систем с нестареющими элементами требова- ние «Хцг очень мало» соответствует предположению, что элементы очень надежны (их интенсивность отказов мала), в то время как фаза, в которой восстанавливаются отказавшие элементы, в сред- нем очень мала по отношению к средней наработке к. Для иллю- страции приведем один конкретный пример [319]. Пример 11.7 (облегченный резерв, дублированная система с восстановле- нием блоками). Пусть интенсивности отказов рабочего и резервного элементов равны соответственно Ла=2-10-4 ч-1 и Zr=10“4 ч-1. Пусть система проверяется в моменты О, Т, 2Т, ..пТ, ... и дефектные элементы, если таковые имеются, заменяются на новые за пренебрежимо короткое время. Отказ системы наступает тогда, когда между двумя моментами восстановления отказывают оба элемента. Очевидно, что моменты пТ, п^О, являются моментами регенерации, L = T. Если произведение (Ха-]-Хг)Т очень мало, то , _ (X. + >,) j (! - |Т~’») e~‘V> г> В этом случае очень мал и параметр а, поэтому можно применить теорему 11.14. Тогда согласно выражению (11.50) получаем Р (Х{0} > t} ехр ( - 1 /2 (Аа н- Xr) XaTt). В частности, для Т=300 ч имеем Р >t)=exp (—9* 10~6t). Интересно, что средняя наработка системы заметно повышается, если про- водить контрольные проверки и в случае необходимости восстановление. Если рассмотреть такую же систему без восстановления, то ее средняя наработка будет в 13 раз меньше. Другие формулы и работы, касающиеся экспоненциального характера на- работки системы, можно найти в [295]. ПРИЛОЖЕНИЕ. СТОХАСТИЧЕСКИЕ ПРОЦЕССЫ Понятие случайного процесса вводится для задачи моделирования динамики •системы, подверженной случайным воздействиям. Множество 3 возможных со- стояний системы назовем пространством состояний. Как в практических, так и в теоретических изысканиях могут встретиться довольно общие пространства состояний 3- В дальнейшем будем предполагать, что 3 есть полное сепарабель- ное метрическое пространство (например, 3={0, 1, • • •> пл}; или 3=Rm)- В соот- ветствии с обычным подходом в теории вероятностей пространство 3 дополним •о-алгеброй 3 его борелевских множеств (наименьшей о-алгеброй, порожденной открытыми множествами из 3) и пару [3, 3] также назовем пространством со- стояний. 370
Пусть I—интервал времени наблюдения за данной системой. Рассматри- ваются только случаи 1=[0, оо) (непрерывное время), I={0, 1, ...} (дискретное время) и их ограниченные подмножества. Определение АЛ. Стохастический процесс на интервале I с пространством состояний [3, 3] есть семейство {Z(t), tel} случайных элементов со значением в 3, заданных на одном и том же вероятностном пространстве. При каждом tel будем интерпретировать Z(t) как случайное состояние си- стемы в момент t. Относительно математического смысла выражения «на одном и том же вероятностном пространстве» см., например, [166]. Наглядно это озна- чает, что все случайные элементы Z(t) описывают одно и то же стохастическое явление. В случае дискретного времени пишем Zn вместо Z(n) и говорим о слу- чайной последовательности {Zn, nel}. Используем также обозначения {Zt}*^ и ^п}П£Г Пусть Pti где *1* *2* •••’ произвольны, означает распределение случайного вектора (Z (tj, ..., Z (tn)j. Семейство Pti , t n^l, t2, ..., tnGl, называется семейством конечном? рных распределений процесса {Z (t), t GE 1}. Пусть j1 означает множество всех функций z={z(t), tel} на интервале I со значениями в пространстве 3, а з1— это о-алгебра подмножеств З1, порожденных множествами {z : геЗ1, z(t)eLi, ..., z(tn)eLn}, n^l; tjC=I; Ьез; j, ..., и. Со- гласно известной теореме Колмогорова [66] с помощью конечномерных распре- делений однозначно определено распределение вероятностей Р на з1, которое называется распределением процесса {Z(t), tel}. В этом смысле стохастический процесс {Z(t), tel} является случайным элементом, значения которого есть функции геЗ1. Поэтому говорят также о 3-значных случайных функциях Z(t). Имеет место соотношение Р (z_: z (tje Ц... z (tn)G Ln)=P(i....tn (L,X •.. XLn)=P (Z (t,)e Ц,... ...,z(tn)eLn). Функции z={z(t), t<=I}e=3' называются реализациями процесса {Z(t), tel}. Для каждого uel определим оператор сдвига Su на множестве З1 с по- мощью соотношения Suz={z(t—u), t—uel}, которое означает, что функция Suz имеет в точке vel значение z(v-j-u) (рис. А.1). Следующее понятие имеет большое значение для изучения поведения систе- мы в состоянии статистического равновесия. Рис. А.1. Реализации стохастического процесса Z и сдвинутого на U процесса SuZ 371
Определение А.2. Стохастический процесс {Z(t), tel} называется стацио- нарным в сильном смысле, если его распределение Р инвариантно по отношению ко всем операторам сдвига Su, uel, т. е. если для всех Cej1 Р (z : SuzeC) = Р (z : zeC). Если сдвинуть начало отсчета времени на и, то поведение системы во време- ни будет описываться процессом {Z(t—|-u), tel}. Если процесс {Z(t), tel} ста- ционарный, то он и процесс {Z (u—|-t), tel} эквивалентны, т. е. имеют одно и то же распределение Р. Стохастический процесс стационарен тогда и только тог- да, когда его конечномерные распределения таковы, что tn = Pt1 + u, ..tn+u » U£=I- Определение А.З. Функция p(z, L), ze3, Le^, называется переходной ве- роятностью, или стохастическим ядром из 3 в 3, если она а) измерима по L при фиксированном z; б) является распределением на а по L при фиксированном z. Определение А.4. Случайная последовательность {Zn, п^О} называется одно- родной марковской цепью с пространством состояний 3 и стохастическим ядром p(z, L), z<=3, Leg, если для каждого п^О P(Zn+i^L|Z0, ..., Zn—1, Zn = z)=p(z, L). Если 3={0, L ..m}, то переходные вероятности представаляют собой сто- гн хастическую матрицу ((pij)) (рц^О, 2 Ри=1 Для всех 0- Матрица ((pij)) j=o называется переходной. Из определения марковской цепи следует, что ее распре- деление полностью задается переходными вероятностями p(z, L) и начальным распределением р°: p°(L)=P(ZoeL), Leg. В частности, P(ZneL) = j pn*(z, L)p°(dz), (АЛ) 8 где рп* означает п-кратную свертку р (z, L): р1* (z, L) =p(z, L), p(n+1>*(z, L) = рп* (у, L) р (z, dy). 3 Для конечных пространств состояний 3 эти степени свертки являются просто степенями переходной матрицы ((pij)). Определение А.5. Пусть {Zn, п^О} — марковская цепь с переходными ве- роятностями p(z, L). Ее начальное распределение р° называется стационарным или инвариантным, если Р° (L) = J р (z, L) р° (dz) для всех Leg. (А.2) 8 Теорема А.1. Для того чтобы марковская цепь {Zn} с переходными вероят- ностями p(z, L) и начальным распределением р° была стационарной, необходимо и достаточно, чтобы ее начальное распределение было стационарным. Если урав- 372
нение (А.2) имеет единственное вероятностное решение, то согласно выражению (АЛ) P(ZneL) =p°(L) для всех п>0. (А.З) Определение А.6. Функция p(z, t, L), ze3, tel, Lea называется (однород- ной) марковской переходной функцией, если она а) измерима по z при фиксированных t и L; б) является распределением по L при фиксированных t и z; в) для произвольных t, u>0 р (z, t + u, L) = j p (y, u, L) P (z, t, dy). 3 Из в) следует, что для I={0, 1, ...} переходные функции задаются с по- мощью вероятностей на одном шаге p(z, 1, L)=p(z, L) (см. определение А.З). В случае непрерывного времени по аналогии с понятием марковской цепи имеет место определение. Определение А.7. Стохастический процесс {Z(t), te[0, оо)} называется мар- ковским с переходной функцией p(z, t, L), если для каждого п^О, произвольных 0^ti<t2< ... <tn и t>0 P(Z(tH-tn)sL|Z(t1), ..., Z(tn-i), Z(tn)=z)=p(z, t, L), ze3, Lea. Распределение марковского процесса определяется его начальным распреде- нием p°(L) =P(Z(0)eL) и переходной функцией p(z, t, L), ze3, Le[0, oo), I ea. В частности, P(Z(t)el) = Jp(z, t.L)pO(dz). 3 Определение A.8. Распределение p° называется стационарным начальным рас- пределением марковского процесса с переходной функцией p(z, t, L), если для t>0 p°(L) = Jp(z, t, L)p<>(dz), Le3- (A. 4) 3 Теорема А.2. Для того чтобы марковский процесс с начальным распределе- нием р° и переходной функцией p(z, t, L) был стационарным, необходимо и до- статочно, чтобы распределение р° было стационарным. Непосредственно из (А.4) следует, что для стационарного марковского про- цесса P(Z(t)eL) =p°(L) для всех Lea. 373
СПИСОК ЛИТЕРАТУРЫ 1. Abraham. J^A. (1979): An improved algorithm for network reliability. IEEE Trans. Reliab. R-28, 58-61 2. Aggarwal, К К , Gupta. J. S . Misra, К В. (1973). A new method for system reliability evaluation Microelectr. Reliab. 12,435—440 3. Aggarwal. К. K.. Misra. К. B., Gupta, J S. (1975 a): Reliability evaluation: A competitive study of different techniques. Microelectr. Reliab 14.49—56 4. Aggarwal, К. K.-; Misra, К. В , Gupta, J S. (1975b): A fast algorithm for reliability evaluation. IEEE Trans. Reliab. R-24, 83—85 5..Ahmad, I. A. (1975). A nonparametric test for the monotonicity of a failure rate function. Commun. Statist. 4,967-974 6. Anbar, D. (1976): An asymptotically optimal inspection policy. Naval Res. Logist. Quart. 23, 211 —218 7. Antle, С. E. (1972): Choice of model for reliability studies and related topics. Aerospace Res. Laborat.. Techn. Report 72-0108, Ohio 8* . Arndt, K. (1977): Rascet nadeZnosti dublirovannoj sistemy metodom vlozennych polumarkovskich processov. Izv. Akad. Nauk SSSR, Techn. Kibernet., 70—79 9. Arndt, K.; Franken, P. (1977): Random point processes applied to availability analysis of redundant systems with repair. IEEE Trans. Reliab. R-26, 266—269 10. Arndt, K.; Franken, P. (1979): Construction of a class of stationary processes with applications in reliability. Zastos. mat. 16, 379—393 11. Arunkumar, S., Lee, S. H. (1979): Enumeration of all minimal cut-sets for a node pair in a graph. IEEE Trans. Reliab. R-28, 51-55 12 Bain, L. J. (1972): Inferences based on censored sampling from the Weibull or extreme-value distribution. Technometrics 14, 693— 702 13. Bain, L. J. (1978): Statistical analysis of reliability and life -testing models. Marcel Dekker, Inc., New York—Basel 14. Bain, L. J.; Engelhardt, M. (1975): A two-moment chi-square approximation for the statistic log (X/X). J. Amer. Statist. Assoc. 70, 948 —950 15. Ball, О. M. (1979): Computing network reliability. Operations Res. 27, 823—838 16. Ball, О. M. (1980): Complexity of network reliability computations. Networks 10, 153—165 11, Ball, О. M.; van Slyke, R. (1977): Backtracking algorithms for network reliability analysis. Ann. Discrete Math. 1,49-64 18. Barlow, R. E. (1965): Bounds on integrals with applications to reliability problems Ann. Math. Statist. 36 565-574 19. Barlow, R. E.; Bartholomew, D. J.; Brenner, J. M., Brunk, H. D. (1972): Statistical inference undo* order restrictions. J. Wiley & Sons, New York 20. Barlow, R. E.; Compo, R. A (1975): Total time on test processes and applications to failure data analysis4 Aerospace Res. Laborat., Techn. Report 75-0195, Ohio 21. Barlow, R. E.; Hunter, L. C. (1961): Reliability analysis of a one-unit system. Operations Res. 8,90—100 22. Barlow, R. E.; Hunter, L. C.; Proschan, F. (1963): Optimum checking procedures. J. Soc. Ind. Appl. Math 4r 1078-1095 23. Barlow, R. E.; Kiureghian, A.D.; Satyarayana, A. (1980): New methodologies for analyzing pipeline and other lifeline networks relative to seismic risk. ORC 80-5, Oper. Res. Center, Univ, of Calif., Berkeley 24. Barlow, R. E.; Marshall, A. W. (1964): Bounds for distributions with monotone hazard rate I and H. Ann. Math. Statist. 35, 1234-1274 25. Barlow, R. E.; Marshall, A. W. (1965) Tables of bounds for distributions with monotone hazard rate. J. Amer. Statist. Assoc. 60, 872—890 26. Barlow, R. E., Marshall, A. W. (1967): Bounds on interval probabilities for restricted families of distributions. Proceed. Fifth Berkeley Symp. Math. Statist. Probab., 229—257 27. Barlow, R. E.; Marshall, A. W.; Proschan, F. (1963): Properties of probability distributions with monotone hazard rate. Ann. Math. Statist. 34, 375—389 _________________ 28* . Barlow, R. E.; Proschan, F. (1965): Mathematical theory of reliability. New York: J. Wiley & Sons 29. Barlow, R. E., Proschan. F. (1975): Importance of system components and fault tree events. Stochastic Process. Appl. 3,153—173 30. Barlow, R. E., Proschan, F. (1976)- Theory of maintained systems: distribution of time to first system failure. Math. Oper. Res. 1, 32—42 31*. Barlow, R. E.; Proschan, F. (1978): Statistische Theorie der Zuverlgssigkeit. Berlin: Akademie^Verlag 32. Barlow, R. E.: Wu, A. S. (1978): Coherent systems with multi-state components. Math. Oper. Res. 3> 275-281 374
\/ 33. Barr. D. R.. Davidson, T. (1973): A Kolmogorov-Smirnov test for censored samples. Technometrics 15, | ’ 739-757 j 34. Bath, B. R. (1969): Used item replacement policy. J. Appl. Probab. 6, 309—318 35. Beckmann, G . Marx. A (1979): Instandhaltung von Anlagen. Leipzig: VEB Deutscher Verlag fur Grund- { stoffindustrie 36. Beichelt, F. (1974) Ober eine Klasse von Inspektionsmodellen der Zuverlassigkeitstheorie. Math. Opera- tionsforsch. Statist 5, 281 —297 37. Beichelt, F (1975). Minimax checking of replaceable units Zastos. Mat. 14, 529—535 v 38. Beichelt, F. (1976a) Prophylaktische Emeuerung von Systemen. Berlin: Akademie-Verlag * 39. Beichelt, F. (1976b) A general preventive maintenance policy. Math. Operationsfprsch. Statist. 7,927—932 40. Beichelt, F. (1976c) Die Verfugbarkeit eines doublierten Systems mit prophylaktischer Emeuerung. j Elektron. Informationsverarb Kybernetik 7, 355—361 41. Beichelt, F. (1977) Maximum availability under cost restrictions. Z. Angew. Math. Meeh. 57, 77—78 I 42. Beichelt, F (1979). Effektive Planung prophylaktischer MaBnahmen in der Instandhaltung. Berlin: VEB Verlag Technik i 43. Beichelt, F. (1981a). A generalized block replacement policy. IEEE Trans. Reliab. R-30, 171 — 172 44. Beichelt, F. (1981b). Minimax inspection strategies for single unit systems. Naval Res. Logist. Quart. 28, 375-381 i 45. Beichelt, F. (1981c) The availability of replaceable single-unit systems in case of cost restrictions and ' partial information on lifetime distribution. Math. Operationsforsch. Statist. Ser. Optim. 12,453—461 46. Beichelt, F. (1981 d). Replacement policies based on system age and maintenance cost limits. Math. Opera- tionsforsch. Statist Ser Statist 12,621 — 627 47. Beichelt, F (1982)- Replacement policy based on the maintenance cost rate. IEEE Trans. Reliab. R-31, 391 bis 393 48. Beichelt, F., Fischer, K. (1979)" On a basic equation of reliability theory. Microelectron. Reliab. 19," I 367-369 49. Beichelt, F, Fischer, K. (1980). General failure model applied to preventive maintenance policies. IEEE Trans Reliab R-29, 39—41 50* . Beljaev, Ju. K., Machimov, V. M (1963). Svojstva analiticnosti proizvodjascej funkeii dlja disla vosstanov- lenij. Teor Verojatnost i Primenen 8, 108 — 112 51. Bennets, R. G. (1975): On the analysis of fault trees. IEEE Trans. Reliab. R-24, 175—185 52. Berg, M (1976): A proof of optimality for age replacement policies. J. Appl. Probab. 13, 751—759 53 Berg, M., Epstein, В (1976) A modified block replacement policy. Naval Res. Logist. Quart. 23, ’ 15-24 54. Berg, M., Epstein, B. (1978) Comparision of age, block, and failure replacement policies. IEEE Trans. f Reliab. R-27, 25-29 55. Berg, M., Epstein, B. (1979): A note on a modified block replacement policy for units with increasing marginal running costs. Naval Res. Logist. Quart. 26, 157—160 56. Bergman, B. (1980). On the decision to replace a unit early or late — a graphical solution. Microelectron. Reliab 20, 895-896 57. Bhat, B. R. (1963): Used item replacement policy. J. Appl. Probab. 6, 309—318 58. Billman, B. R , Antle, С. E., Bain, L. J. (1972): Statistical inference from censored Weibull samples. Technometrics 14, 831—840 59. Birnbaum, Z. IF. (1969): On the importance of different components in a multicomponent system. In: Multivariate Analysis II. New York: Academic Press 4Q.Birolini, A (1974). Some applications of regenerative stochastic processes to reliability theory — Part 1: Tutorial introduction. IEEE Trans. Reliab. R-23, 186—194 'бЬ Blanning, R W (1965): Replacement strategies Operational Res Quart 16 253—254 ’62. Block, H. W , Savits, T. H (1979) • Systems with exponential life and IFRA component lives Ann. Statist. 7, 911-916 <63. Bodin, L. D (1970)* Approximations to system reliability using a modular decomposition. Technometrics 12, 335-344 64. Boland, P J , Proschan, F (1981) Periodic replacement with increasing costs at failure. FSU Statist Report No M578 AFOSR Technical Report No 78—123 65. Bondy, J A , Murty, U S R (1976) Graph theory with applications New York American Elsevier $6*.Borowkow, A A (1976) Wahrscheinlichkeitstheorie Berlin Akademie-Verlag 67. Bosch, K., Jensen, U. (1978) Deterministische Inspektionsstrategien. Z Operations Res. 22, 151 — 168 68. Bosch, K., Richter, H (1971) Ober den Erwartungswert der bis zur Zeit t angekommenen Kunden einer s Warteschlange bei gleichverteilten Ankunftszeiten. Metrika i8, 1— 5 59. Branson, M., Shah, B. (1971). Reliability analysis of system comprised of units with arbitrary repair-time distributions IEEE Trans. Reliab R-20, 217—223 70. Brender, D M (1963) A surveillance model for recurrent events IBM Watson Research Center Report 375
71 . Brown, M (1975) The first passage time distribution for a parallel exponential system with repair. In: Reliabili- ty and Fault Tree Analysis, SIAM, Philadelphia 72. Brown, M. (1979)- Approximating DFR distributions by exponential distributions with applications to first passage times. AFOSR Technical Report No 79-B2, Florida State University •73. Brown, M. (1980): Bounds, inequalities and monotonicity properties for some specialized renewal processes. Ann Probab 8, 227-240 74. Brown, №.. Ross, S M (1972) Asymptotic properties of cumulative processes SIAM J Appl Math 22, 93-105 75. Butler, D А (\9T1) An importance ranking for system components based upon cuts Operations Res 25, 874-879 76. Butler, D A. (1979) A complete ranking for components of binary coherent systems with extensions to multi-state systems Naval Res. Logist. Quart 26, 565—578 77. Butterworth, R. W., Marshall, К T. (1964)- A survey of renewal theory with emphasis on approximations, bounds and applications Naval Postgraduate School, Montrerey. California 7# Buzacott, J. A (1980) A recursive algorithm for finding the probability that a graph is disconnected. Networks 10 79* Cepurin, E. V. (1973): О statistideskich vyvodach dlja processov vpsstanovlenija. In Statistiteskie metody v teoni jiadeinosti i kontrole kaCestva. Izd. Moskovskogo Universiteta 43, 9—25 80. Chan, L. K.; Mead, E. Л. (1971): Linear estimation of the parameters of the Extreme-Value distribution based on suitably chosen order statistics. IEEE Trans. Reliab. R-20, 74—83 81. Chase, G. R., Hewett, J. E. (1973): On testing for equality of two availabilities Technometncs 15, 889-896 82. Chernoff, H.; Lehmann, E. L. (1954): The use of maximum likelihood estimates in /-Tests for goodness of fit. Ann, Math. Statist. 25, 579—586 83. Chiang, D. T., Niu, S C. (1980): On the distribution of time to first system failure. J. Appl. Probab. 17, 481-489 84. Chhikara, R. S.; Folks, J. L. (1976): Optimum test procedure for the mean of first passage time distribution in Brownian motion with positive drift. Technometrics 18, 188—193 85. Choi, S. C.; Wette, R. (1969): Maximum likelihood estimation of the parameters of the gamma distribution and their bias. Technometrics 11, 683 —690 86. Cmlar, E. (1975): Introduction to stochastic processes. Prentice Hall: Englewood Clifts, New York 87. Clapham, J. C. R (1957): Economic lifetime of equipment. Oper. Res. Quart. 8, 181 — 190 88. Cleroux, R.; Duhuc, S.; Tilquin, C. (1979): The age replacement problem with minimal repair and random repair costs. Operations Res. 27, 1158—1167. 89. Cohen, A. C. (1951): Estimating parameters of logarithmic-normal distributions by maximum likelihood. J. Americ. Statist. Assoc. 46, 206—212 90. Cohen, A. (1961): Tables for maximum likelihood estimates, singly truncated and singly censored samples. Technometrics 3,535—541 91. Cohen, A. C. (1965): Maximum likelihood estimation in the Weibull distribution based on complete and censored samples. Technometrics, 7, 579—588 92. Cohen, J. W. (1976): On regenerative processes in queueing theory. Leet. Notes in Economics Math. Systems 121. Berlin, Heidelberg, New York: Springer-Verlag 93. Cox, D. R. (1962): Renewal theory. London: Methuen 94* . Cox, D. R.; Lewis, P. A. W. (1966): The statistical analysis of series of events. New York: J. Wiley & Sons 95. Csorgo, S.; Horvath, L. (1981): On the Koziol — Green model for random censorship I. Biometrika 68, 391-401 96. D'Agostino, R. B. (1971): An omnibus test of normality for moderate and large sample sizes. Biometrika 58, 341-348 97. D'Agostino, R. B. (1972): Small sample probability points for the D-test of normality. Biometrika 59; 219-221 98. Daley, D. J. (1978). Bounds for the variance of certain stationary point processes. Stochastic Process. Appl. 7. 255-264 99. Davis, D. J. (1952) An analysis of some failure data J. Amer. Statist. Assoc 47, 113—150 100. Derman, C (1961): On minimax surveillance schedules. Naval Res. Logist. Quart. 8, 415—419 101. Derman, C.; Smith, D. R. (1980). An alternative proof of the I FRA property of some shock models Naval Res Logist Quart 27, 703 — 707 102. Drinkwater, R W , Hastings, N V J (1967)- An economic replacement model. Oper. Res. Quart. 18, 59—71 103*. Druzinin, G. V (1977): Nadeinost’ avtomatizirovannych sistem. Energija, Moskva 104. Dubey, S D (1966). On some statistical inferences for Weibull laws Naval Res. Logist. Quart. 13, 227-251 105. Dubey, S. D. (1967 a). Some percentile estimators for Weibull parameters. Technometrics 9, 119—129 376
106. Dubey, S D (1967 b): On some percentile estimators of the location parameters of the Weibull and cenam other distributions. Technometrics 9, 293—307 107. Durbin, J (1975) Kolmogorov-Smirnov tests when parameters are estimated with applications to tests of exponentiality and tests on spacings. Biometrika 62, 5—22 108. Eilon, S : King, J R , Hutchinson, D E (1966). A study in equipment replacement. Oper, Res. Quart. 17, 59-71 109. El-Neweihi, E , Proschan, F , Sethuraman, J. (1978). Multistate coherent systems. J. Appl Probab. 15, 675-688 110. Engelhardt, M. (1975)* On simple estimation of the parameters of the Weibull or Extreme-Value distribution. Technometrics 17, 369—374 111. Engelhardt, M . Bain, J (1973) Some complete and censored sampling results for the Wpibull or Extreme-Value distribution Technometrics 15, 541—549 112. Engelhardt, M , Bain, J (1974) Some results on estimation for the two-parameter Weibull or Extreme-Value distribution Technometrics 16,49—56 \\3. Engelhardt, M , Bain, J (1975) Tests of two-parameter exponentially against three-parameter Weibull alternatives Technometrics 17, 353 — 356 114. Engelhardt, M , Bain, J. (1977): Uniformly most powerful unbiased tests on the scale parameters of a gamma distribution with a nuisance shape parameter Technometrics 19, 77—81 115. Esarv, J. P . Proschan, F (1963): Relationships between system failure and component failure rate.Techno- metrics 5, 183—189 116. Esary, J. D , Prsschan, F (1970): A reliability bound for systems of maintained, interdependent components. J Americ Statist. Assoc. 65, 329—338 117. Esary, J D . Marshall, A. W , Proschan, F (1971) Determining an approximate constant failure rate for a system whose components have constant failure rates. In: Operations Res. and Reliab. New York, London, Paris. Gordon and Breach US. Esary, J D . Marshall, A W., Proschan, F (1973) Shock models and wear processes Ann. Probab. 1, 627-649 119* Feller, W (1968) An introduction to probability theory and its applications. I. New York* J. Wiley & Sons 120. Feller, IV (1971) An introduction to probability theory and its applications. II. New York: J Wiley & Sons 121. Fertlg, K. IK, Mann, N R (1980) Life-test plans for two-parameter Weibull populations Technometrics 22, 165-177 122. Finkelstein, J N , Schafer, R. E (1971). Improved goodness-of fit tests. Biometrika 58, 641—645 123. Fischer, К (1977). Verkehrssicherungstechnik, 4. Lehrbrief. Berlin: VEB Verlag Technik 124. Folks, J. L., Chhikara, R. S. (1978). The inverse Gaussian distribution and its statistical application — A review. J. Roy Statist Soc. В 40, 263 — 289 125* . Ford, L. R., Fulkerson, D. R (1962) Flows in networks. Princeton, New York: Princeton University Press 126. Fox, B. L. (1966): Age replacement with discounting. Operations Res. 14, 533—537 127. Franken, P. (1963a): Utodnenie pridelnoj teoremy dlja superpozicii nezavisimich processov vosstanovlenija. Teor. Verojatnost. i Primenen. 8, 341—349, 128. Franken, P. (1963b): Approximation durch Poissonsche Prozesse. Math. Nachr. 26, 101 — 114 129. Franken, P. (1978): A remark on the stationary availability. Math. Operationsforsch. Statist. Ser. Optimiz. 9, 143-144 130* . Franken, P.; Hauser, К. P. (1977): Ocenki pokazatelej nadeinosti dlja rezervirovannych sistem s vosstanovle- niem. Izv. Akad. Nauk SSSR, Techn. Kibernet. 4, 100—105 131. Franken, P., Konig, D., Arndt, U ; Schmidt, V (1981). Queues and point processes. Berlin* Akademie- Verlag 132. Franken, P.. Streller, A. (1978): A general method for calculation of stationary interval reliability of complex systems with repair. Elektron. Informationsverarbeit. Kybernetik 14, 283—290 133* . Franken, P., Streller, A (1979)* Stacionarnyje obobscennyje regenerirujuscieje processy Teor Verojatnost. i Primenen 24,78—90 134. Franken, P , Streller, A. (1980) Reliability analysis of complex repairable systems by means of marked point processes J. Appl. Probab 17, 154—167 135. Franz, J. (WlTy Niveaudurchgangszeiten zur Charakterisierung sequentieller Schatzverfahren Math. Operationsforsch Statist Ser. Statist. 8, 499 — 510 YM.Fratta. L., Montanari, U G (1973)* A Boolean algebra method for computing the terminal reliability in a communication network. IEEE Trans on Circuit Theory CT-20, 203 — 211 137. Fratta, L. : Montanari, U. G. (1978). A recursive method based on case analysis for computing network reliability IEEE Trans. Comm. C-26, 1166—1177 138. Fussel. J В (1975)* How to hand-calculate system reliability and safety characteristics IEEE Trans. 25—6301 377
Reliab R-24, 169-174 139*. Gados in, V A . Usakov, I. A (1975): NadeZnost sloZnych informacionno — upravljajuSdich sistem Moskva: Sovetskoe radio 14ft. Gaede, К W (1977)-Zuverlassigkeit. Mathematische Modelie Munchen, Wien Carl Hanser Verlag 141. Gardent, P , Nonant, L (1963)- Entretien et renouvellement d’un pare de machines Revue fr. Rech. oper. 7; 5-19 142. Gaver, D P. (1963) Time to failure and availability of paralleled systems with repair IEEE Trans Reliab. R-12,30-38 143. Gerlach, В (1978a): A characterization of availability with statistical applications Math Operationsforsch. Statist Ser. Statist 9, 563—586 144. Gerlach, В (1978 b): Anpassungstests fur Lebensdauerverteilungen. Konfidenzmtervalle und Tests fur die Ver- fiigbarkeit reparierbarer Systeme 145. Gerlach, В (1979): A consistent correlation-type goodness-of-fit test with applications to the two-parameter Weibull distribution Math Operationsforsch. Statist Ser Statist. 10, 427—452 146. Gerlach, B. (1980) A correlation-type goodness-of-fit test for normality with censored sampling. Math. Operationsforsch Statist Ser. Statist 11,207—218 147. Gerlach, В (1983) A correlation-type goodness-of-fit test for the logistic distribution with censored data. Math. Operationsforsch Statist. Ser. Statist. 148. Gerlach, В , Kirstein, В M (1982)- On the failure time distribution of a maintained (n — 1) out of n system. Math. Oper Res, eingereicht 149. Ge rtsbakh, I В (1977)-Models of preventive maintenance Amsterdam, New York. North Holland Publishing Company ISO. Glaser, R. E (1976). The ratio of the geometric mean to the arithmetic mean for a random sample from a gamma distribution. J Amer Statist. Assoc 71,480—487 151. Glasser, G J. (1971). The age replacement problem Technometrics 9, 83—91 152*. Gluchov, V N. (1972). Vremja ispolnenija i drugie nadeznostnye charaktenstiki. Avtomat. i Telemech. 10, 184-192 153. Gnedenko, B. W (1943) Sur la distribution limite du terme maximum d’une serie aleatoire. Ann. Math. 44, 423-453 154*. Gnedenko, В W (1964) О dublirovanij s vosstanovleniem Izv Akad Nauk SSSR, Techn Kibemet., 82—89 155*. Gnedenko, В W., Mach mud, I M (1976)’ О dlitel'nosti bezotkaznoj raboty dublirovannoj sistemy s vossta- novleniem i profilaktiki. Izv Akad Nauk SSSR, Techn. Kibemet, 86—91 156*. Gnedenko, B. W , Beljajew, J К , Solow jew, A D (1968) Mathematische Methoden der Zuverlassigkeits- theone I Berlin Akademie-Verlag 151*.Gnedenko, В W , Kowalenko, I. N. (1971) Einfiihrung in die Bedienungstheorie. Berlin: Akademie-Verlag 153*. Golodnikov, A. N., Stojkova, L. S (1973). Opredelenie optimalnogo perioda preduprediteinoj zameny na osnove informacii о matematiceskom ozidanii i dispersii vremeni bezotkaznoj raboty sistemy. Kibernetika (Kiev) 3, 110-118 159 .Graf, U., Henning, H -J.. Stange, К (1966)- Formeln und Tabellen der mathematischen Statistik. Berlin, Heidelberg, New York - Spnnger-Verlag 160 . Gray, H. L., Lewis, T О (1967) A confidence interval for availability ratio. Technometrics 9, 465—471 161 . Gray, H. L., Schucany, W R (1969) Lower confidence limits for availability assuming log-normally distributed repair times. IEEE Trans. Reliab! R-18, 157—162 162 .Grice, J. V., Bain, L. J. (1980) • Inferences concerning the mean of the gamma distribution. J. Amer. Statist. Assoc. 75,929-933 163 .Griffith, W. S (1980): Multistate reliability models. J. Appl. Probab. 17, 735—744 164*.De Groot, M. H. (1970): Optimal statistical decisions. New York. McGraw Hill 165*.Gumbel, E J (1958) Statistics of extremes New York Columbia University Press 166. Hansler, E . M<Auliffe, G К . Wilkov, R S (1974) Exact calculation of computer network reliability. Networks 4. 95 - 112 } 61*. Harar у, F (1969) Graph theory Addison — Wesley, Reading, Mass 168. Harter, H L , Moore. A H (1966) Iterative maximum likelihood estimation of the parameters of normal populations from singly and doubly censored samples Biometrika 53, 205 — 213 169. Hastings, N V J (1968) Some notes on dynamic programming and replacement Oper. Res. Quart. 19, 453-464 170. Hecker, U (1979) Tabellen zur inversen GauBverteilung "Jahresbericht, TH Magdeburg, Sektion Mathema- tik und Physik (unveroffentlicht) 111.Henley, F J , Williams, R A (1973) Graph theory in modern engineering. New York: Academic Press 172. Hoeffding, W (1955) The extrema of the expected value of a function of independent random Variables. Ann, Math Statist. 26,268-275 173. Hofle-Isphording, U (1978) Zuverlassigkeitsrechnung Berlin, Heidelberg, New York: Springer-Verlag 378
174. Hollander, M.; Proschan, F. (1972): Testing whether new is better than used Ann Math Statist 43, 1136-1146 175. Hollander, M.; Proschan, F. (1974) A test for superadditivity of the mean value function of nonhomogeneous Poisson process. Stochastic Process. Applic 2, 195—209 176. Hollander, M.. Proschan, F. (1975): Test for mean residual life Biometrika 62, 585 -593 177. Hopcroft, J E.: Tarjan, R E (1973). Dividing a graph into triconnected ^components. SIAM J. of Computing 2, 135—158 \18*.Jahnke, E., Emde, F ; Losch, F (1960): Tafeln hoherer Funktionen Stuttgart. Teubner-Verlag 179. Kalbfleisch, J , Prentice, R L (1980) The statistical analysis of failure time data New York John Wiley & Sons 180. Kamarinopoulos, L , Ridhter, G (1975) Vergleichende Untersuchungen verschiedener Methoden zur Berech- nung der Ausfallwahrscheinlichkeit komplexer Systeme Atomkernenergie 26, 107—113 Iftl.Kander, Z : Raviv, A (1974). Maintenance policies when failure distribution of equipment is only partially known. Naval Res Logist. Quart. 21, 419—429 182. Keilson, J (1979). Markov chain models — rarity and exponentially New York, Heidelberg, Berlin Springer- Ver lag 183. Kendall, M G. (1938). A new measure of rank correlation. Biometrika 30, 81- 93 \84.Kent, A. (1971)' The effect of discounted cash flow on replacement analysis Oper Res Quart 21, 113-117 185. Kerstan, J , Matthes, К , Mecke, J. (1974)- Unbegrenzt teilbare Punktprozesse Berlin Akademie-Verlag 186 .Kim, Y. H.,Case,К E.,Ghare,P.M (1972): A method for computing complex system reliability lEEETrans Reliab R-21, 215-219 187. Kimball, B. F. (N60) On the choice of plotting positions on probability paper J Amer Statist Assoc. 55, 546-560 188. Knott, M. (1974): The distribution of the Cramer-von Mises statistic for small sample sizes J Royal Statist. Soc. Ser. В 36, 430 -438 IW.Kdchel, P (1982): Zuverlassigkeit technischer Systeme Leipzig' VEB Fachbuchverlag 190. Konig, D., Matthes, К , Nawrotzki, К (1974)- Unempfindlichkeitseigenschaften von Bedienungsprozessen. Anhang zu Gnedenko, В W . Kowalenko, I N (1971) 191. Konig, D., Rolski, T . Schmidt, V , Stovan, D (1978)- Stochastic processes with imbedded marked point processes and their applications in queueing. Math. Operationsforsch Statist Ser Optim 9, 125- 141 192. Kontoleon, J. M. (1980) An algorithm for evaluating overall reliability of special tree-networks IEEE Trans. Reliab R-29, 314 193, Kovalenko, I, N. (1971). Einfiihrung in die Bedienungstheorie. Berlin. Akademie-Verlag 194. Koroljuk, V, S.; Turbin, A. F. (1976)' Polumarkovskije processy i ich prilo&nije. Kiev Naukova dumka 195, Koslow, B. A.; Uschakow, I A (1978) Handbuch zur Berechnung der Zuverlassigkeit Berlin Akademie- Verlag 196. Kotz, S. (1973): Normality vs. lognormality with applications. Comm Statist. 1, 113—132 197. Koul, H. L. (1978). Testing for new better than used. Comm. Statist. 4, 685—701 198. Koziol, J. A. (1980): Goodness-of-fit tests for randomly censored data Biometrika 67, 457 -481 199. Koziol, J. A.; Byar, D P. (1975) Percentage points of the asymptotic distributions of one and two sample K-S statistics for truncated or censored data. Technometrics 17, 507—510 200*.Kozlov, B. A. (1969). Rezervirovannych s vosstanovleniem. Moskva Sovetskoe radio 201. Krishnamurthy, E V , Komoissar, G (1972) Computer-aided reliability analysis of complicated networks. iEEE Trans. Reliab. R-21, 86- 89 202. Kuiper, N H. (1960) Tests concerning random points on a circle Proc Koninkl Akad van Wettenschapen Ser A 63, 38-47 203. Lambert, H E (1975) Measures of importance of events and cut sets in fault trees. In Reliability and Fault Tree Analysis, SIAM, Philadelphia 204. Lawler, E (1976) Combinatorial optimization Networks and matroids. New York' Holt, Rinehart and Winston 205. Lawless, J F . Mann, N R (1976) Tests for homogeneity of extremvalue scale parameters. Comm. Statist 5, 389 -405 2&.L illiefors, H W (1967) On the Kolmogorov-Smirnov test for normality with mean and variance unknown. J Amer Statist Assoc. 62, 399 —402 207. Lilliefors, H W (1969). On the Kolmogorov-Smirnov test for the exponential distribution with mean unknown J. Amer. Statist. Assoc. 64, 387—389 208. Lin, P M . Leon, B. J.. Huang, T. G (1976)' A new algorithm for symbolic system reliability analysis. IEEE Trans Reliab. R-25, 2—15 209. Lindvall, T (1977). A probabilistic proof of Blackwell’s renewal theorem Ann. Probab. 5, 482—485 210. Linhart, H (1965) Approximate confidence limits for the coefficient of vanation of Gamma distnbutions. 25* 379
Biometrics 21, 733—738 211. Locke, C. (1976): A test for the composite hypothesis that a population has a Gamma distribution. Comm. Statist. A 5, 351-364 212. Loc£s, M O. (1978)- Inverting and minimalizing path sets and cut &ts. IEEE Trans. Reliab. R-27, 107-109 *213.Locks, M. O. (1979): Inverting and minimizing Boolean functions, minimal paths and minimal cuts: Non- coherent system analysis. IEEE Trans. Reliab. R-28, 373—375 • 214. Locks, M. O. (1980): Recursive disjoint products, inclusion-exclusion, and min-cut approximations. IEEE Trans Reliab. R-29,368-371 215.Lomnicki, Z. A. (1966): A note on the Weibull renewal process. Biometrika 53, 375—381 6. Lor den, G. (1970): On excess over the boundary. Ann. Math. Statist. 41, 520-527 217. Louter, A. S.; Koerts, J. (1'970)' On the Kuiper test for normality with mean and variance unknown. . Statist. Neerlandica 24, 83—87 218. MacLane, S. (1937): A structural characterization of planar combinatorial graphs. Duke University Mathem. J. 3, 460-472 219. Makabe, H.; Morimura, H. (1963a): On some preventive maintenance policies. J. Oper Res. Soc Japan 6, 17-47 220. Makabe, H., Morimura, H. (1963 b): A new policy for preventive maintenance J Oper. Res Soc Japan 5, 110-124 221. Makabe, H.: Morimura, H. (1965): Some considerations on preventive maintenance policies with numerical analysis. J. Oper. Res. Soc. Japan 7, 154—171 222. Mann, H. B. (1948): Nonparametric test against trend. Econometrica 13, 245--249 223. Mann, N. R. (1967): Tables for obtaining the best linear invariant estimates of parameters of the Weibull distribution. Technometrics 9, 629—645 224. Mann, N. R (1970)' Estimators and exact confidence bounds for Weibull parameters based on a few ordered observations. Technometrics 12, 345—361 225. Mann, N. R. (1971): Best linear invariant estimation for Weibull parameters under progressive censoring. Technometrics 13, 521—533 226. Mann, N. R., Fertig, K. (1973): Tables for obtaining Weibull confidence bounds and tolerance bounds based on best linear invariant estimates of parameters of the Extrem-value distribution. Technometncs 15, 87-101 227. Mann, N. R : Fertig, K. (1975). Simplified efficient point and interval estimators for Weibull parameters. Technometrics 17, 361 — 368 228. Л/алл, N. R.; Fertig, K. (1975): A goodness-ofc fit test for the twoparameters vs three-parameter Weibull, confidence bounds for treshold. Technometrics 17, 237—245 229. Mann, N R.. Schafer, R. E.; Singpurwalla, N D. (1974): Methods for statistical analysis of reliability and life data. New York- John Wiley & Sons 230. Marshall, К T. (1968)' Some inequalities in queueing. Oper. Res. 16, 651—665. 231. Marshall, К T. (1973): Linear bounds on the renewal function. SIAM J. Appl. Math 24, 245—250 232. Marshall, A W.; Proschan, F (1970): Classes of distributions applicable in replacement with renewal theory implications. Proceedings of the Sixth Berkeley Symposium on Mathematical Statistics and Probability 1,395-415 233. л/дгилп/дг, M. (1970): Reliability of two-unit redundant repairable systems when failures are revealed by inspections. SIAM J. Appl. Math 19. 637 -647 234. McCool, J. I. (1970): inferences on Weibull percenfiles and shape parameter from maximum Likelihood estimates. IEEE Trans. Reliab. R-19, 2—9 235. McCool, J. I. (1974): Inferential techniques for Weibull populations. Aerospace Research Laboratories Technical Report 74-0180, United States Air Force, Wright-Patterson Air Force Base, Ohio 236. McCool, J. /. (1975): Multiple comparison for Weibull parameters. IEEE Trans. Reliab. R-24, 186—192 237. Mecke, J. (1967): Zum Problem der Zerlegbarkeit statkmarer rekurrenter zufalliger Punktfolgen. Math. Nachr. 35, 311-321 238. Menon, M. V. (1963): Estimation of the shape and scale parameters of the Weibull distribution. Tech- nometrics 5,175—-182 239. Miller, D. R. (1977): A continuity theorem and some counterexamples for the theory of maintained systems. Stochastic Process. Appl. 5, 307—314 240. Miller, D. R. (1979): Almost sure comparisons of renewal processes and Poisson processes, with applications to reliability theory. Math. Oper. Res. 4, 406—413 241. Misra, R. B. (1979): An algoritm for enumerating all simple paths in a communication network. Microelectr. and Reliab. 19,363-366 242. Morimura, H. (1970). On some preventive maintenance policies for IFR. J. Oper. Res. Soc. Japan 12, 94-124 380
243. Muller, P. H.; Neumann, P.; Storm, R. (1973): Tafeln der mathematischen Statistik. Leipzig: VEB Fachbuch verlag 244. Munford, A. G.; Shahani, A. K. (1972): A nearly optimal inspection policy. Oper. Res. Quart. 23, 373—379 245- Munford, A. G.; Shahani, A. K. (1973): An inspection policy for the Weibull case. Oper. Res. Quart. 24, 453 bis 458 246. Murthy, V. K., Swartz, G. B. (1975): Estimation of Weibull parameters from two order statistics. J Royal Statist. Soc. Вег. В 37, 96—102 247. Muth, E. J. (1970): Excess time, measure of system repairability. IEEE Trans. Reliab. R-19, 16—19 248. Nakagawa, T (1979a): The decision to replace a unit early or late in an age replacement problem. Microelectr. and Reliab. 19,265-267 249. Nakagawa, T. (1979b). Optimum replacement policies for a used unit. J Oper Res Soc. Japan 22, 338 -347 250. Nakagawa, T. (1979c): Optimum policies when preventive maintenance is imperfect. IEEE Trans. Reliab. R-28,331 —332 251. Nakagawa, T. (1980): A summary of imperfect preventive maintenance with minimal repair. R A.I.R.O. 14, 249-255 252. Nakagawa, T.; Osaki, S. (1974): Optimum preventive maintenance policies for a two-unit standby redundant system. IEEE Trans. Reliab. R-23. 86 -91 253. Nakagawa, T.; Osaki, S. (1975): Stochastic behavior of a 2-unit standby redundant system with imperfect switchover. IEEE Trans. Reliab. R-24, 143—146 254. Nakazawa, H. (1979): Equivalence of a nonoriented line and a pair of oriented lines in a network. IEEE Trans. Reliab. R-28, 364-367 255. Natvig, B. (1979): A suggestion of a new measure of importance of system components Stochastic Process. Appl. 9,319-330 256. Natvig, B. (1982): Two suggestions of how to define a multistate coherent system Adv in Appl. Probab 14, 434- 455 257. Npwrotzki, K. (1975): Markovskije slucajnyje markirovannyje potoki i ih primenenije v teorii massovogo obsluzivanija. Math. Operationsforsch. Statist. 6, 445—477 258. Nelson, W. (1968): A statistical test for equality of two availabilities Technometrics 10, 594 -596 iy). Nichols-Hagstrom, J (1980): Combinatoric tools for computing network reliability. Berkeley Ph D Thesis, University of California 2 60.0&jfct, S (1970): System reliability analysis by Markov renewal processes J. Oper Res. Soc. Japan 12, 127-188 261 . Osaki, S . Nakagawa, T (1971): On a two-unit standby redundant system with standbv failure. Oper Res 19, 510-523 262 . Owen, D. В (1962): Handbook of statistical tables. Addison-Wesley Publishing Company, Inc , Reading, Massachusetts 263 .Park,K S (1979): Optimal number of minimal repairs before replacement lEEETrans Reliab R-28,137- 140 254. Pearson, K. (1922): Tables of the incomplete Г-function London. H M. Stationary Office (seit 1934: Cambridge University Press) 265. Pearson, E S., Stephens, M A (1962) I'he goodnes-of-fit tests based on W* and U* Biometrika 49, 397 - 402 266. Petrowa, B. (1980): Algorithmische Berechnung der Zuverlassigkeit von Netzstrukturen mit Hilfe derEDV. Hochschule Шт Verkehrswesen Dresden, Diplomarbeit (unveroffentlicht) 267. Pettitt, A. N. (1976): Cramer von Mises statistics for testing normally with censored samples. Biometrika 63, 475-481 268. Pettitt, A. N. (1977): Tests for the exponential distribution with censored date using Cramer von Mises statistics. Biometrika 64, 629—632 269. Pettitt, A. N. (1978): Generalized Cramer von Mises statistics for the Gamma distribution. Biometrika 65, 232-235 270. Pettit, A. N.; Stephens, M. A. (1976): Modified Cramer von Mises statistics for censored data. Biometrika 63, 291-298 271. Phelps, R. I. (1981): Replacement policies under minimal repair. J. Oper. Res. Soc. 32, 549—554 272. piatz, D. (1976): Availability of a renewable, checked system. IEEE Trans. Reliab. R-25, 56—58 213* . Polesskij, V. P. (1971): Ob odnoj niinej granice nadeinosti informacionnych setej. Problemy Peredadi Infor- .nacii 7,88—96 214. Preuft, H. (1976): Zuverlassigkeit elektronischer Einrichtungen. Berlin: VEB Verlag Technik 21S. Proschan, F.; Pyke, R. (1966): Tests for monotone failure rate. Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability III, 293—312 276. Pyke, R.; Schaufele, R. (1966): The existence and uniqueness of stationary measures for Markov renewal 381
processes. Ann. Math. Statist. 37, 1439—1462 277. Ref, Aggarwal, К. K. (1978): An efficient method for reliability evaluation of a general network. IEEE Trans. Reliab. R-27,206-211 278. Raf, Aggarwal» К. K. (1979): Path enumeration using flow graphs. Microelectr. and Reliab. 19,391—393 279. Rasch» D. (1970): Elementare Einflihrung in die Mathematische Statistik. Berlin: VEB Deutscher Verlag der Wissenachaften 280. Reinschke» K. (1973): Zuverlassigkeit von Systemen, Band 1: Systeme mit endlich vielen Zust&nden. Berlin: VEB Verlag Technik 281. Ягнюсь» K- (1977): Aufstellen von Zuverlftssigkeitsersatzschaltungen und Fehlerb&ume. Berlin: VEB Verlag Technik 282. Reinschke, K. (1981): Ermitthing von Zuverl&ssigkeitskenngrdBen flir monotone* mehrwertige Systeme. Zeitschr. Elektron. Informations- und Energietechnik 11, 549—562 283. Reinschke, K,; Klingner, M. (1981): Monotone mehrwertige Modelie flir die Zuverlassigkeitsanalyse komple- xer Systeme. messen — steuem — regeln 24,422—428 284. Ringer, L. J.; Sprinkle» E. E. (1972): Estimation of the parameters of the Weibull distribution from multicensored samples. IEEE Trans. Reliab. R-21,46—51 285. Roetoffs» R. (1963): Minimax surveillance schedules with partial information. Naval Res. Logist. Quart. 10, 307-322 286. Roetoffs» R. (1965): Minimax surveillance schedules for replaceable units. Naval Res. Logist. Quart. 12, 461-471 287. Rosemann, H. (1981): Zuverlassigkeit und Verfligbarkeit technischer Anlagen und Gerftte. Berlin, Heidelberg, New York: Springer-Verlag 288. Rosenthal» A. (1977): Computing the reliability of complex networks. SIAM J. Appl. Math. 32,384—393 289. Rosenthal» A.; Frisque» D. (1977): Transformations for simplifying network reliability calculations. Networks 7,97-111 290. Ross» S. M. (1972): Introduction to probability models. New York: Academic Press 291. Ross» S. M. (1975): On the calculation of asymptotic system reliability characteristics. In: Reliability and Fault Tree Analysis, SIAM, Philadelphia 292. Ross» S. M. (1976): On the time to first failure in multicomponent exponential reliability systems. Stochastic Process. Appl. 4,167—173 293. Ross» S. M. (1979): Multivalued state component systems. Ann. Probab. 7, 379—383 294. Sachs, H. (1972): Einflihrung in die Theorie der endlichen Graphen, Teil 1 und 2. BSB B. G. Teubner-Verlags- gesellsch., Leipzig. 295*.Sahobov, O.; Solov'ev, A. D. (1977): Dvuchstoronnije ocenki nadeinosti v obdej modeli rezervirovanije s odnoj remontnoj jedinicoj. Izv. Akad. Nauk SSSR Techn. Kibernet. 4, 94—99 296. Satyanarayana, A.; Chang» Mt K. (1982): Network reliability and the factoring theorem. ORC 81 — 12. Oper. Res. Center, University of California, Berkeley 297. Satyanarayana» A.; Hagstrom, J. (1980): Combinatoric properties of directed graphs useful in network reliability. ORC 80-8. Oper. Res. Center, University of California, Berkeley 298. Satyanarayana» A.; Hagstrom» J. (1981): A new algorithm for the reliability analysis of multi-terminal networks. IEEE Trans. Reliab. R-30, 325- 334. 299. Satyanarayana» A.; Prabhakar, A. (1978): New topological formula and rapid alogrithm for reliability analysis of complex networks. IEEE Trans. Reliab. R-27, 82—100. 300. Scheaffer» R. L. (1971): Optimum age replacement policies with an increasing cost factor. Technometrics 13, 139-144 301-Schneeweifi» W. (1973): Zuverlassigkeitstheorie. Berlin, Heidelberg, New York: Springer-Verlag 302. Schneeweifi, W, G. (1977): Calculating the probability of Boolean expressions being 1. IEEE Trans. Reliab. R-26, 16-22 303. Schulz» W. (1980): Die Weibull-Verteilung, ihre Anwendung und statistische Behandlung. Sitzungsberichte der IG Math. Statist, der Math. Ges. der DDR, Heft 3, I —39 3O4. Ses/iu, Reed, M. B. (1961): Linear graphs and electrical networks. Addison Wesley, New York 305. Shapiro, S. S.; Francia, R. S. (1972): An approximate analysis of variance test for normality. J. Amer. Statist. Assoc. 67, 215—216 306. Shapiro, S. Wilk, M. B. (1965): An analysis of variance test for normality. Biometrika 52, 591 bis 611 307. Sherwin, D. J. (1979): Inspection intervals for condition-maintained items which fail in an obvious manner. IEEE Trans. Reliab. R-28, 85—89 308. SAogon, A. W. (1976): Sequential bounding of the reliability of a stochastic network. Oper. Res. 34, 1027-1044 309. Shogan, A. W. (1977): A recursive algorithm for bounding network reliability. IEEE Trans. Reliab. R-26, 322-327 382
310. Shogan, A. W. (1978): A decomposition algorithm for network reliability analysis. Networks 8, 231—251 311. Siegel, G.; Wiinsche, S. (1979): Abschatzungen der Emeuerungsfunktion. Math. Operationsforsch Statist. Ser. Optim. 10,265—275 312*. Silvestrov, D. S. (1980): Pohimarkovskije processy s diskretnym mnoiestvomsostojanij. Moskva: Sovetskoje radio 313. Singh, N.; Kumar, S. (1980): Reliability bounds for decomposable multi-component systems. IEEE Trans. Reliab. R-29,22-23 314* Slutskii, E. E. (1950): Tablicy dlja vydislenija nepolnoj Г-funkcij i verojatnosti x2. Moskva: Akademia Nauk SSSR 315. Smith, W. L. (1958): Renewal theory and its ramifications. J. Roy. Statist. Soc. Ser. В 20, 243—302 316. Smith, W. L. (1954): Asymptotic renewal theorems. Proc. Roy. Soc. Edinburg Sect. A 64, 9—48 317. Smith, W. L. (1955): Regenerative stochastic processes. Proc. Roy. Soc. Edinburg Sect. A 232,6—31 * 318. Smith, W. L,; Leadbetter, M. R. (1963): On the renewal function for the Weibull distribution. Techno- metrics 5,393—396 319*. Solov'ev, A. D. (1978): Rasdet i ocenka charakteristik nadeZnosti. Moskva: Izd. Znanie 320. Srinivasan, S. K.; Subramaniam, A. (1980): Probabilistic analysis of redundant systems. Lecture Notes in Economics and Mathematical Systems, Band 175. Berlin, Heidelberg, New York: Springer-Verlag 321. Stephens, M. A. (1963): The distribution of the goodness-of-fit statistic U2 1. Biometrika 50, 303—313 322. Stephens, M. A. (1964): The distribution of the goodness-of-fit statistic U„, II. Biometrika 51, 393—398 323. Stephens, M. A. (1965): The goodness-of-fit statistic VN: distribution and significance points. Biometrika 52, 393-397 324. Stephens, M. A. (1976): Asymptotic results for goodness-of-fit statistics with unknown parameters. Ann. Statist. 4, 357-369 325. Stephens, M. A. (1977): Goodness-of-fit for the extreme value distribution. Biometrika 64, 583—588 326. Stephens, M. A.; Maag, U. R. (1968): Further percentage points for W2. Biometrika 55, 428—430 327. Stoyan, D. (1977): Qualitative Eigenschaften und Abschatzungen stochastischer Modelle. Berlin: Akademie- Verlag 328*. Streller, A. (1979): Stationamaja interval’naja nadehiost dublirovannoj sistemy s vosstanovlenijem i profi- laktikoj. Izv. Akad. Nauk SSSR Techn. Kibernet. 3, 98—103 329. Streller, A. (1980): A generalization of cumulative processes. Elektron. Informationsverarb. Kybernetik 16, 449-460 330. Streller, A. (1982): On stochastic processes with an embedded marked point process. Math. Operations- forsch. Statistik 13, 561—576 331. Tabata, Y. (1979): A note on idle time policy with repair. J. Oper. Res. Soc. Japan 22, 169—183 332. Tadikamalla, P. R. (1979): An inspection policy for the Gamma failure distributions. J. Oper. Res. Soc. 30, 77-80 333. Tadikamalla, P. R. (1980): Age replacement policies for Weibull failure times. IEEE Trans. Reliab. R-29, 88-90 334. Tahara, A.; Nishida, T. (\915y. Optimal replacement policy for minimal repair model. J. Oper. Res. Soc. Japan 18, 113-124 335. Tango, T. (1978): Extended block replacement policy with used items. J. Appl. Probab. 15, 560—572 336. Thom, H. C. S. (1968): Approximate convolution of the Gamma and mixed Gamma distributions. Monthly Weather Review 96,883—886 337. Thoman, D. R.; Bain, L. J.; Antle, С. E. (1969): Inferences on the parameters of the Weibull distribution. Technometrics 11,445—460 338. Thoman, D. R.; Bain, L. J.; Antle, С. E. (1970): Maximum Likelihood estimation, exact confidence intervals for reliability and tolerance limits in the Weibull distribution. Technometrics 12, 363—371 339. Thomas, D. R.; Wilson, W. M. (1972): Linear order statistic estimation for the two parameter Weibull and Extreme-Value distribution from type II progressively censored samples. Technometrics 14, 679 bis 691 340. Thompson, M. (1966): Lower confidence limits and a test of hypotheses for system availability. IEEE Trans. Reliab. 15, 32-36 341. Tiedge, J. (1978): Kumulative stochastische Prozesse zur Modellierung von VerschleiBprozessen. Die Technik 33,616-619 342. Tiku, M. L. (1965): Chi-square approximations for the distributions of goodness-of-fit statistics U2 and W*. Biometrika 52,630—633 343. Tiku, B. L. (1967): Estimating the mean and standard deviation from a censored normal sample. Bio- metrika 54,155-165 344. Tiku, M.-L. (1968): Estimating the parameters of log-normal distribution from censored samples. J. Amer. Statist. Assoc. 63, 134—140 345. Tilquin, C.; Cleroux, R. (1975): Block replacement policies with general cost structures. Technometrics 17, 291-298 383
346. Tinhofer, G. (1980): Zufallsgraphen. Wien, New York: Springer-Verlag 347. Tiwari, R. K.; Verma, M. (1980): An algebraic technique for reliability evaluation. IEEE Trans. Reliab. R-29, 311-313 • 348. Tsuboi, T.; Aihara, K. (1975): A new approach to computing the terminal reliability in large complex networks. ’ Trans. IECE 58-A, 783-790 349. Tutte, W. T. (1966): Connectivity in graphs. University of Toronto Press, Toronto 350. Tweedie, M. С. K. (1957): Statistical properties of inverse Gaussian distribution, I. Ann. Math. Statist. 28, 362-377 351*. Van d. Waerden, B. L. (1957): Mathematische Statistik. Berlin, Gottingen, Heidelberg: Springer-Verlag 352*. VasiFev, Ju. A.; Kozlov, B. A. (1969): О vlijanii zakona raspredelenija vremeni vosstanovlenija na nadehiost dublirovannoj sistemy. In: Teorija nadehiosti i massovoe obsluiivanie. Moskva: Nauka 353. Vesely, W. (1970): A time dependent methodology for fault tree evaluation. Nuclear Engineering and Design 13,337-360 354*. Vinogradov, О. P. (1973): Opredelenie starejuCich funkcij raspredelenija v terminach preobrazovanija laplasa. Teor. Verojatnost. i Primenen. 18, 856—858 355*. Vinogradov, О. P. (1974): Neravenstvo dlja odnogo funkcionala ot starejaScich funkcij raspredelenija. Mat. Zametki 16,100—105 356*. Vinogradov, О. P. (1976): О primenenijach odnoj formuly obraSdenija preobrasovanija laplasa. Teor. Verojatnost. i Primenen. 21, 857—860 357. Walther, H. (1979): Anwendungen der Graphentheorie. Berlin: VEB Deutscher Verlagder Wissenschaften 358. Wasan, M. T.; Roy, L. K. (1969): Tables of inverse Gaussian percentage points. Technometncs 11, 591-604 359. Watson, G. S. (1961): Goodness-of-fit tests on a circle, I. Biometrika 48, 109—114 360. Watson, G. S (1962): Goodness-of-fit tests on a circle, II. Biometrika 49, 57—63 361. Wilk, M. B.; Gnanadesikan, R.; Huyett, M. J. (1962): Estimation of parameters of the Gamma distribution using order statistics. Biometrika 49, 524—545 362. Wilkov, R. S. (1972): Analysis and design of reliable computer networks. IEEE Trans. Comm. C-20, 660-678 363. Willie, R. R. (1980): A theorem concerning cyclic directed graphs with applications to network reliability analysis. Networks 10, 71—78 364. Wyckoff, J.; Engelhardt, M. (1979): Inferential procedures on the shape parameter of a Gamma distribution ^from censored data J. Amer. Statist. Assoc. 74, 866—871 365. Yamada, S.; Osaki, S. (1977): Optimum number of checks in checking policy. Microelectr. Reliab. 16, , 589-591 366. Yanagawa, N., Nishida, T. (1979): A graphical decomposition of the stochastic network. J. Oper. Res. Soc. Japan 22,85—93 367. Zettwitz, F. (1982): Programmunterlagen zum Job ТЕ WE. Ingenieurhochschule Mittweida, Bereich Mathe- matik (unveroffentlicht) СПИСОК РАБОТ СОВЕТСКИХ АВТОРОВ И ПЕРЕВЕДЕННЫХ НА РУССКИЙ ЯЗЫК 8*. Арндт К. Расчет надежности дублированной системы методом вложенных полумарковских процессов// Изв. АН СССР. Техническая кибернетика.— 1977.—№ 1.—С. 70—79. 28*. Барлоу Р., Прошан Ф. Математическая теория надежности. Пер. с англ.— М.: Сов. радио, 1969.—488 с. 31*. Барлоу Р., Прошан Ф. Статистическая теория надежности и испытания на безотказность: Пер. с англ.—М.: Наука, 1985.—327 с. .50*. Беляев Ю. К.» Максимов В. М. Свойства аналитичности производящей функции для цикла восстановлений// Теория вероятностей и ее примене- ния.—1963.—Т. 8, № 1.—С. 108—112. 66*. Боровков А. А. Теория вероятностей.—М.: Наука, 1976.—352 с. 79*. Чепурин Е. В. О статистических выводах для процессов восстановления// Статистические методы в теории надежности и контроле качества.—ЛА: Изд-во МГУ, 1973.—Вып. 43.—С. 9—25. 384
94*. Кокс Д., Льюис П. Статистический анализ последовательностей событий: Пер. с англ.—М.: Мир, 1969.—312 с. 103*. Дружинин Г. В. Надежность автоматизированных систем.—М.: Энергия, 1977.—536 с. 119*. Феллер В. Введение в теорию вероятностей и ее приложения. Т. 1—2: Пер. с англ.—М.: Мир, 1984. 125*. Форд Л. Р., Фалкерсон Д. Р. Потоки в сетях: Пер. с англ.—М.: Мир, 1966.—276 с. 130*. Франкен П., Хойзер К. П. Оценки показателей надежности для резерви- рованных систем с восстановлением// Изв. АН СССР. Техническая кибер- нетика.—1977.—№ 4.—С. 100—105. 133*. Франкен П., Штреллер А. Стационарные обобщенные регенерирующие процессы// Теория вероятностей и ее применения.—1979.—Т. 24, № 1.— С. 78—90. 139*. Гадасин В. А., Ушаков И. А. Надежность сложных информационно-управ- ляющих систем.—М.: Сов. радио, 1975.—191 с. 152*. Глухов В. Н. Время исполнения и другие надежностные характеристики// Автоматика и телемеханика.—1972.—№ 10.—С. 184—192. 154*. Гнеденко Б. В. О дублировании с восстановлением// Изв. АН СССР. Техническая кибернетика.—1964.—№ 5.—С. 111 —118. 155*. Гнеденко Б. В., Махмуд И. М. О длительности безотказной работы дуб- лированной системы с восстановлением и профилактиками// Изв. АН СССР. Техническая кибернетика.—1976.—№ 3.—С. 86—91. 156*. Гнеденко Б. В., Беляев Ю. К., Соловьев А. Д. Математические методы в теории надежности.—М.: Наука, 1965.—524 с. 157*. Гнеденко Б. В., Коваленко И. Н. Введение в теорию массового обслужи- вания.—М.: Наука, 1966.—431 с. 158*. Голодников А. Н., Стойкова Л. С. Определение оптимального периода предупредительной замены на основе информации о математическом ожи- даний и дисперсии времени безотказной работы системы// Кибернетика.— 1973.—№ 3. С. ПО—118. 164*. Де Гроот М. Оптимальные статистические решения: Пер. с англ.—М.: Мир, 1974.—491 с. 165*. Гумбель Э. Статистика экстремальных значений.—М.: Мир, 1965.—450 с. 167*. Харари Ф. Теория графов.—М.: Мир, 1973.—300 с. 178*. Янке Е., Эмде Ф., Лёш Ф. Специальные функции. Формулы, графики, таблицы: Пер. с англ. М.: Наука, 1977.—342 с. 194*. Королюк В. С., Турбин А. Ф. Полумарковские процессы и их приложе- ния.—Киев: Наукова думка, 1976.—184 с. 200*. Козлов Б. А. Резервирование с восстановлением.—М.: Сов. радио, 1969.— 273*. Полесский В. П. Об одной нижней границе надежности информационных сетей// Проблемы передачи информации.—1971.—Т. VII, № 2.—С. 88—96. 295*. Сахобов О., Соловьев А. Д. Двухсторонние оценки надежности в общей модели резервирования с одной ремонтной единицей// Изв. АН СССР. Техническая кибернетика.—1977.—№ 4.—С. 94—99. 312*. Сильвестров Д. С. Полумарковские процессы с дискретным множеством состояний.—М.: Сов. радио, 1980.—272 с. 314*. Слуцкий Е. Е. Таблицы для вычисления неполной Г-функции и вероят- ности %2.—М.: Изд-во АН СССР, 1950.—72 с. 319*. Соловьев А. Д. Расчет и оценка характеристик надежности.—М.: Знание, 1978.—51 с. 328*. Штреллер А. Стационарная интервальная надежность дублированной си- стемы с восстановлением и профилактикой// Изв. АН СССР. Техническая кибернетика.—1979.—№ 3.—С. 98—103. 351*. Ван дер Варден Б. Л. Математическая статистика: Пер. с англ.—М.: ИЛ, I960.—434 с. 385
352*. Васильев Ю. А., Козлов Б. А. О влиянии закона распределения времени восстановления на надежность дублированной системы// Теория надеж- ности и массовое обслуживание: Сб. статей.—М.: Наука, 1969.—ООО с. 354*. Виноградов О. П. Определение стареющих функций распределения в тер- минах преобразования Лапласа// Теория вероятностей и ее применения.— 1973.—Т. 18, № 4.—С. 856—858. 355*. Виноградов О. П. Неравенство для одного функционала от стареющих функций распределения// Математические заметки.—1974.—Вып. 16.— С. 100—105. 356*. Виноградов О. П. О применениях одной формулы обращения преобразо- вания Лапласа// Теория вероятностей и ее применения.—1976.—Т. 21, № 4—С. 857—860. ДОПОЛНИТЕЛЬНЫЙ СПИСОК ЛИТЕРАТУРЫ Д1. Arndt, К.; Kirstein, В. М. (1983): An importance ranking for components of highly reliable systems, Elektr. Informationsverarb. und Kybernet., 19, 10/11, 535_______545 Д2. Baxter, L. A. (1984): Continuum structures I. J. Appl. Probab. 21, 802—815 ДЗ. Beichelt, F.; Zettwitz, F. (1985): Importanzkriterium fiir Elemente binaerer monotoner Systeme, Tagungsmaterial IV. Symposium «Zuverlaessigkeit» der Technischen Hochschule Magdeburg, 94—98 Д4. Block, H. W.; Savits, T. H. (1982): A decomposition for multistate monotone systems, J. Appl. Probab. 19, 391—402 Д5. Block, H. W., Savits, T. H. (1984): Continuous multistate structure functions. Oper. Res. 32, 703—714 Д6. Brown, M. (1983): Approximating IMRI. distributions by exponential distri- butions, with applications to first passage times, Annals of Probability 11, 2, 419—427 Д7. Burke, M. D., Csorgo, S., Horvath, L. (1981): Strong approximation of some biometric estimate under random censorship, Z. Warscheinlichkeitstheoric verw. Gebiete 56, 87—112 Д8. Butler, D. A. (1982): Bounding the reliability of multistate systems. Oper. Res. 30, 530—544 Д9. Chaganty, N. R. (1983): IFR results for repairable systems, Naval Res. Log. Quarterly, 30, 627—630 Д10. Franken, P.; Kirstein, B.-M.; Streller, A. (1984): Reliability analysis of com- plex systems with repair, Elektr. Informationsverarb. und Kybernet., 20, 7/9, 407—422 Д11. Funnemark, F.; Natvig, B. (1985): Bounds for the availabilities in a fixed time interval for multistate monotone systems, Adv. Appl. Probab. 17, 638—655. Д12. Hall, J. W.; Wellner, J. A. (1980): Confidence bands for the Kaplan-Meyer survival curve estimate, Biometrika 67, 133—143 Д13. Nair, V. N. (1981): Plots and tests for goodness of fit with randomly censo- red data, Biometrika 68, 99—103 Д14. Nair, V. N. (1984): Confidence bands for survival functions with censored data: A comparative study, Technometrics 26, 265—275 Д15. Natvig, B. (1979): A suggestion of a new measure of importance of system components, Stoch. Proc. Appl. 9, 319—330 Д16. Natvig, B. (1982): On the reduction in remaining system lifetime due to the failure of a specific component, J. Appl. Prob 19, 642—652; Correction: J. Appl. Prob. 20, 713 Д17. Natvig, B. (1984): Reliability importance of components, Statistical research report, Institute of Mathematics, University of Olso, N 10, 1984 386
Д18. Natvig, В. (1985): New light on measures of importance of system compo- nents Scand. J. Statist, (to appear) research report, N 2, 1984, Uni- versity of Oslo Д19. Ohi, F.; Nishida, T. (1984): On multistate coherent systems. IEEE Trans. Re- liab. R-33, 284—287 Д20. Pieper, V.; Tiedge, J. (1983): Zuverlassigkeitsmodelle auf der Grundlage stochastischer Modelle von Verschleissprozessen. Math. Operations Forsch. Statist. Ser. Statist., 14, 3, 485—502 Д21. Tiedge, J.; Wogatzki, E. (1981): Zur optimalen Instandhaltung von . Ver- schleissteilen, Wiss. Z. d. TH, Magdeburg 25, 4, 7—13 Д22. Block, H. W.; Savits, T. H. (1980): Multivariate IFRA distributions, Annals of Probability 8, 793—801 СПИСОК ЛИТЕРАТУРЫ, ДОБАВЛЕННЫЙ РЕДАКТОРОМ ПЕРЕВОДА Pl. Болотин В. В. Применение методов теории вероятностей и теории надеж- ности в расчетах сооружений. — М.: Стройиздат, 1971. — 254 с. Р2. Вопросы математической теории надежности/ Е. Ю. Барзилович, Ю. К. Бе- ляев, В. А. Каштанов и др.; Под ред. Б. В. Гнеденко. — М.: Радио и связь, 1983. —376 с. РЗ Козлов Б. А., Ушаков И. А. Краткий справочник по расчету надежности радиоэлектронной аппаратуры. — М.: Сов. радио, 1966. — 432 с. Р4. Козлов Б. А., Ушаков И. А. Справочник по расчету надежности аппаратуры радиоэлектроники и автоматики. — М.: Сов. радио, 1975. — 471 с. Р5. Ллойд Д., Липов М. Надежность: организация исследования, методы, ма- тематический аппарат: Пер. с англ.[ Под ред. Н. П. Бусленко. — М.: Сов. радио, 1964. — 686 с. Р6. Надежность технических систем: Справочник/ Р. Барлоу, Ю. К. Беляев, В. А. Богатырев и др.; Под ред. И. А. Ушакова. — М.: Радио и связь, 1985.— 606 с. Р7. Половко А. М. Основы теории надежности.—М.: Наука, 1964. — 446 с. Р8. Райкин А. Л. Элементы теории надежности технических систем./ Под ред. И. А. Ушакова. — М.: Сов. радио, 1978.— 280 с. Р9. Райншке К. Модели надежности и чувствительности систем: Пер. с немец./ Под ред. Б. А. Козлова. — М.: Мир, 1979. — 452 с. РЮ. Руденко Ю. Н., Ушаков И. А. Надежность систем энергетики. — М.: Наука, 1986. —251 с.
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Важность 253 — Барлоу — Прошану 257, 260 — Батлеру 262. — Бирнбауму 254 по Веселы — Фасселу 260 структурная 256, 261 Вектор пути 241 — критический 256 — минимальный 241 сечения 241 — минимальный 241 Вероятности состояний стационарные 308, 342 Вероятность безотказной работы 9, 13 отказа 13 переходная 305, 372 связности 278 — парной 278, 283 — полной 278, 295 — узла с сетью 278, 293 Вершина 282 Восстановление 10, 176, 315 аварийное 122 блоками 135 быстрое 368 в зависимости от возраста 122 минимальное 144 полное 10, 84, 188 Время пребывания 315 прямое и обратное остаточное 97 эксплуатации 199 — экономичное 200 Выборка 51 конкретная 52 полная 51 упорядоченная 52 усеченная 52 Граф 25, 278 компонента 280 направленный 281 ненаправленный 279 полный 279 связность 279 388 сетевой 277 Декомпозиция 297 модульная 252 Дерево 280 отказов 244 направленное 282 Дисперсия 14 Допустимая граница 217 — область 198, 217 ----- двусторонняя 217 ----- односторонняя 217 Дрейф 198 Идемпотентность 239 Износ 11, 215 Интенсивности переходные 306 Интенсивность 327, 334 затрат на восстановление 120, 213 отказов накопленная 18 переходная 306 эксплуатационных затрат 120, 200 Интервал восстановления 122, 219, 222 Информация неполная 133, 184 Коэффициент вариации 14 готовности 9, 120, 130, 171, 193,245 — нестационарный 108, 305 — стационарный ПО, 341, 345 оперативной готовности стационар- ный ПО, 342 -----нестационарный 108 Композиция 323 Критерий согласия 60 Лимит затрат на восстановление 203 вторичный 205 оптимальный 207 первичный 203 Математическое ожидание 14, 134, 186 Матрица инцидентности 279, 281 ребер 285 Метод включения-исключения 248
Множество элементов пути 241 — минимальное 241, 284 сечения 241, 287 — минимальное 241 Модель 305, 313 марковская 305, 345 полумарковская 313, 347 ударных нагрузок Модуль 252 Молодение 39 Момент 14 восстановления 85 регенерации 112 Надежность 9 показатель 9 Наработка 13, 217, 228, 234, 266, 341 остаточная 18, 150, 342 средняя 14, 163 Неравенство Йенсена 214 Обслуживание техническое 10 Остов 281 направленный 282 Отказ 9, 13 внезапный 11, 119 постепенный 11, 47, 198 приработочный 17 Оценка доверительная 70, 80 линейная 75 максимального правдоподобия 72 точечная 70, 78 Параметр масштабный 31 — формы 31 Переменная булева (бинарная) 237 индикаторная 237 Пересечение уровня 213, 216 Плотность восстановления 89 — Пойа второго порядка 43 Порядок 237 Правила де Моргана 288 Преобразование Лапласа 26, 89 — Лапласа — Стилтьеса 27, 89 Пространство состояний 303 Профилактическая замена 121 Процесс винеровский 226 возрастающий (убывающий) 217 восстановления 84 — альтернирующий 106 — запаздывающий 85 — марковский 314 — обычный 85 — считающий 85 гибели и размножения 308 марковский 305, 373 — неприводимый 307 — синхронный 312 — стационарный 312 накопления 116 полумарковский 313 — синхронный 319 — стационарный 316 полурегенерирующий 337 пуассоновский 86, 146, 156, 321, 323 регенерирующий 113, 231 — асинхронный 114 — синхронный 114 стационарный 372 считающий 321 точечный — вложенный 333 — пуассоновский 321 — синхронный 329 — случайный 321 -----помеченный 319 — стационарный 325 фазовый 303 Путь 279 ациклический 284 минимальный 284 направленный 282 Распределение Бернштейна 224 Бирнбаума — Саундерса 235 Вейбулла — Гнеденко 31, 43, 55, 72, 75 91 96 270 ВСФИ (УСФИ) 44, 59, 69, 268 ВФИ (УФИ) 39, 59, 60, 68, 94, 267 гамма 34, 43, 78, 87, 90, 270 логарифмически нормальное 37, 55, 82, 231, 270 начальное 305, 373 НЛИ, НХИ 48, 59, 96 нормальное 35, 55, 66, 82, 87, 91, 270 НСЛИ, НСХИ 48, 70, 94, 96, 101, 270 обратное гауссовское 38, 82, 229 Парето 17 Пойа 43 предельное 32 — 1-го типа 33. пуассоновское 86 равномерное 91, 125, 142 усеченное нормальное 36, 43 экспоненциальное 16, 30, 34, 43, 55, 60, 66, 67, 71, 86, 90, 267 Эрланга 17, 33, 35, 87 а 219, 224 X2 35, 62 Ребро направленное 281 380
ненаправленное 279 осевое 297 Резерв нагруженный 22 ненагруженный 22 облегченный 22 Резервирование 22 Свертка 15, 323 Система восстанавливаемая 10, 192 дуальная 240, 274 дублированная 161 избыточная 22 имеющая структуру 9 марковская 305 многозначная 271 монотонная 240, 272 параллельная 22, 237 последовательная 20, 237 простая 9 структура 20, 162 экспоненциальная 360 Случайная величина 13, 15 Смесь 16 Состояние 13, 20, 237, 303 Стандартное отклонение 14 Старение 11, 19, 40, 48, 215, 357 Статистика Андерсона — Дарлинга 64 Кипера 64 Колмогорова — Смирнова 63 Коамера — Мизеса 64 Уотсона 65 Финкельштейна — Шафера 65 X2 61 Степень 279 входная 281 выходная 281 Стохастически эквивалентный 21, 121, 372 Стратегия аварийных замен 120, 132, 140, 156 восстановления 162 — минимаксная 134 контроля 176 — минимаксная 184 — строго периодическая 176 минимаксная 184 — частично 184, 186 технического обслуживания 10 Структура сетевая (сеть, сетевой граф) 277, 283 ---- рекуррентная 298 Схема мостиковая 237 — надежности 25 Теорема восстановления 102 основная 102 элементарная 102 Техническое обслуживание 10 Тождество Вальда 15 Узел 279 Уравнения восстановления 88, 316 — состояний 306 Устойчивость исследование 126, 200, 210 Функция ведущая 321 восстановления 87, 92 интенсивности 322 надежности 13 — двумерная распределения 13 — арифметическая 102, 109 — прямого и обратного остаточно- го времени 97 — эмпирическая 53, 63 структурная 237, 274 — дуальная 239, 274 — форма линейная 239 ----нормальная дизъюнктивная 238 Цепь марковская 310, 372 вложенная 310 Цикл восстановления 121, 171, 188 регенерации 113, 114 графа 279, 282 Элемент 9, 13, 20 несущественный 240 основной 22 резервный 22 существенный 240 р-граф 283 р-доминанта 291 р-покрытие 291 t-граф 293 t-доминанта 293 t-покрытие 293 U-образная кривая 18
ОГЛАВЛЕНИЕ Предисловие к русскому изданию.......................................... 5 Предисловие ............................................................ Т Общий спосок обозначений................................................ Я Глава 1. Введение....................................................... 9 Глава 2. Основные понятия теории надежности.............................12 Список обозначений к главам 2 и 3...................................... 12 2.1. Элементы............................................................13 2.2. Системы............................................................20 2.3. Преобразование Лапласа..............................................26 Глава 3. Распределения наработки.......................................30' 3.1. Параметрические семейства распределений наработки...................30 3.2. Непараметрические классы распределений наработки..................30 3.3. Статистическое оценивание наработки по результатам испытаний . . 51 Глава 4. Теория восстановления..........................................83 Список обозначений......................................................83 4.1. Основные понятия...................................................84 4.2. Функция восстановления и уравнение восстановления..................87 4.3. Оценки для обычных процессов восстановления........................92 4.4. Прямое и обратное остаточное время.................................96 4.5. Стационарные процессы восстановления..............................99* 4.6. Асимпотическое поведение процессов восстановления...............101 4.7. Альтернирующие процессы восстановления............................106 4.8. Регенерирующие процессы и процессы накопления...................112* Глава 5. Восстановление при внезапных отказах..........................119 Список обозначений...................................................119* 5.1. Строго периодическое восстановление..............................122* 5.2. Восстановление блоками............................................135 5.3. Сравнение строго периодического восстановления и восстановления блоками................................................................140 5.4. Минимальное аварийное восстановление с периодической полной заменой................................................................144 5.5. Восстановление при различных типах отказов.......................154- 5.6. Восстановление дублированных систем...............................161 Глава 6. Контроль при внезапных отказах...............................174- Список обозначений.....................................................174 6.1. Описание модели...................................................175 6.2. Контроль без восстановления.......................................176 6.3. Контроль с восстановлением.......................................188’ Глава 7. Восстановление при постепенных отказах........................197 Список обозначений.....................................................197 7.1. Восстановление на основе экономических критериев.................199< 7.2. Подход к устранению неисправностей с позиций физико-технических параметров.........................................................215 Глава 8. Анализ надежности монотонных систем...........................236 Список обозначений ................................................... 236 8.1. Структурные функции...............................................237 8.2. Пути и сечения в монотонных системах..............................241 8.3. Коэффициент готовности монотонных систем........................ 245* 8.4. Модули монотонных систем..........................................251 391
В.5. Важность элементов..............................................253 8.6. Наработка монотонных систем.....................................266 8.7. Многозначные монотонные системы.................................271 Глава 9. Анализ надежности сетевых структур..........................276 Список обозначений ................................................. 276 9.1. Основные понятия теории графов..................................278 9.2. Вероятность парной связности................................... 283 9.3. Вероятность связности узла с сетью..............................293 9.4. Вероятность полной связности....................................295 9.5. Метод декомпозици....................................... . . 297 9.6. Рекуррентные сетевые структуры..................................298 Глава 10. Динамика восстанавливаемых систем..........................301 Список обозначений ................................................. 301 10.1. Марковские модели..............................................305 10.2. Полумарковские модели..........................................313 10.3. Случайные помеченные точечные процессы.........................319 10.4. Процессы с вложенным точечным процессом.......................333 Глава 11. Анализ надежности восстанавливаемых систем .... 340 Список обозначений ................................................. 340 11.1. Вычисление стационарных показателей надежности.................343 11.2. Анализ надежности с помощью полурегенерирующих процессов . . 353 11.3. Качественные свойства и приближенные формулы...................357 Приложение. Стохастические процессы..................................370 Список литературы....................................................374 Список работ советских авторов и переведенных на русский язык . . . 384 Дополнительный список литературы.....................................386 Список литературы, добавленный редактором перевода...................387 Предметный указатель.................................................388 Научное издание Байхельт Франк, Франкен Петер НАДЕЖНОСТЬ И ТЕХНИЧЕСКОЕ ОБСЛУЖИВАНИЕ. МАТЕМАТИЧЕСКИЙ ПОДХОД Заведующая редакцией О. В. Толкачева Редактор С. II. Удалова Художественный редактор А. С. Широков Переплет художника Н. А. Пашуро Технический редактор Т. И. Зыкина Корректор 7. Л. Кускова ИБ № 1216 Сдано в набор 12.11 87 Подписано в печать 18.05.88 •Формат eOXSS’/ie Бумага тип № 1 Гарнитура литерат. Печать высокая Усл. печ. л. 24,01 Усл. кр.-отт. 24,01 Уч.-изд. л. 24,67 Тираж 9000 экз. Изд. № 21621 Зак. 6301 Цена 2 р. 50 к. Издательство «Радио и связь>. 101000 Москва, Почтамт, а/я 693 Ордена Октябрьской Революции и ордена Трудового Красного Знамени МПО «Первая Образцовая типография имени А. А. Жданова> Союзполиграфпрома при Государственном комитете СССР по делам издательств, полиграфии и книжной торговли: 113054, Москва, Валовая, 28.
> -'': £. <;< вfeЭ ’> Л<": г > .' ’ :''... ЙШИ^^^ШйЖЙЙ , -V-.,•.' • - ' >••' J'< '" ' .->.' '. лЧ<и’-' 4?iV,-'f.vk ii'£^"<i '^'iC'C- Si'-A •Ж.-.х.'Г» v.”-.’-. u '•. i,\Ч-.•-'•.>• же?- /lS»va£’>f v«T»?>,.’Sl ‘'4iWbV.JV"> \ 1 ’rta\S Л ?.«<“)« !!$.'•.; .’/*• •5*\nfc 4 Мвр &.} <;. -ч-'- • №<л