Свойства дискретной свертки инвариантность к сдвигу. Сигналы и линейные системы. Цифровая обработка сигналов

Nokia 13.04.2019
Nokia

Система определяется математически как однозначное преобразование или оператор, отображающий входную последовательность (вход) в выходную (выход), что математически записывается в виде а графически часто изображается так, как показано на рис. 1.4.

Рис. 1.4. Представление преобразования, отображающего входную последовательность в выходную последовательность

Классы дискретных систем определяются путем наложения ограничений на преобразование . В дальнейшем будет широко рассматриваться класс линейных инвариантных относительно сдвига систем, потому что они сравнительно просты в математическом отношении, а также потому, что они дают удобный вид обработки сигналов. В гл. 10 мы обсудим более общий класс систем, включающий как частный случай линейные системы.

Класс линейных систем определяется принципом суперпозиции. Если - отклики на соответственно, то система линейна тогда и только тогда, когда

для произвольных постоянных Мы видели, что произвольная последовательность может быть представлена в виде задержанной и взвешенной суммы единичных импульсов (1.4). Это представление вместе с (1.5) предполагает, что линейная система может быть полностью охарактеризована откликом на единичный импульс - импульсной характеристикой. А именно, пусть - отклик системы на единичный импульс в момент

Тогда из . С учетом (1.5) можно записать

Таким образом, согласно (1.6) реакцию системы можно выразить через отклики на Если накладывается только одно условие - линейность, то будет зависеть как от так и от и в этом случае польза от выражения (1.6) для вычислений невелика. Более полезный результат получится, если мы наложим дополнительное ограничение, состоящее в инвариантности к сдвигу.

Класс инвариантных к сдвигу систем характеризуется следующим свойством: если - отклик на то будет откликом на где - положительное или отрицательное целое число. Когда индекс связывается со временем, свойству инвариантности к сдвигу соответствует свойство инвариантности во времени. Из свойства инвариантности к сдвигу следует, что если - отклик на то откликом на будет просто Поэтому (1.6) принимает вид

Значит, любая инвариантная к сдвигу система полностью характеризуется импульсной характеристикой

Выражение (1.7) обычно называется сверткой. Если - последовательность, значения которой связаны со значениям», двух последовательностей выражением (1.7), то мы говорим, что есть свертка и обозначаем Заменяя переменную в (1.7), получим другое выражение

Поэтому порядок, в котором две последовательности входят в свертку, не важен. Другими словами, линейная инвариантная к сдвигу система со входом и импульсной характеристикой будет иметь тот же выход, что и линейная инвариантная к сдвигу система со входом и импульсной характеристикой

Две линейные инвариантные к сдвигу системы, включенные каскадно, образуют линейную инвариантную к сдвигу систему с импульсной характеристикой, равной свертке импульсных характеристик исходных систем. Так как порядок в свертке не важен, то импульсная характеристика составной системы не зависит от

порядка, в котором включены исходные системы. Это свойство иллюстрируется рис. 1.5, где изображены три системы, имеющие одинаковые импульсные характеристики.

Рис. 1.6. Параллельное включение линейных инвариантных к сдвигу систем и эквивалентная система

Рис. 1.5. Три линейные инвариантные к сдвигу системы с одинаковыми импульсными характеристиками

Из (1.7) и (1.8) следует, что две инвариантные к сдвигу системы, включенные параллельно, эквивалентны одной системе с импульсной характеристикой, равной сумме импульсных характеристик исходных систем. Это свойство иллюстрируется рис. 1.6.

Хотя выражение свертки в виде суммы аналогично интегралу свертки в теории линейных аналоговых систем, следует подчеркнуть, что свертку в виде суммы нельзя понимать как приближение к интегралу свертки. В противоположность интегралу свертки, играющему в основном теоретическую роль в применении к аналоговым линейным системам, свертка в виде суммы, как мы увидим в дальнейшем, вдобавок к своей теоретической значимости может служить для реализации дискретной системы. Поэтому важно глубже понять свойства свертки и получить опыт в применении свертки для вычислений.

Пример. Рассмотрим систему с импульсной характеристикой Чтобы найти реакцию на входной сигнал заметим, что в силу (1.7) для получения значения выходной последовательности нужно сформировать произведение и просуммировать значения получившейся последовательности. Две составляющие последовательности показаны на рис. 1.7 как функции причем изображена для нескольких значений Как видно из рис. 1.7, при не имеют ненулевых

Для облегчения изучения многомерных систем необходимо ограничиться определенными классами операторов, обладающих общими свойствами. Линейные инвариантные к сдвигу дискретные системы (ЛИС-системы) - это наиболее часто изучаемый класс систем для обработки дискретных сигналов любой размерности. Эти системы отличаются простотой как при разработке, так и при анализе, но в то же время они обладают достаточными возможностями для решения многих практических задач. Поведение этих систем во многих случаях можно изучать безотносительно к конкретным характеристикам входного сигнала. Класс линейных инвариантных к сдвигу систем, безусловно, не является наиболее общим классом изучаемых систем, однако он может служить хорошей отправной точкой.

Ранее мы получили выражение (1.29) для выходной последовательности линейной системы при входном сигнале . Если система еще и инварианта к сдвигу, можно сделать дальнейшие упрощения. Импульсный отклик на произвольно расположенный входной импульс описывается выражением

Для частного случая имеем

Используя принцип инвариантности к сдвигу, описываемый равенством (1.30), получим

Импульсный отклик на произвольно расположенный входной импульс равен сдвинутому импульсному отклику на входной импульс, расположенный в начале координат. Введя обозначение , можно выразить выходную последовательность следующим образом:

. (1.36)

Это соотношение известно под названием двумерной дискретной свертки. В сущности здесь выполняется разложение входной последовательности на взвешенную сумму сдвинутых импульсов в соответствии с равенством (1.25). ЛИС-система преобразует каждый импульс в сдвинутую копию импульсного отклика . Суперпозиция этих взвешенных и сдвинутых импульсных откликов образует выходную последовательность, причем весовыми коэффициентами являются значения отсчетов входной последовательности . Равенство (1.36) записано в предположении, что ЛИС-система полностью характеризуется своим импульсным откликом .

Выполнив замену переменных и , равенство (1.36) можно записать в другой форме:

. (1.37)

Отсюда видно, что свертка - это коммутативная операция. Будем использовать двойную звездочку для обозначения двумерной свертки [одиночная звездочка будет обозначать одномерную свертку]. Тогда уравнения (1.36) и (1.37) примут вид

. (1.38)

С помощью векторных обозначений выходную последовательность -мерной ЛИС-системы можно представить как -мерную свертку выходной последовательности и импульсного отклика

. (1.39)

Двумерная свертка принципиально не отличается от ее одномерного аналога. Как и в одномерном случае, возможна следующая вычислительная интерпретация операции свертки. Будем рассматривать и как функции и . Чтобы из последовательности образовать последовательность , сначала выполняем отражение относительно обеих осей и , а затем сдвигаем последовательность так, чтобы отсчет попал в точку , как показано на рис. 1.11. Последовательность-произведение образована; для нахождения значения выходного отсчета складываем ненулевые значения отсчетов последовательности-произведения. При изменении значений и последовательность сдвигается по плоскости , давая другие последовательности-произведения и соответственно другие значения выходных отсчетов. Если используется другая возможная форма записи дискретной свертки [выражение (1.37)], в приведенном описании вычислений и меняются местами.

Рис. 1.11. a - последовательность ; б - последовательность при , .

Пример 1

Рассмотрим двумерную дискретную ЛИС-систему, выходной отсчет которой в точке характеризует вклад значений входных отсчетов, расположенных в точках ниже и левее точки . Грубо говоря, система представляет собой один из видов двумерного цифрового интегратора; ее импульсный отклик - это двумерная единичная ступенчатая последовательность , описанная в разд. 1.1.1.

В качестве входной последовательности выберем двумерную последовательность конечной протяженности, значения отсчетов которой равны 1 внутри прямоугольной области , и 0 вне ее.

Для вычисления значения выходного отсчета с помощью выражения (1.36) образуем последовательность-произведение . В зависимости от конкретного значения ненулевые области последовательностей и перекрываются в различной степени. Можно выделить пять случаев, представленных на рис. 1.12, где ненулевые области каждой последовательности заштрихованы, а нулевые отсчеты просто не показаны.

Рис. 1.12. Свертка квадратного импульса с двумерной ступенчатой последовательностью.

Ненулевые области каждой последовательности отмечены одной штриховкой; последовательность-произведение отлична от нуля лишь в областях с двойной штриховкой.

Случай 1. или . Из рис. 1.12 видно, что для таких значений последовательности и не перекрываются. Поэтому их произведение, как и значения таких отсчетов свертки, равны нулю.

Случай 2. , . Имеет место частичное перекрытие. Вклад ненулевых значений отсчетов в последовательность-произведение имеет вид

. (1.40)

Случай 3. , . Здесь можно написать

. (1.41)

Случай 4. , . По аналогии со случаем 3 имеем

. (1.42)

Случай 5. , . В этом последнем случае отраженная сдвинутая ступенчатая последовательность полностью перекрывает импульс . Тогда

. (1.43)

В итоге полная свертка имеет вид

. (1.44)

Ее графическое изображение приведено на рис. 1.13.

Рис. 1.13. Свертка двух последовательностей, рассмотренная в примере 1.

Можно заметить, что в рассмотренном примере и , и представляют собой разделимые последовательности, поэтому их свертка также разделима, поскольку мы можем написать

Это свойство обладает общностью: свертка двух разделимых последовательностей всегда разделима (упр. 1.9).. На рис. 1.14,в показано перекрытие для точки и равны 1 в своих опорных областях (рис. 1.14, а и б).

В этом разделе мы рассмотрели два относительно простых примера выполнения двумерной свертки. Читатель, несомненно, заметил, что эти вычисления требуют определенных усилий. К счастью, такого рода вычисления редко приходится выполнять вручную. Однако знакомство с основными операциями необходимо для написания соответствующих машинных программ и для интерпретации результатов. Действительно, невозможно правильно выполнить операцию двумерной свертки, не определив предварительно все случаи, требующие рассмотрения. Это всегда должно быть первым шагом при выполнении свертки.

Чтобы преобразовать входной сигнал в удобную для хранения, воспроизведения и управления форму, необходимо обосновать требования к параметрам систем преобразования сигнала. Для этого надо математически описать связь между сигналами на входе, выходе системы и параметрами системы.

В общем случае система преобразования сигнала является нелинейной: при вхождении в нее гармонического сигнала на выходе системы возникают гармоники других частот. Параметры нелинейной системы преобразования зависят от параметров входного сигнала. Общей теории нелинейности не существует . Одним из способов описать связь между входным E вх (t ) и выходным E вых (t ) сигналами и параметром K нелинейности системы преобразования является следующий:

(1.19)

где t и t 1 – аргументы в пространстве выходного и входного сигналов соответственно.

Нелинейность системы преобразования определяется видом функции K .

Чтобы упростить анализ процесса преобразований сигнала, используют допущение о линейности систем преобразований. Это допущение применимо к нелинейным системам, если сигнал имеет малую амплитуду гармоник, либо когда систему можно рассматривать как совокупность линейного и нелинейного звеньев. Примером такой нелинейной системы являются светочувствительные материалы (подробный анализ их преобразующих свойств будет сделан ниже).

Рассмотрим преобразование сигнала в линейных системах. Система называется линейной , если ее реакция на одновременное воздействие нескольких сигналов равна сумме реакций, вызываемых каждым сигналом, действующим отдельно , т. е. выполняется принцип суперпозиции :

где t , t 1 – аргументы в пространстве выходного и входного сигналов соответственно;

E 0 (t , t 1) – импульсная реакция системы.

Импульсной реакцией системы называется выходной сигнал, если на вход подан сигнал, описываемый дельта-функцией Дирака. Эту функцию δ(x ) определяют тремя условиями:

δ(t ) = 0 при t ≠ 0; (1.22)
(1.23)
δ(t ) = δ(–t ). (1.24)

Геометрически она совпадает с положительной частью вертикальной оси координат, т. е. имеет вид луча, выходящего вверх из начала координат. Физической реализацией дельта-функции Дирака в пространстве является точка с бесконечной яркостью, во времени – бесконечно короткий импульс бесконечно большой интенсивности, в спектральном пространстве – бесконечно сильное монохроматическое излучение.

Дельта-функция Дирака обладает следующими свойствами:

(1.25)
(1.26)

Если импульс происходит не на нулевом отсчете, а при значении аргумента t 1 , то такую "сдвинутую" на t 1 дельта-функцию можно описать как δ(t t 1).

Чтобы упростить выражение (1.21), связывающее выходной и входной сигналы линейной системы, принимают допущение о нечувствительности (инвариантности) линейной системы к сдвигу. Линейная система называется нечувствительной к сдвигу , если при сдвиге импульса импульсная реакция изменяет только свое положение, но не изменяет своей формы , т. е. удовлетворяет равенству:

E 0 (t , t 1) = E 0 (t t 1). (1.27)

Рис. 1.6. Нечувствительность импульсной реакции систем

или фильтров к сдвигу

Оптические системы, являясь линейными, чувствительны к сдвигу (не инвариантны): распределение, освещенность и размер "кружка" (в общем случае не являющегося кругом) рассеяния зависят от координаты в плоскости изображения. Как правило, в центре поля зрения диаметр "кружка" меньше, а максимальное значение импульсной реакции больше, чем по краям (рис.1.7).

Рис. 1.7. Чувствительность импульсной реакции к сдвигу

Для нечувствительных к сдвигу линейных систем выражение (1.21), связывающее входной и выходной сигналы, приобретает более простой вид:

Из определения свертки следует возможность представить выражение (1.28) в несколько ином виде:

что для рассматриваемых преобразований дает

(1.32)

Таким образом, зная сигнал на входе линейной и инвариантной к сдвигу системы, а также импульсную реакцию системы (отклик ее на единичный импульс), по формулам (1.28) и (1.30) можно математически определить сигнал на выходе системы, не реализуя физически саму систему.

К сожалению, из указанных выражений невозможно непосредственно найти одну из подынтегральных функций E вх (t ) или E 0 (t ) по второй и известному выходному сигналу.

Если линейная, нечувствительная к сдвигу система состоит из нескольких, последовательно пропускающих сигнал фильтрующих звеньев, то импульсная реакция системы представляет собой свертку импульсных реакций составляющих фильтров, что в сокращенном виде можно записать как

что соответствует сохранению неизменного значения постоянной составляющей сигнала при фильтрации (это станет очевидным при анализе фильтрации в частотной области).

Пример . Рассмотрим преобразование оптического сигнала при получении на светочувствительном материале миры с косинусоидальным распределением интенсивности. Мирой называется решетка или ее изображение, состоящие из группы полос определенной ширины. Распределение яркости в решетке обычно имеет прямоугольный или косинусоидальный характер. Миры необходимы для экспериментального изучения свойств фильтров оптических сигналов.

Схема устройства для записи косинусоидальной миры представлена на рис. 1.8.

Рис. 1.8. Схема устройства для получения миры
с косинусоидальным распределением интенсивности

Равномерно перемещающуюся со скоростью v фотопленку 1 освещают через щель 2 шириной A. Изменение освещенности во времени производится по косинусоидальному закону. Это достигается за счет прохождения светового пучка через осветительную систему 3 и два поляроидных фильтра 4 и 5. Поляроидный фильтр 4 равномерно вращается, фильтр 5 неподвижен. Вращение оси подвижного поляризатора относительно неподвижного обеспечивает косинусоидальное изменение интенсивности проходящего светового пучка. Уравнение изменения освещенности E (t ) в плоскости щели имеет вид:

Фильтрами в рассматриваемой системе являются щель и фотопленка. Так как подробный анализ свойств светочувствительных материалов будет приведен ниже, то проанализируем только фильтрующее действие щели 2. Импульсную реакцию E 0 (х ) щели 2 шириной A можно представить в виде:

(1.41)

то окончательный вид уравнения сигнала на выходе щели следующий:

Сравнение Е вых (x ) и Е вх (x ) показывает, что они отличаются лишь наличием множителя в переменной части. График функции типа sinc представлен на рис. 1.5. Она характеризуется осциллирующим с постоянным периодом убыванием от 1 до 0.

Следовательно, при увеличении значения аргумента этой функции, т. е. при росте произведения w 1 A и уменьшении v , амплитуда переменной составляющей сигнала на выходе падает.

Кроме того, эта амплитуда будет обращаться в нуль, когда

Это имеет место при

Где n = ±1, ±2…

В таком случае вместо миры на пленке получится равномерное почернение.

Изменения постоянной составляющей сигнала а 0 не произошло, т. к. импульсная реакция щели здесь являлась нормированной в соответствии с условием (1.37).

Таким образом, регулируя параметры записи миры v , A , w 1 , можно подобрать оптимальную для данного светочувствительного материала амплитуду переменной составляющей освещенности, равную произведению a sinc ((w 1 A )/(2v )), и предотвратить брак.

Функция Кронекера. Для дискретных и цифровых систем разрешающая способность по аргументу сигнала определяется интервалом его дискретизации Dt. Это позволяет в качестве единичного импульса использовать дискретный интегральный аналог дельта-функции - функцию единичного отсчета d(kDt-nDt), которая равна 1 в координатной точке k = n, и нулю во всех остальных точках. Функция d(kDt-nDt) может быть определена для любых значений Dt = const, но только для целых значений координат k и n, поскольку других номеров отсчетов в дискретных функциях не существует.

Математические выражения d(t-t) и d(kDt-nDt) называют также импульсами Дирака и Кронекера. Однако, применяя такую терминологию, не будем забывать, что это не просто единичные импульсы в координатных точках t и nDt, а полномасштабные импульсные функции, определяющие как значения импульсов в определенных координатных точках, так и нулевые значения по всем остальным координатам, в пределе от -¥ до ¥.

1.3. Системы преобразования сигналов

Сигналы, в любой форме материального представления, содержат определенную полезную информацию. Если при преобразованиях сигналов происходит нарушение заключенной в них информации (частичная утрата, количественное изменение соотношения информационных составляющих или параметров, и т. п.), то такие изменения называются искажениями сигнала. Если полезная информация остается неизменной или адекватной содержанию во входном сигнале, то такие изменения называются преобразованиями сигнала.

Математические преобразования сигналов осуществляются для того, чтобы получить какую-то дополнительную информацию, недоступную в исходном сигнале, или выделить из входного сигнала полезную информацию и сделать ее более доступной для дальнейшей обработки, измерений каких-либо параметров, передаче по каналам связи, и пр. Преобразованный сигнал принято называть трансформантой исходного.

Любые изменения сигналов сопровождаются изменением их спектра, и по характеру этого изменения разделяются на два вида: линейные и нелинейные. К нелинейным относят изменения, при которых в составе спектра сигналов появляются (вводятся) новые гармонические составляющие, отсутствующие во входном сигнале. При линейных изменениях сигналов изменяются амплитуды и/или начальные фазы гармонических составляющих спектра (вплоть до полного подавления в сигнале определенных гармоник). И линейные, и нелинейные изменения сигналов могут происходить как с сохранением полезной информации, так и с ее искажением. Это зависит не только от характера изменения спектра сигналов, но и от спектрального состава самой полезной информации.

Общее понятие систем. Преобразование и обработка сигналов осуществляется в системах. Понятия сигнала и системы неразрывны, так как любой сигнал существует в пределах какой-либо системы. Система обработки сигналов может быть реализована как в материальной форме (специальное устройство, измерительный прибор, совокупность физических объектов с определенной структурой взаимодействия и т. п.), так и программно на ЭВМ или любом другом специализированном вычислительном устройстве. Форма реализации системы существенного значения не имеет, и определяет только ее возможности при анализе и обработке сигналов.

Безотносительно к назначению система всегда имеет вход , на который подается внешний входной сигнал, в общем случае многомерный, и выход , с которого снимается обработанный выходной сигнал. Собственно система представляет собой системный оператор (алгоритм) преобразования входного сигнала s(t) – воздействия или возбуждения , в сигнал на выходе системы y(t) – отклик или выходную реакцию системы. Символическое обозначение операции преобразования (трансформации сигнала): y(t) = T.

Системный оператор T - это набор правил преобразования (transformation) сигнала s(t) в сигнал y(t). Так, например, в самом простейшем случае таким правилом может быть таблица перекодировки входных сигналов в выходные.

Для детерминированных входных сигналов соотношение между выходными и входными сигналами всегда однозначно задается системным оператором. В случае реализации на входе системы случайного процесса происходит изменение статистических характеристик сигнала (математического ожидания, дисперсии, корреляционной функции и пр.), которое также определяется системным оператором.

Для полного определения системы необходимо задание характера, типа и области допустимых величин входных и выходных сигналов. По типу обработки входных сигналов они обычно подразделяются на системы непрерывного времени для обработки сигналов в процессе измерений, и цифровые системы для обработки данных, зарегистрированных на промежуточных носителях. Совокупность системного оператора Т и областей входных и выходных сигналов образует математическую модель системы.

Линейные и нелинейные системы составляют два основных класса систем обработки сигналов.

Термин линейности (linear) означает, что система преобразования сигналов должна иметь произвольную, но в обязательном порядке линейную связь между входным сигналом (возбуждением) и выходным сигналом (откликом) с определенным изменением спектрального состава входного сигнала (усиление или подавление определенных частотных составляющих сигнала). В нелинейных (nonlinear) системах связь между входным и выходным сигналом определяется произвольным нелинейным законом с дополнением частотного состава входного сигнала частотными составляющими, отсутствующими во входном сигнале.

Стационарные и нестационарные системы. Система считается стационарной и имеет постоянные параметры , если ее свойства (математический алгоритм оператора преобразования) в пределах заданной точности не зависят от входного и выходного сигналов и не изменяются ни во времени, ни от каких-либо других внешних факторов. В противном случае система является нестационарной, и называется параметрической или системой с переменными параметрами . Среди последних большое значение имеют так называемые адаптивные системы обработки данных. В этих системах производится, например, оценивание определенных параметров входных и выходных сигналов, по результатам сравнения которых осуществляется подстройка параметров преобразования (переходной характеристики системы) таким образом, чтобы обеспечить оптимальные по производительности условия обработки сигналов или минимизировать погрешность обработки.

Основные системные операции. К базовым линейным операциям, из которых могут быть сформированы любые линейные операторы преобразования, относятся операции скалярного умножения, сдвига и сложения сигналов:

y(t) = c ´ s(t), y(t) = s(t-Dt), y(t) = a(t)+b(t).

Для нелинейных систем выделим важный тип безинерционных операций нелинейной трансформации сигнала, результаты которой зависят только от его входных значений. К ним относятся, например, операции квадратирования и логарифмирования сигнала:

y(t) = 2, y(t) = log.

Линейные системы. Система считается линейной, если ее реакция на входные сигналы аддитивна (выполняется принцип суперпозиции сигналов) и однородна (выполняется принцип пропорционального подобия). Другими словами, отклик линейной системы на взвешенную сумму входных сигналов должен быть равен взвешенной сумме откликов на отдельные входные сигналы независимо от их количества и для любых весовых коэффициентов , в том числе комплексных.

При программной реализации линейных систем на ЭВМ особых затруднений с обеспечением линейности в разумных пределах значений входных и выходных сигналов, как правило, не возникает. При физической (аппаратной) реализации систем обработки данных диапазон входных и выходных сигналов, в котором обеспечивается линейность преобразования сигналов, всегда ограничен и должен быть специально оговорен.

Инвариантность систем к сдвигу. Система называется инвариантной к сдвигу, если сдвиг входного сигнала по аргументам (времени, координатам пространства и т. п.) вызывает соответствующий сдвиг выходного сигнала:

y(x, t) = T, T = y(x-Dx, t-Dt).

Это означает, что форма выходного сигнала зависит только от входного сигнала, и не зависит от времени поступления сигнала на вход системы. Инвариантность системы к сдвигу является одним из подтверждений постоянства ее параметров.

Линейные системы, инвариантные к сдвигу. Линейность и инвариантность к сдвигу являются независимыми свойствами систем и не определяют друг друга. Так, например, операция квадратирования сигнала инвариантна к сдвигу, но нелинейна.

В теории анализа и обработки данных основное место занимают системы, линейные и инвариантные к сдвигу (ЛИС - системы). Они обладают достаточно широкими практическими возможностями при относительной простоте математического аппарата. В дальнейшем, если это специально не оговаривается, будем иметь в виду именно такие системы.

Преимущество, которое отдается ЛИС - системам в методах обработки информации , базируется на возможности разложения входного сигнала любой, сколь угодно сложной формы, на составляющие простейших форм, отклик системы на которые известен и хорошо изучен, с последующим вычислением выходного сигнала в виде суммы откликов на все составляющие входного сигнала. В качестве простейших форм разложения сигналов используются, как правило, единичные импульсы и гармонические составляющие. Разложение по единичным импульсам применяется при динамическом представлении сигнала в зависимости от реальных физических аргументов (времени, координат и пр.) и использует операцию свертки. Разложение на гармонические составляющие использует спектральное (частотное) представление сигнала и преобразование Фурье.

Рис. 1.3.2 Соединения систем.

Соединения ЛИС - систем . При последовательном (каскадном) соединении систем выходной сигнал одной системы служит входным сигналом для второй и т. д. в зависимости от количества составляющих систем каскада. По отношению к общей системной операции преобразования порядок соединения входящих в нее систем значения не имеет. Так, для двух последовательно соединенных систем на рис. 1.3.2.

177kb. 01.03.2010 20:05 290kb. 07.03.2010 21:27 152kb. 22.03.2010 21:39 188kb. 22.03.2010 21:39 174kb. 28.03.2010 22:25 197kb. 11.09.2008 19:16 136kb. 05.04.2010 18:57 179kb. 05.04.2010 18:57 153kb. 11.09.2008 19:34 479kb. 04.04.2010 20:32 613kb. 04.04.2010 21:26 324kb. 11.04.2010 19:04 4kb. 19.05.2010 00:41 8kb. 17.05.2010 22:04 5kb. 19.05.2010 00:45 8kb. 24.05.2010 23:20 5kb. 24.05.2010 23:20 4kb. 24.05.2010 23:20 133kb. 11.09.2008 20:05 7kb. 17.05.2010 21:48 6kb. 17.05.2010 21:47 7kb. 17.05.2010 21:46 7kb. 17.05.2010 21:45 7kb. 17.05.2010 21:44 7kb. 17.05.2010 21:42 5kb. 17.05.2010 21:41 6kb. 17.05.2010 21:41 6kb. 17.05.2010 21:39 9kb. 17.05.2010 21:39 8kb. 17.05.2010 22:03 6kb. 17.05.2010 21:36 7kb. 17.05.2010 21:34 8kb. 17.05.2010 21:32 7kb. 17.05.2010 21:28 6kb. 17.05.2010 22:05 6kb. 17.05.2010 22:01 7kb. 17.05.2010 21:59 7kb. 17.05.2010 21:58 6kb. 17.05.2010 21:56 7kb. 17.05.2010 21:55 7kb. 17.05.2010 21:54 6kb. 17.05.2010 21:53 9kb. 17.05.2010 21:52 4kb. 19.05.2010 00:41 9kb. 10.09.2008 00:26

ts01.doc

Функция единичного скачка или функция Хевисайда иногда называется также функцией включения. Полное математическое выражение функции:

При моделировании сигналов и систем значение функции скачка в точке t=0 очень часто принимают равным 1, если это не имеет принципиального значения.

Функция единичного скачка используется при создании математических моделей сигналов конечной длительности. При умножении любой произвольной функции, в том числе периодической, на прямоугольный импульс, сформированный из двух последовательных функций единичного скачка

S(t) = (t) - (t-T),

Из нее вырезается участок на интервале 0-Т, и обнуляются значения функции за пределами этого интервала.

Функция Кронекера. Для дискретных и цифровых систем разрешающая способность по аргументу сигнала определяется интервалом его дискретизации t. Это позволяет в качестве единичного импульса использовать дискретный интегральный аналог дельта-функции - функцию единичного отсчета (kt-nt), которая равна 1 в координатной точке k = n, и нулю во всех остальных точках. Функция (kt-nt) может быть определена для любых значений t = const, но только для целых значений координат k и n, поскольку других номеров отсчетов в дискретных функциях не существует.

Математические выражения (t-) и (kt-nt) называют также импульсами Дирака и Кронекера. Однако, применяя такую терминологию, не будем забывать, что это не просто единичные импульсы в координатных точках  и nt, а полномасштабные импульсные функции, определяющие как значения импульсов в определенных координатных точках, так и нулевые значения по всем остальным координатам, в пределе от - до .

^ 1.3. Системы преобразования сигналов

Сигналы, в любой форме материального представления, содержат определенную полезную информацию. Если при преобразованиях сигналов происходит нарушение заключенной в них информации (частичная утрата, количественное изменение соотношения информационных составляющих или параметров, и т.п.), то такие изменения называются искажениями сигнала. Если полезная информация остается неизменной или адекватной содержанию во входном сигнале, то такие изменения называются преобразованиями сигнала.

Математические преобразования сигналов осуществляются для того, чтобы получить какую-то дополнительную информацию, недоступную в исходном сигнале, или выделить из входного сигнала полезную информацию и сделать ее более доступной для дальнейшей , измерений каких-либо параметров, передаче по каналам связи, и пр. Преобразованный сигнал принято называть трансформантой исходного.

Любые изменения сигналов сопровождаются изменением их спектра, и по характеру этого изменения разделяются на два вида: линейные и нелинейные. К нелинейным относят изменения, при которых в составе спектра сигналов появляются (вводятся) новые гармонические составляющие, отсутствующие во входном сигнале. При линейных изменениях сигналов изменяются амплитуды и/или начальные фазы гармонических составляющих спектра (вплоть до полного подавления в сигнале определенных гармоник). И линейные, и нелинейные изменения сигналов могут происходить как с сохранением полезной информации, так и с ее искажением. Это зависит не только от характера изменения спектра сигналов, но и от спектрального состава самой полезной информации.

Общее понятие систем. Преобразование и обработка сигналов осуществляется в системах. Понятия сигнала и системы неразрывны, так как любой сигнал существует в пределах какой-либо системы. Система обработки сигналов может быть реализована как в материальной форме (специальное устройство, измерительный прибор, совокупность физических объектов с определенной структурой взаимодействия и т.п.), так и программно на ЭВМ или любом другом специализированном вычислительном устройстве. Форма реализации системы существенного значения не имеет, и определяет только ее возможности при анализе и обработке сигналов.


Рис. 1.3.1. Графическое представление системы.
Безотносительно к назначению система всегда имеет вход , на который подается внешний входной сигнал, в общем случае многомерный, и выход , с которого снимается обработанный выходной сигнал. Собственно система представляет собой системный оператор (алгоритм) преобразования входного сигнала s(t) – воздействия или возбуждения , в сигнал на выходе системы y(t) – отклик или выходную реакцию системы. Символическое обозначение операции преобразования (трансформации сигнала): y(t) = T.

Системный оператор T - это набор правил преобразования (transformation) сигнала s(t) в сигнал y(t). Так, например, в самом простейшем случае таким правилом может быть таблица перекодировки входных сигналов в выходные.

Для детерминированных входных сигналов соотношение между выходными и входными сигналами всегда однозначно задается системным оператором. В случае реализации на входе системы случайного процесса происходит изменение статистических характеристик сигнала (математического ожидания, дисперсии, корреляционной функции и пр.), которое также определяется системным оператором.

Для полного определения системы необходимо задание характера, типа и области допустимых величин входных и выходных сигналов. По типу обработки входных сигналов они обычно подразделяются на системы непрерывного времени для обработки сигналов в процессе измерений, и цифровые системы для обработки данных, зарегистрированных на промежуточных носителях. Совокупность системного оператора Т и областей входных и выходных сигналов образует математическую модель системы.

Линейные и нелинейные системы составляют два основных класса систем обработки сигналов.

Термин линейности (linear) означает, что система преобразования сигналов должна иметь произвольную, но в обязательном порядке линейную связь между входным сигналом (возбуждением) и выходным сигналом (откликом) с определенным изменением спектрального состава входного сигнала (усиление или подавление определенных частотных составляющих сигнала). В нелинейных (nonlinear) системах связь между входным и выходным сигналом определяется произвольным нелинейным законом с дополнением частотного состава входного сигнала частотными составляющими, отсутствующими во входном сигнале.

Стационарные и нестационарные системы. Система считается стационарной и имеет постоянные параметры , если ее свойства (математический алгоритм оператора преобразования) в пределах заданной точности не зависят от входного и выходного сигналов и не изменяются ни во времени, ни от каких-либо других внешних факторов. В противном случае система является нестационарной, и называется параметрической или системой с переменными параметрами . Среди последних большое значение имеют так называемые адаптивные системы обработки данных. В этих системах производится, например, оценивание определенных параметров входных и выходных сигналов, по результатам сравнения которых осуществляется подстройка параметров преобразования (переходной характеристики системы) таким образом, чтобы обеспечить оптимальные по производительности условия обработки сигналов или минимизировать погрешность обработки.

Основные системные операции. К базовым линейным операциям, из которых могут быть сформированы любые линейные операторы преобразования, относятся операции скалярного умножения, сдвига и сложения сигналов:

Y(t) = c  s(t), y(t) = s(t-t), y(t) = a(t)+b(t).

Для нелинейных систем выделим важный тип безинерционных операций нелинейной трансформации сигнала, результаты которой зависят только от его входных значений. К ним относятся, например, операции квадратирования и логарифмирования сигнала:

Y(t) = 2 , y(t) = log.

Линейные системы. Система считается линейной, если ее реакция на входные сигналы аддитивна (выполняется принцип суперпозиции сигналов) и однородна (выполняется принцип пропорционального подобия). Другими словами, отклик линейной системы на взвешенную сумму входных сигналов должен быть равен взвешенной сумме откликов на отдельные входные сигналы независимо от их количества и для любых весовых коэффициентов , в том числе комплексных.

При программной реализации линейных систем на ЭВМ особых затруднений с обеспечением линейности в разумных пределах значений входных и выходных сигналов, как правило, не возникает. При физической (аппаратной) реализации систем обработки данных диапазон входных и выходных сигналов, в котором обеспечивается линейность преобразования сигналов, всегда ограничен и должен быть специально оговорен.

Инвариантность систем к сдвигу. Система называется инвариантной к сдвигу, если сдвиг входного сигнала по аргументам (времени, координатам пространства и т.п.) вызывает соответствующий сдвиг выходного сигнала:

Y(x,t) = T, T = y(x-x,t-t).

Это означает, что форма выходного сигнала зависит только от входного сигнала, и не зависит от времени поступления сигнала на вход системы. Инвариантность системы к сдвигу является одним из подтверждений постоянства ее параметров.

Линейные системы, инвариантные к сдвигу. Линейность и инвариантность к сдвигу являются независимыми свойствами систем и не определяют друг друга. Так, например, операция квадратирования сигнала инвариантна к сдвигу, но нелинейна.

В теории анализа и обработки данных основное место занимают системы, линейные и инвариантные к сдвигу (ЛИС - системы). Они обладают достаточно широкими практическими возможностями при относительной простоте математического аппарата. В дальнейшем, если это специально не оговаривается, будем иметь в виду именно такие системы.

Преимущество, которое отдается ЛИС - системам в методах обработки информации, базируется на возможности разложения входного сигнала любой, сколь угодно сложной формы, на составляющие простейших форм, отклик системы на которые известен и хорошо изучен, с последующим вычислением выходного сигнала в виде суммы откликов на все составляющие входного сигнала. В качестве простейших форм разложения сигналов используются, как правило, единичные импульсы и гармонические составляющие. Разложение по единичным импульсам применяется при динамическом представлении сигнала в зависимости от реальных физических аргументов (времени, координат и пр.) и использует операцию свертки. Разложение на гармонические составляющие использует спектральное (частотное) представление сигнала и преобразование Фурье.


Рис. 1.3.2 Соединения систем.
Соединения ЛИС - систем . При последовательном (каскадном) соединении систем выходной сигнал одной системы служит входным сигналом для второй и т.д. в зависимости от количества составляющих систем каскада. По отношению к общей системной операции преобразования порядок соединения входящих в нее систем значения не имеет. Так, для двух последовательно соединенных систем на рис. 1.3.2:

Y(t) = T 2 ] = T 1 ].

При параллельном соединении входной сигнал поступает одновременно на входы всех составляющих систем, а выходные сигналы систем суммируются:

Y(t) = T 1 + T 2 + ... + T N .

Образуемые в результате соединений системы в целом также являются ЛИС - системами, если линейны и инвариантны к сдвигу системы, в них входящие.

Обобщенная схема системы цифровой обработки сигналов на рис. 1.3.3 приведена в качестве примера.

Рис. 1.3.3. Структурная схема системы дифференцирования сигналов.

^ 1.4. информационная емкость сигналов

Объем информации, находящейся в обращении и необходимой для функционирования и развития современного общества, нарастает примерно пропорционально квадрату развития производительных сил. В передовых по научно-техническому развитию странах мира доля рабочей силы, занятой вопросами сбора, обработки и обеспечения информацией, превышает долю рабочей силы в сфере производства. Применение методов и средств автоматизации на всех этапах обращения информации, эффективная организация ее хранения, обработки и обмена, приобретают все большее значение в качестве основного условия успешного функционирования экономики стран.

Понятие информации. В настоящее время нет общепринятого и однозначного понимания термина "Информация". Спектр бытующих понятий весьма широк, от общего философского - информация есть отражение реального мира, до практического - информация есть сведения, являющиеся объектом хранения, передачи и преобразования. Расхождения существуют и по вопросу места информации в материальном мире. Это свойство индивидуальных объектов или результат их взаимодействия? Присуща ли информация всем видам материи или лишь определенным образом организованной материи?

В информатике под информацией понимается, как правило, совокупность сведений смыслового содержания, которые можно собирать, обрабатывать, передавать и т.п. Причем именно сведений в изначальном смысле латинского слова informatio, а не данных или сигналов, которые являются носителями этих сведений. В таком понимании процессы извлечения сведений из данных и их интерпретации неразрывно связаны с разумом, а конечным результатом обработки и восприятия информации с помощью разума является раскрытие неопределенности знаний о каком-либо объекте, явлении или процессе. Но при таком подходе размывается само понятие разума.

С одной стороны, существование любого живого существа поддерживается до тех пор, пока действуют его органы чувств (датчики), преобразующие физические воздействия окружающего мира в сигналы, которые в материальной форме отображают данные об этих воздействиях. Данные собираются и интерпретируются определенной системой, которую в самой общей форме мы называем "разумом", из общей суммы данных извлекаются определенные сведения, степень неопределенности сведений об окружающей обстановке снижается, и... лиса распутывает заячий след. Живое существо существует до тех пор, пока способно воспринимать и обрабатывать внешние и внутренние воздействия. Нет сомнений и в том, что в коллективных сообществах его члены не только способны собирать и обрабатывать информацию, но и передавать ее другим членам сообщества, как, например, в пчелиной семье точный путь до продуктивного цветочного массива. Информационный танец пчелы в этом отношении по компактности содержания ничем не уступает телеграфному сообщению. Естественно, в принятой у пчел символьной форме.

С другой стороны, если информация неразрывно связана с "разумом", то в этом случае нельзя отказать в "разуме" и электронной вычислительной машине, обыгрывающей в шахматы чемпиона мира, а равно и любым устройствам технической кибернетики, так как все они имеют системы сбора, передачи, накопления, хранения и обработки информации той или иной степени сложности, и на основе этой информации способны формировать сигналы обратной связи для управления определенными процессами.

В технических отраслях знаний, где вопросы соотношения информации с разумом не стоят на первом месте, преобладает понимание информации в виде отображения такого всеобщего свойства материи, как разнообразие, как характеристики внутренней организованности материальных систем, процессов или явлений по множеству состояний, которые для них возможны. В такой трактовке информация существует независимо от того, воспринимается она каким-либо "разумом" или нет, и является одним из свойств материальных объектов. "Информация есть информация, а не материя и не энергия" (Норберт Винер). Это свойство в какой-то мере имеет потенциальный характер. Информация может проявлять себя при взаимодействии объектов или процессов, может возникать (создаваться) и исчезать (уничтожаться).

Но и в такой трактовке возникает много вопросов, на которые трудно дать однозначные ответы. Насекомое третичного периода, неизвестное в настоящее время ученым, прилипло к капле смолы хвойного дерева. Новый слой смолы закрыл насекомое. Дерево упало, и его занесло песком. Смола превратилась в янтарь. Янтарь в потенциале содержит полную информацию о насекомом, потому как в нем десятки тысяч фрагментов ДНК - информация, достаточная для восстановления ДНК и воспроизводства насекомого, если не в настоящее время, то в ближайшем будущем. Но когда она возникла? В момент появления насекомого с его ДНК? В момент прилипания к смоле? В момент окаменения? Можно ли говорить о появлении информации, если еще не существовал субъект, способный извлечь и использовать эту информацию? Наконец, янтарь с насекомым найден и попал на глаза палеонтолога. Определен новый вид насекомого. Появилась первая частичная информация? Так может быть, информация появляется только при активном и целенаправленном воздействии на объект исследований? А если янтарь оказался непрозрачным, и его переплавили? Исчезла ли информация? И можно ли считать, что она вообще была?

Ответы на эти и подобные им вопросы тяготеют к двум полюсам, а по существу, к двум диаметрально противоположным философским позициям.

Сторонники первой позиции понимают под информацией только то, что может восприниматься, обрабатываться, осмысливаться и использоваться, т.е. является продуктом процесса сбора, организации, систематизации и использования сведений о материальных объектах и процессах.

Противоположная позиция, это понятие информации как свойства объектов и процессов воспринимать и перерабатывать внутреннее состояние и внешнее воздействие окружающей среды, сохранять его результаты и передавать их другим объектам. С этой позиции все материальные объекты и процессы являются источниками, носителями и потребителями информации, на основе которой и идет развитие реального мира. По существу, это соответствует принятию материальности информации и информационной основы мироздания.

При неопределенности самого понятия информации можно достаточно обоснованно считать, что информация проявляется, хранится и передается от одного объекта к другому в материально - энергетической форме в виде сигналов. Сигналом, как материальным носителем информации, может быть любой физический процесс (электрический, магнитный, оптический, акустический и пр.), определенные параметры которого (амплитуда, частота, энергия, интенсивность и др.) однозначно отображают информационные данные (сообщения).

Количественная мера информации. Теория любого явления начинается с появления количественных взаимоотношений между объектами исследований, т.е. при установлении принципов измеряемости каких-либо свойств объектов. Единицу количественной меры информации - БИТ (сокращение binary digit - двоичная цифра), впервые предложил Р. Хартли в 1928 году. 1 бит - это информация о двух возможных равновероятных состояниях объекта, неопределенность выбора из двух равновероятных событий. Математически это отображается состоянием 1 или 0 одного разряда двоичной системы счисления. Количество информации Н (в битах), необходимое и достаточное для полного снятия неопределенности состояния объекта, который имеет N равновозможных состояний, измеряется как логарифм по основанию 2 из числа возможных состояний:

H = log 2 N. (1.4.1)

Соответственно, двоичный числовой информационный код одного из N возможных состояний объекта занимает Н двоичных разрядов.

Пример. Необходимо поднять груз на определенный этаж 16 -ти этажного здания (нумерация этажей 0-15, N = 16). Сколько бит информации полностью определяют задание?

H = log 2 N = log 2 16 = 4.

Следовательно, 4 бита информации необходимы и достаточны для полного снятия неопределенности выбора. В этом можно убедиться применением логики исчисления с последовательным делением пополам интервалов состояний. Например, для 9-го этажа:

1. Выше 7-го этажа? Да = 1. 2. Выше 11-го этажа? Нет = 0.

3. Выше 9-го этажа? Нет = 0. 4. Выше 8-го этажа? Да = 1.

Итог: этаж номер 9 или 1001 в двоичном исчислении, четыре двоичных разряда.

Если в приведенном примере на этажах имеется по 4 квартиры с нумерацией на каждом этаже 0-3 (М=4), то при адресации груза в квартиру потребуется еще 2 бита информации. Такой же результат получим, если вместо независимой нумерации этажей и квартир на этажах (два источника неопределенности) будем иметь сквозную нумерацию квартир (обобщенный источник):

H = log 2 N + log 2 M = log 2 16 + log 2 4 = 6  log 2 (N  M) = log 2 64 = 6,

Т.е. количество информации отвечает требованию аддитивности: неопределенность объединенного источника равна сумме неопределенностей исходных источников, что соответствует интуитивному требованию к информации: она должна быть однозначной, а ее количество должно быть одним и тем же независимо от способа задания.

Основание логарифма не имеет принципиального значения и определяет только масштаб или единицу неопределенности. Так, если за единицу неопределенности принять три равновероятных состояния, то для определения, например, одной фальшивой золотой монеты (более легкой) из 27 внешне неотличимых монет потребуется только H = log 3 27 = 3, т.е. три взвешивания на равноплечных весах. Логику исчисления взвешиваний предлагается определить самостоятельно.

Двоичная мера информации получила общее признание в связи с простотой реализации информационной техники на элементах с двумя устойчивыми состояниями. В десятичном исчислении единицей информации является один десятичный разряд - ДИТ.

Энтропия источника информации. Степень неопределенности состояния объекта (или так называемого источника информации) зависит не только от числа его возможных состояний, но и от вероятности этих состояний. При неравновероятных состояниях свобода выбора для источника ограничивается. Так, если из двух возможных состояний вероятность одного из них равна 0.999, то вероятность другого состояния соответственно равна 1-0.999 = 0.001, и при взаимодействии с таким источником результат практически предрешен.

В общем случае, в соответствии с теорией вероятностей, источник информации однозначно и полно характеризуется ансамблем состояний U = {u 1 , u 2 ,..., u N } с вероятностями состояний соответственно {р(u 1), р(u 2),..., р(u N)} при условии, что сумма вероятностей всех состояний равна 1. Мера количества информации, как неопределенности выбора дискретным источником состояния из ансамбля U, предложена К. Шенноном в 1946 году и получила название энтропии дискретного источника информации или энтропии конечного ансамбля:

H(U) = -p n log 2 p n . (1.4.2)

Выражение Шеннона совпадает с выражением Больцмана для энтропии физических систем при оценке степени разнообразия их состояний. Мера энтропии Шеннона является обобщением меры Хартли на случай ансамблей с неравновероятными состояниями, в чем нетрудно убедиться, если в выражении (1.4.2) значение p n заменить значением p=1/N для ансамбля равновероятных состояний. Энтропия конечного ансамбля H(U) характеризует неопределенность, приходящуюся в среднем на одно состояние ансамбля.

Учитывая, что в дальнейшем во всех математических выражениях, касающихся энтропии, мы будем использовать только двоичное основание логарифма, индекс 2 основания логарифма в формулах будем подразумевать по умолчанию.


u i

p i

u i

p i

u i

p i

u i

p i

u i

p i

а

.064

з

.015

о

.096

х

.009

э

.003

б

.015

и

.064

п

.024

ц

.004

ю

.007

в

.039

й

.010

р

.041

ч

.013

я

.019

г

.014

к

.029

с

.047

ш

.006

-

.124

д

.026

л

.036

т

.056

щ

.003

е,ё

.074

м

.026

у

.021

ъ,ь

.015

ж

.008

н

.056

ф

.020

ы

.016
Пример. Вычислить энтропию ансамбля 32 букв русского алфавита. Вероятности использования букв приведены в таблице. Сравнить энтропию с неопределенностью, которая была бы у алфавита при равновероятном их использовании.

Неопределенность на одну букву при равновероятности использования:

H(u) = log 32 = 5

Энтропия алфавита по ансамблю таблицы:

H(u) = - 0.064 log 0.064 - 0.015 log 0.015 - . . . . . . . . . . . . . . . . . . - 0.143 log 0.143  4.42.

Таким образом, неравновероятность состояний снижает энтропию источника.

Основные свойства энтропии:

1. Энтропия является величиной вещественной и неотрицательной, т.к. значения вероятностей p n находятся в интервале 0-1, значения log p n всегда отрицательны, а значения -p n log p n в (1.4.2) соответственно положительны.

2. Энтропия - величина ограниченная, т.к. при p n  0 значение -p n log p n также стремится к нулю, а при 0 < p n  1 ограниченность суммы всех слагаемых очевидна.

3. Энтропия равна 0, если вероятность одного из состояний источника информации равна 1, и тем самым состояние источника полностью определено (вероятности остальных состояний источника равны нулю, т.к. сумма вероятностей должна быть равна 1).

4. Энтропия максимальна при равной вероятности всех состояний источника информации:

H ma x (U) = -(1/N) log (1/N) = log N.


Рис. 1.4.1.
5. Энтропия источника с двумя состояниями u 1 и u 2 при изменении соотношения их вероятностей p(u 1)=p и p(u 2)=1-p определяется выражением:

H(U) = -,

И изменяется от 0 до 1, достигая максимума при равенстве вероятностей. График изменения энтропии приведен на рис. 1.4.1.

6. Энтропия объединенных статистически независимых источников информации равна сумме их энтропий.

Рассмотрим это свойство на двух источниках информации u и v. При объединении источников получаем обобщенный источник информации (u,v), который описывается вероятностями p(u n v m) всех возможных комбинаций состояний u n источника u и v m источника v. Энтропия объединенного источника при N возможных состояниях источника u и М возможных состояниях источника v:

H(UV) = -
p(u n v m) log p(u n v m),

Источники статистически независимы друг от друга, если выполняется условие:

P(u n v m) = p(u n)p(v m).

С использованием этого условия соответственно имеем:

H(UV) = -p(u n)p(v m) log =

P(u n) log p(u n)p(v m) -p(v m) log p(v m)p(u m).

С учетом того, что p(u n) = 1 иp(v m) = 1, получаем:

H(UV) = H(U) + H(V). (1.4.3)

7. Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля, игнорируя содержательную сторону ансамбля. Это расширяет возможности использования энтропии при анализе самых различных явлений, но требует определенной дополнительной оценки возникающих ситуаций. Как следует из рис. 1.4.1, энтропия состояний может быть неоднозначной, и если в каком-либо экономическом начинании действие u с вероятностью p u =p приводит к успеху, а действие v с вероятностью p v =1-p к банкротству, то выбор действий по оценке энтропии может оказаться и прямо противоположным, т.к. энтропия при p v =p равна энтропии при p u =p.



Рекомендуем почитать

Наверх