рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Информационные характеристики измерения.

Информационные характеристики измерения. - раздел Приборостроение, Нормирование погрешностей средств измерения Очевидно, Что При Измерении Мы Получаем Определенную Информацию Об Измеряемой...

Очевидно, что при измерении мы получаем определенную информацию об измеряемой величине X. При этом возрастает определенность наших знаний о X. Иными словами, при измерении уменьшается неопределенность знаний об измеряемой величине. Клод Шеннон – основатель теории информации – предложил количественно выражать эту неопределенность так называемой энтропией.

В случае, если измеряемая величина X дискретна и может принимать ограниченное число N значений xi с вероятностями их появления Pi, энтропия может быть выражена в виде

(1)

Чем меньше число возможных значений N, тем меньше неопределенность знаний о X, и, значит, меньше энтропия H(X). В частности при N=1, Pi=1 и H(X)=0, т.е. неопределенность полностью отсутствует – значение X известно абсолютно точно.

Однако, на практике измеряемая величина X обычно непрерывна и поэтому даже в ограниченном диапазоне имеет бесконечное множество возможных значений x, отстоящих друг от друга на бесконечно малые расстояния dx с вероятностями появления P(X)=p(x)dx, где p(x) –плотность распределения вероятности. Распространяя на этот случай выражение энтропии (1), вместо операции сложения получим интеграл, в общем случае, в бесконечных пределах:

(2)

Представив (2) в виде суммы двух интегралов и учитывая, что

, получим

(3)

Из (3) видно, что в случае непрерывной измеряемой величины энтропия Н(Х) бесконечна, т.к. в нем интегральное выражения конечно, а . Физически это вполне понятно, поскольку число возможных значений Х бесконечно велико.

В частном случае, когда эти значения равновероятны и лежат в единичном интервале, энтропия . Следовательно, в (3) интегральное выражение

(4)

Из (4) можно заключить, что h(X) есть энтропия непрерывной измеряемой величины, определяемая по сравнению с энтропией канонической величины, имеющей равновероятные значения в единичном интервале. Такая энтропия называется дифференциальной энтропией. Она используется для сравнительной оценки неопределенности знаний о непрерывной измеряемой величине.

Обычно до измерения известен лишь диапазон Xmax-Xmin измеряемой величины, внутри которого ее значения равновероятны и, следовательно, имеют постоянную плотность распределения (см. рис.1)

г
г

Рис. 1

Подставив это значение в (4), нетрудно определить (самостоятельно, пожалуйста) что априорная дифференциальная энтропия

(5)

Если погрешность измерения ∆=X'-X тоже имеет равномерное распределение p(∆) в пределах г, то после измерения зона неопределенности, очевидно, сузится до 2∆г (рис.1), а дифференциальная энтропия соответственно уменьшается до значения

,*) (6)

где =х - Х.

Количество информации QI получаемое в результате измерения, равно разности энтропий до и после измерения:

(7)

где (8)

По своему физическому смыслу отношение ρ, очевидно, определяет число различимых градаций, т.е. число различимых ближайших значений измеряемой величины и называется разрешающей способностью средства измерения.

Из (4) и (5) следует, что чем меньше погрешность, тем больше получаемая информация и тем выше разрешающая способность прибора.

Важно отметить, что это заключение со всей очевидностью оказывается верным и при других законах распределения р(x) погрешности. Поэтому выражения (6), (7) и (8) можно распространить и на эти случаи, если заменить в них интервал 2∆г на некоторый эквивалентный в отношении энтропии интервал неопределенности 2∆э, приняв, что

(9)

Это фактически означает, что при произвольном распределении погрешности можно определить некий интервал неопределенности Х э c таким же значением энтропии, что и в случае равномерного распределения. Граничное значение ∆э такого эквивалентного интервала называют энтропийным значением погрешности. Это значение при произвольной плотности распределения p(x),

согласно (9), определяется соотношением

(10)

 

Пояснение: В случаях, когда интервал неопределенности определяется погрешностью измерения, при определении энтропии (4) удобнее вместо текущей переменной х использовать переменную ∆=х-Х. Нетрудно показать, что при замене в (4) р(х) на р(∆) и dx на d∆, результат не меняется, т.е. h(x)=h(∆).

Найдем энтропийное значение погрешности, имеющей нормальное распределение

(11)

Найдя и подставив это соотношение вместе с (11) в (10), с учетом того, что интеграл от в бесконечных пределах равен единице, а от - дисперсии , и принимая во внимание, что , получим (получить самостоятельно:)

(12)

Видим, что при нормальном распределении энтропийное значение погрешности , определяющее интервал неопределенности измерений, практически равно , что хорошо согласуется с обычно используемым граничным значением =доверительного интервала с вероятностью .

Выполняя аналогичные действия, можно найти энтропийную погрешность для треугольного распределения

Очевидно, что для равномерного распределения .

Достоинством энтропийного значения погрешности является то, что оно вполне однозначно определяет границы интервала неопределенности измерения в отличие от доверительных границ погрешности, которые зависят от выбранной доверительной вероятности. Энтропийная погрешность позволяет также при разных законах распределения погрешностей с единых позиций оценивать разрешающую способность прибора

(13)

и количество информации, полученное при измерении

(14)

 

– Конец работы –

Эта тема принадлежит разделу:

Нормирование погрешностей средств измерения

Класс точности кт это обобщенная характеристика средства измерений выражаемая пределами его допускаемых основной и дополнительных погрешностей.. возможно несколько случаев обозначения класса точности.. часто кт выражается привед нной погрешностью..

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Информационные характеристики измерения.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Нормирование погрешностей средств измерения.
Нормирование — это установление норм, т. е. официально закрепленных параметров, зависимостей или условий. Очевидно, что при выполнении измерений необходимы хотя бы ориентировочные сведения об уровн

Предел допустимой погрешности
Для определения предела допустимой погрешности проводят анализ погрешностей представительной выборки (подмножества) таких приборов (рис.1).

Приведенная погрешность
Обычно под приведенной погрешностью понимают Однако, нормированная приведенная погрешность определяется к

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги