Skip to content

Instantly share code, notes, and snippets.

Created September 16, 2017 02:33
Show Gist options
  • Save anonymous/6e4f5a4863a235ce3fa3c2848bc6481e to your computer and use it in GitHub Desktop.
Save anonymous/6e4f5a4863a235ce3fa3c2848bc6481e to your computer and use it in GitHub Desktop.
Энтропия теория информации

Энтропия теория информации - Информационная энтропия



Трудно найти понятия более общие для всех наук не только естественных и, вместе с тем, иногда носящих оттенок загадочности, чем энтропия и информация. Отчасти это связано с самими названиями. Кроме того, ее первооткрыватель Клаузиузус, первым же положил начало применению введенного им для, казалось, бы узкоспециальных термодинамических целей понятия к глобальным космологическим проблемам тепловая смерть Вселенной. С тех пор энтропия многократно фигурировала в оставшихся навсегда знаменитыми спорах [1]. В настоящее время универсальный характер этого понятия общепризнан и она плодотворно используется во многих областях. Шенноном [2] был придан математически точный смысл. Неопределенно-бытовой смысл этого термина уже научного. Это приводило и приводит ко многим недоразумениям и спекуляциям. Интересно и то, что К. Шеннон как создатель теории информации — по существу, раздела математики , был не чистым математиком, а инженером-теоретиком. Поэтому его работы написаны языком ясным для понимания инженеров, естественников и даже сведущих в математике гуманитариев. Профессиональные математики проявили активность в этой области позднее, но их капитальный подход см. Наш подход по степени формализованности будет близок к шенноновскому, доступным для понимания широкому кругу читателей и, при этом, вполне строгим. Основная цель обзора — так описать вопросы связанные с энтропией, чтобы без изложения многочисленных примеров стала ясна общность этого понятия и читатель был бы готов, прочитав его, самостоятельно применять энтропийный подход в своей области. Круг читателей, на которых рассчитан обзор — это как раз не специалисты в термодинамике и в теории информации, а физики всех других направлений, астрономы, геофизики, геологи, океанологи, биофизики и т. В чем-то обзор может быть полезен также экономистам и социологам. Объединяющее начало здесь — необходимость изучения естественных процессов, разворачивающихся во времени или пространстве вариаций. Под естественными процессами мы понимаем такие, параметры которых величина, длительность заранее неизвестны. Это близко к понятию случайного процесса, но не совпадает с ним, поскольку естественный процесс может быть детерминированным. Мы используем язык классической теории информации, в связи с чем в п. Для углубления понимания рекомендуется прочесть книги [] пронумерованные в порядке нарастания строгости, от совершенно популярной до фундаментальной научной литературы. Следует также отметить, что мы не будем следовать историческому подходу, обычно принятому в курсах физики и начинать с термодинамики, где впервые появилось понятие энтропии. Желающим глубоко изучить термодинамические и теплотехнические применения энтропии стоит прочитать прекрасную книгу П. Мы же, напротив, будем скорее исходить из теории информации и с этих позиций обосновывать общность термодинамического подхода. Базисным понятием всей теории информации является понятие энтропии. Энтропия — мера неопределенности некоторой ситуации. Можно также назвать ее мерой рассеяния и в этом смысле она подобна дисперсии. Но если дисперсия является адекватной мерой рассеяния лишь для специальных распределений вероятностей случайных величин а именно — для двухмоментных распределений, в частности, для гауссова распределения , то энтропия не зависит от типа распределения. С другой стороны, энтропия вводится так, чтобы обладать, кроме универсальности и другими желательными свойствами. Так, если некий опыт имеет n равновероятных исходов, а другой опыт m равновероятных исходов, то составной опыт имеет nm таких исходов. Если мы вводим меру неопределенности f , то естественно потребовать, чтобы она была такова, чтобы во-первых, неопределенность росла с ростом числа возможных исходов, а во-вторых, неопределенность составного опыта была равна просто сумме неопределенности отдельных опытов, иначе говоря, мера неопределенности была аддитивной: Именно такая удобная мера неопределенности была введена К. В дальнейшем мы будем рассматривать Х как некоторую физическую величину, меняющуюся во времени или пространстве. В самой теории информации такое пространственно-временное упорядочение совершенно не обязательно, но, во-первых, анализ именно таких вариаций составляет суть всех естественных наук, во-вторых, это с первых шагов позволяет лучше ощутить смысл новых понятий. Заметим также, что если даже пространственная или временная упорядоченность величины Х в явном виде отсутствует, она неизбежно существует неявно. Например, положим, что j — номер различимой частицы, а Х j — ее импульс. Х — неупорядоченная случайная величина ее номер j присваивается произвольно , но все эти частицы неизбежно разнесены в пространстве раз мы можем их различить и, при необходимости, мы можем их соединить некоторой ломаной осью и восстановить упорядоченность. Но для понимания проще представлять Х как сигнал, который может быть записан самописцем, как рельеф местности вдоль некоторого профиля, как пространственное распределение плотности энергии поля и т. Таким образом, чтобы рассчитать H X , берется запись вариации X j , разность между максимальным и минимальными значениями Х j разбивается на N квантов обычно равных разрешающей способности прибора и подсчитывается число m i заполнения каждого i -го уровня число благоприятных случаев. Общее число случаев M — это число пространственных или временных ячеек, опять-таки обычно определяемых разрешением прибора. В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда энтропия и информация измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями X i как в двоичном сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы. Выбор основания — лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:. Нижняя грань соответствует вырожденному распределению. Неопределенность величин s Х отсутствует. Верхняя грань соответствует равномерному распределению. Все N значений X i встречаются с равной вероятностью. Если две случайные величины X и Y, каким-то образом связанные друг с другом например на входе и выходе какой-то системы , то знание одной из них, очевидно уменьшает неопределенность значений другой. Остающаяся неопределенность оценивается условной энтропией. Так, условная энтропия Х при условии знания Y определяется как:. Чтобы рассчитать H X Y , рассчитывают К энтропий Х , соответствующих фиксированному Y k и затем суммируют результаты с весами P Y k. Очевидно, условная энтропия меньше безусловной, точнее:. Нижняя грань соответствует однозначной зависимости Х от Y , верхняя — полной независимости. Информация определяется разностью между безусловной и условной энтропиями. Информация всегда неотрицательна; она равна нулю, когда Х и Y независимы; информация максимальна и равна безусловной энтропии , когда между Х и Y имеется однозначная зависимость. Таким образом, безусловная энтропия — это максимальная информация, потенциально содержащаяся в системе вариационном ряде. Заметим, что мы сказали однозначная, но не взаимно-однозначная зависимость. Это значит, что несмотря на симметрию, верхние грани I XY и I YX отличаются:. Как это может быть? Информация — это всего лишь характеристика степени зависимости некоторых переменных, ничего более загадочного в ней нет. Зато это предельно общая характеристика. Ее можно сравнить с корреляцией, но если корреляция характеризует лишь линейную связь переменных, информация характеризует любую связь. Тип связи может быть совершенно любым и, более того, неизвестным нам. Это не помешает рассчитать информацию, количественно сравнивать между собой разнотипные зависимости и т. Платой за общность является лишь невозможность, зная количество информации написать уравнение связи переменных в отличие от того, как корреляция позволяет легко переходить к регрессии. Можно определить и совместную энтропию Х и Y по их двумерному распределению. Интуитивно ясно, что включение в рассмотрение третьей переменной может лишь увеличить информацию. Важную роль в теории информации играет представление о максимальной скорости передачи сообщения. При этом имеется в виду скорость при которой еще возможен безошибочное получение информации на приемном конце канала связи. Законы передачи информации по каналу связи универсальны, поэтому ,например, любое физическое взаимодействие в реальных системах подчиняется не только соответствующему физическому закону, но и им также. Несмотря на сложившуюся терминологию, лучше говорить не о скорости передачи, а о скорости приема информации, которая ограничена неравенством. Таким образом, в общем случае:. Чем больше шумов или, на физическом языке, чем более открыта система, тем медленнее выход конечное состояние может воспроизвести изменения входа начального состояния. Важную роль играет также понятие избыточности R:. Чем больше избыточность поля, тем, очевидно, меньше скорость передачи информации. Но тем меньше вероятность ошибки при приеме! Но малоизбыточный читать трудно, он требует крайнего внимания, в пределе недостижимом в обычном языке ни одну утерянную букву невозможно восстановить по смыслу. Таким образом, избыточный сигнал содержит внутренние корреляции, которые используются при восстановлении декодировании сообщения. Увеличивая избыточность и, соответственно, уменьшая скорость приема-передачи можно воспроизвести на выходе информацию, поданную на вход при любом уровне шумов. Последний термин неудачен, поскольку зашумленной может быть не только величина X , но и Y. В идеальном канале X и Y являются взаимно — однозначными функциями. Среди нескольких теорем Шеннона особую роль в естественно- научных приложениях играет 7-я теорема, которая гласит, что в замкнутой системе энтропия при любом преобразовании не увеличивается:. На менее строгом языке это можно перефразировать так, что информацию на пути от входа к выходу можно только потерять, но не увеличить. Но если Х — начальное состояние замкнутой физической системы, а Y — конечное, то эта теорема означает необратимое уменьшение энтропии, что диаметрально противоположно общеизвестной формулировке второго начала термодинамики. Мы рассмотрим этот вопрос в п. Следует отметить одну исторически обусловленную особенность приложений теории информации. С момента зарождения [11] и после наиболее мощного импульса в ее развитии приданного работами К. Шеннона [2] , несмотря на общность математического аппарата и быстро замеченную ассоциированность с термодинамикой [ 1, 2 ] , теория информации развивалась как раздел теории связи, Приложения быстро вышли за пределы теории связи как таковой [ 12 ]. Но и в расширенных приложениях от теории связи в неявном виде унаследовано представление об одушевленном потребителе информации. В дальнейшем оказалось, что и понятие ценности информации может быть формализовано [ 9 ]. Существует однако более общая концепция приложения понятия информации как универсальной меры физического взаимодействия. Этому посвящен ряд работ с достаточно специальным подходом, например, [ ] , наиболее общая трактовка дана Х. Хармутом [ 18 ]. Наша трактовка опирается именно на эту концепцию. Но прежде чем применить ее, необходимо подробно разобрать такое базисное понятие как энтропия, поскольку, с одной стороны возможны различные формулировки, а с другой, наоборот — одинаковые математические формы имеют разный смысл и приводят к различным результатам в зависимости от наполнения. Энтропия S или H независимо вводилась Клазиусом:. Оказалось, что 1 и 3 являются следствиями 1 [ 1,2,10 ] , хотя для их применения, соответственно в термодинамике и в теории информации, это не имеет большого значения. Классический уровень предоставляет слишком широкие возможности для обобщений, чтобы затрагивать в данном обзоре и квантовый, поэтому мы не будем переходить на последний и лишь слегка коснемся удивительных особенностей квантовой энтропии в Заключении. Здесь мы просто сохранили оригинальные определения. Безразмерная энтропия, конечно удобнее и, чтобы привести 1 к безразмерному виду, надо просто разделить правую часть на постоянную Больцмана k. Эта постоянная не имеет большего смысла, чем коэффициент связи между единицами измерения энергии и температуры. Если бы мы стали измерять температуру в джоулях что неудобно, но законно , то надобность в этой константе отпала бы. Однако здесь есть чисто количественный нюанс. Величина k весьма мала: Разделив 1 на k мы сразу получаем представление о том, насколько велики изменения энтропии в самых заурядных термодинамических процессах по сравнению с теми, которыми мы оперируем в информатике. Это дает представление о том, насколько велика недоступная на макроуровне информация о микросостоянии вещества. Определение 1 — практически самое важное для теплофизике [ 1 ] , но, пользуясь им, трудно увидеть универсальность понятия энтропии. Принципиальным недостатком 1 является также то, что это формула верна только для квазиравновесных состояний. Поэтому мы сосредоточимся на определениях 2 и 3. Вероятность состояния W определяется как отношение числа микросостояний K , благоприятных данному макросостоянию, к полному числу возможных микросостояний L:. Пусть рассматриваются пространственные или временные вариации некоторого параметра Х в дискретном виде. Тогда К — это число вариаций, удовлетворяющих данному распределению вероятностей P X i , L — полное число возможных вариаций. Число L однозначно определить обычно сложнее. Поэтому вместо W пользуются К так называемая абсолютная или термодинамическая вероятность и определяют не нормированную энтропию 2 , а абсолютную Н а:. Можно показать [ 10 ] , что энтропия Клазиуса 1 является частным случаем 7. Нормируя на число членов ансамбля длину ряда , получаем абсолютную удельную энтропию. Верхняя грань достигается при равномерном распределении, нижняя — при вырожденном Х не зависит от координаты r: Микросостояния в нашем случае различимы, следовательно ансамбль удовлетворяет статистике Максвелла-Больцмана. Роль различимой частицы в геофизической интерпретации играет квант пространства или времени. Для этой статистики в термодинамике число L определяется как [ 10 ]:. На нашем языке это можно перефразировать как число различимых вариаций в диапазоне N при объеме или длине ряда М. Тогда согласно 5 нормированная удельная энтропия равна:. Вполне естественное для термодинамики М — число частиц в фиксированном объеме N и теории технического канала связи М — длина сообщения, N — фиксированный диапазон уровней определение l 1 трудно считать адекватным в контексте естественных процессов. Здесь М может быть естественным образом ограничена, и даже искусственное ограничение не вызывает особых затруднений подобно спектральному анализу и вообще выборочной статистике , но диапазон N трудно считать фиксированным, в особенности для естественных полей. Так при гауссовом распределении. В статистике Бозе-Эйнштейна принято другое определение L [10] , которое в нашем контексте может быть интерпретировано как число различимых вариаций с данным интегралом точнее, суммой U при объеме М:. Таким образом, L — это , в итоге, не вообще полное число различимых вариаций которое бесконечно , а полное число при некоторых ограничениях — при фиксированном диапазоне N или при фиксированном интеграле U , который может в ряде случаев интерпретироваться как энергия вариации. Возможны и другие варианты ограничений. Нормированные энтропии 11 и 13 имели бы наиболее ясный физический смысл, однако в случае изучения вариаций естественных полей возникают дополнительные трудности. Но для геофизических вариационных рядов N определяется естественно только из самой реализации. Заметим, что это выражение совпадает с классическим пределом энтропии квантовомеханического ансамбля, выведенным из других соображений [15]. Верхняя грань H 2y соответствует, однако, не равномерному распределению, а определяется из уравнения. Это вырожденный случай для самого функционала энтропии. Таким образом, формальное соотношение. По этим причинам мы в дальнейшем в основном будем пользоваться абсолютной удельной энтропией 8 , опуская для краткости нижние индексы подобно 3. Второе начало термодинамики и 7-я теорема Шеннона. Рассмотрим замкнутую систему, в которой Х j представляют плотности энергии например, энергии электромагнитного поля в пространственных ячейках r j. Второе начало термодинамики отражает этот факт через увеличение энтропии S до максимального значения:. В тоже время, воспользовавшись определением вероятности через частость заполнения m i i — го энергетического уровня. Этот факт отражен в 7-й теореме Шеннона [2] , утверждающей невозрастание энтропии выходного сигнала при любом преобразовании. Это простое явление противоположного поведения термодинамической и информационной энтропий при полной идентичности математических форм 14 и 17 , насколько известно автору, нигде в литературе специально не отмечалось. В то же время при применении теории информации к процессам физического взаимодействия оно способно приводить к известной путанице. Противоположные значения inf S и sup H отвечают различным функциям X r j. Пользуясь 15 после ряда преобразований получаем для этой функции. Для иных состояний такого соответствия вообще говоря нет. Качественно это легко понять, так как H есть логарифм числа наблюдаемых микросостояний числа вариаций , удовлетворяющих данному распределению вероятностей уровней P X i , в то время как S есть логарифм числа ненаблюдаемых микросостояний, удовлетворяющих данному пространственному распределению P X j то есть сама пространственная вариация рассматривается как распределение вероятностей. Очевидно, что функционал Н определен на меньшем множестве функций чем функционал S , поэтому и соответствия между ними в общем случае нет. Одному значению Н может соответствовать множество значений S. Ясное понимание различий S и H помогает легче установить математический смысл негэнтропийного принципа деградации Л. Бриллюэна [8] — получение некоторой информации о системе требует не меньшего увеличения энтропии системы. Соотношение 18 названо Л. Бриллюэном принципом деградации, причем если D S понимается им как изменение термодинамической энтропии, то D H — как некоторая не ясно определенная им свободная информация [ 8 ]. Расслоенные пространства определения энтропии. Продемонстрированное в предыдущем разделе отличие энтропий S и Н обязывает сделать некоторое обобщение. Все различие между S и Н связано с различием пространств в которых действует оператор вероятности Р. Вообще оператор плотности вероятности р может быть определен исходя из процедуры ее нахождения по функции X r [19]:. Оператор вероятности является дискретным аналогом Но для нас важен не сам вид оператора, а пространство в котором он действует. Для энтропии S — это сам положительно определенный вариационный ряд 15 , для энтропии Н — распределение частостей заполнения уровней Можно заметить , что интервал изменчивости функции N в первом случае S переходит в интервал изменчивости аргумента во втором случае Н. Другими словами оператор 19 может быть применен многократно. Для каждого нового распределения может быть определена энтропия. Обобщение легко достигается в терминах теории расслоенных пространств [ 20 ]. Полное пространство в нашем случае — это множество вариаций, база — множество распределений. Характеристикой расслоенности является число К 6. Первым слоем является наблюдаемый вариационный ряд, вторым — распределение вероятностей его уровней и т. Число заполнения отождествляется с функцией X: Тогда между объемами М и интервалами изменчивости N справедливо соотношение. Таким образом, разница между М, N, U относительна и определяется слоем, к которому они относятся. Вместо 6 , использующего параметры первого и второго слоев, можно написать общее выражение:. Абсолютная удельная энтропия определенная по n — ому слою в общем виде:. Аналогично могут быть представлены обобщения чисел возможных сообщений L 1 10 и L 2 12 для произвольного слоя:. В предыдущем разделе обсуждалось различие энтропий S и Н. В терминологии расслоенных пространств им соответствуют Н 1 и Н 2. Интуитивно ясно, что при многократном применении оператора вероятности распределения стремится к вырождению и, соответственно, энтропия должна уменьшаться. Это явление вырождения нетрудно доказать. К i n — число вариаций n-1 -го слоя, удовлетворяющих одной i — й вариации n — го слоя, очевидным образом связано с числами возможных сообщений:. Под статистическим ансамблем в математическом смысле понимается полная группа событий, а в физическом — некоторая счетная совокупность объектов, параметры которых в принципе возможно измерить. Членами ансамбля, как мы увидели, могут пространственные или временные кванты дискреты вариационных рядов. Измеряемыми параметрами, подлежащими статистическому исследованию, при этом могут быть компоненты электромагнитного поля, скорости течения и т. Несмотря на то, что члены ансамбля в нашем случае макроскопичны, такой ансамбль формально неотличим от ансамбля молекул Максвелла — Больцмана. Ансамбль Гиббса ниже применяется при установлении термодинамического соответствия. Эргодическая гипотеза имеет существенное значение только в смысле физической тождественности результата, к которому приводит второе начало термодинамики Н 1 max, H 1 определена по пространственному ансамблю и 7-я теорема Шеннона Н 2 min, H 2 определена в теории информации обычно по временному ансамблю. В зависимости от числа включаемых в рассмотрение пространственных координат x, y, z, t , P X i в 8 является скалярной функцией от 1 до 4 координат. В соответствии с 8 размерность пространства определения энтропии меньше минимум на единицу. Иначе говоря, размерности D связаны соотношением. Это , в частности, означает, что по временным ансамблям можно построить трехмерное энтропийное поле, а для изучения временной эволюции энтропии системы необходим, по крайней мере, одномерный пространственный ансамбль, Впрочем, возможен и иной подход [ 21 ] , когда используются две временных масштаба — микромасштаб для определения энтропии и макромасштаб для изучения эволюции. В практических оценках, учитывая реальные возможности натурного эксперимента, необходимая статистика может быть получена, в основном, по временным рядам. В соответствии с этим, для оценок энтропии практически обычно могут быть использованы только одномерные ансамбли. Вовлечение в обсуждение конкретных естественнонаучных проблем подходов из казалось бы удаленных областей физики второе начало термодинамики и т. Целью данного раздела является демонстрация правомерности использования понятий термодинамики в более общем случае, нежели это обычно делается. В статистической физике важную роль играет каноническое распределение Гиббса Членами ансамбля Гиббса могут быть как материальные частицы, так и ячейки кванты пространства, заполненные энергией любой природы. Это может быть, например, энергия электромагнитного поля. Каждая ячейка обменивается энергией со всей системой термостатом , суммарная энергия которой велика по сравнению с любой X j. Тогда распределение Гиббса, выводимое из статистических рассуждений таково:. В 22 также предполагается K X i 1. Величина в 29 — статистическая температура. Она измеряется в энергетических единицах или после деления на постоянную Больцмана — в кельвинах. Как известно, шкалы статистической, термодинамической используемой в 1 и кинетической температур совпадают. Если, как и ранее, рассматривать энергии X i как безразмерные величины, то также безразмерна. Статистическая температура интересна тем, что является некоторой функцией средней энергии например энергии электромагнитного поля. Иначе говоря, температура не является чисто молекулярным понятием, как это часто считается. Можно показать [ 22 ] , что. Из 30 сразу видно, что статистическая температура является функцией средней энергии любого происхождения. Важность распределения 29 заключается в многочисленных следствиях. Например, из него можно получить что энергия электромагнитного поля описывается распределением Бозе—Эйнштейна, при этом любая компонента — распределением Гаусса, а модуль — распределением Максвелла — Больцмана. Но все это верно при условиях при которых в статистике выводится Покажем теперь, что 29 можно вывести из теории энтропии, а затем выразить саму энтропию через макрохарактеристики и далее, в весьма общем виде, получить основное уравнение термодинамики. Таким образом, мы покажем , в главных чертах, переход с языка теории информации на язык термодинамики. При этом общность результата ясно покажет, что термодинамические соотношения применимы к широкому кругу естественнонаучных задач, совсем не обязательно связанных с тепловыми процессами. Если система находится вблизи равновесного состояния, то применяя вариационный метод Лагранжа имеем из Согласно [ 24 ] с — функция Массье, b — характеристика способности к диффузии между частями системы, у которых b различна. Последнее имеет простейший термодинамический смысл согласно Пользуясь функцией Массье, покажем справедливость основного уравнения термодинамики в контексте любого поля. Из 38 следует, что. Введем градиент энергии в смысле обобщенной функции:. Традиционно в курсах физики энтропия вводится в разделе термодинамики как интеграл Клаузиуса, затем вводится формула Больцмана и, наконец, упоминается о связи энтропии и информации. Современный подход, которому следовали мы — обратный. При этом в результате мы не только получаем известные термодинамические соотношения, но и показываем их универсальность для всех естественных наук, где предметом изучения является временная или пространственная изменчивость любых измеряемых величин. Для любой вариации процесса может быть вычислена энтропия как по первому слою S , так и второму Н , а при необходимости и последующих. Для двух и более процессов могут быть вычислены условные энтропии и информация. В частности, это могут быть не только действительно разные процессы, но и разные отрезки реализации одного процесса. Вычислительные алгоритмы реализуются достаточно просто. Единственным условием является достаточно богатая экспериментальная статистика. Из практики расчетов следует, что для приемлемой оценки S вариационный ряд должен содержать, грубо говоря, не менее отсчетов, для H — отсчетов имеются в виду условные энтропии, для безусловных можно иметь отсчетов на порядок меньше. За исключением упоминания энтропии фон Неймана 4 , мы оставались всецело в рамках классической информации. Теория квантовой информации чрезвычайно интенсивно развивается в последнее десятилетие в связи с проблемами квантовой нелокальности. Квантовая нелокальность — удивительное явление, которое можно кратко определить так: Не менее удивительны и свойства квантовой информации. Так, условная энтропия здесь может быть отрицательна, а информация — больше безусловной энтропии, именно:. Отсюда возникают совершенно необычные неклассические связи между процессами. Мы ограничимся лишь упоминанием этой области. Наиболее последовательное изменение темы можно найти в [ 26 ]. Но и в классических рамках многие вопросы развития энтропийного подхода мы не могли здесь затронуть, например, формальное определение причинности и практический причинный анализ [ 25, 27 — 30 ]. Остается надеяться, что читатели не только увидят возможности применения энтропийного подхода в своей области, но и разовьют его далее.


Чадейкао песочном тесте
Асд 2 фракция при псориазе отзывы
Энтропия источника информации
План характеристика дубровского
Входная деревянная дверьсвоими руками пошаговая инструкция
История отечественной криминологии
Телепрограмма 5 новости
Как приготовить хамон видео
План принятия управленческого решения
Формы разработки управленческих решений
Как образовалась украина после киевской руси
Физическая карта тверской области подробная
Энтропия (теория информации) это:
Стихи директору школыот коллег
Растения московской области описание
Адрес планетария в волгограде
Как переоформить машину по дарению
По какому правилу находится
Энтропия (теория информации) это:
Карта с расположением отеля раймар турция
Статьи в журнале математика в школе
Танки какой нации лучше в war thunder
Как отличить iphone 5 от 5s
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment