Skip to content

Instantly share code, notes, and snippets.

  • Save anonymous/182f62c58f56a3eba0780d4d608b8d11 to your computer and use it in GitHub Desktop.
Save anonymous/182f62c58f56a3eba0780d4d608b8d11 to your computer and use it in GitHub Desktop.
Качественные и количественные характеристики информации свойства информации

Качественные и количественные характеристики информации свойства информации


= = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = =
Файл: >>>>>> Скачать ТУТ!
= = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = =


4. Качественные и количественные характеристики информации.
Каталог статей
Качественные и количественные характеристики информации. Свойства информации (новизна, актуальность, достоверность и др.). Единицы измерения количества информации


























В процессе отражения между состояниями взаимодействующих объектов возникает определенная связь. Информация как результат отражения одного объекта другим выявляет степень соответствия их состояний, а поэтому важными оказываются именно количественные характеристики информации. Некоторое количество информации можно рассматривать с трех основных точек зрения:. Возможен ряд подходов к оценке качества информации. Наиболее существенными из них являются статистический, семантический и прагматический. Наибольшее развитие получил первый подход. Статистический подход представлен в обширном разделе кибернетики — теории информации, которая занимается математическим описанием и оценкой методов передачи, хранения, извлечения и классификации информации. Теория информации в математической основе использует методы теории вероятности, математической статистики, линейной алгебры и др. В статистической теории основное внимание обращается на распределение вероятности появления отдельных событий и построение на его основе обобщенных характеристик, позволяющих оценить количество информации в одном событии либо в их совокупности. Количественной мерой информации стала энтропия. Чтобы возник процесс передачи, должны иметь место источник информации и потребитель. Источник выдает сообщение, потребитель, принимая сообщение, принимает при этом информацию о состоянии источника. В статистической теории, как указывалось выше, не изучают содержание информации. Предполагается, что до получения информации имела место некоторая неопределенность. С получением информации эта неопределенность снимается. Таким образом, статистическая количественная характеристика информации — это мера снимаемой в процессе получения информации неопределенности системы. Естественно, что количество информации зависит от закона распределения состояний системы. Семантический подход базируется на смысловом содержании информации. Термин "семантика" исторически применялся в металогике и семиотике. Б металогике под семантикой понимают изучение связей между знакосочетаниями, входящими в состав какого-либо формализованного языка, и их интерпретациями истолкованиями в терминах той системы понятий и представлений, формализацией которой служит данный язык. В более узком смысле под семантикой подразумевают совокупность правил соответствия между формальными выражениями и их интерпретацией. Под семиотикой понимают комплекс научных теорий, изучающих свойства знаковых систем, то есть систем конкретных или абстрактных объектов, с каждым из которых сопоставлено некоторое значение. Примерами знаковых систем являются естественные языки, а также искусственные языки, такие как алгоритмические языки, языки программировании, информационные языки и др. Прагматический подход к информации базируется на анализе ее ценности, с точки зрения потребителя. Например, информация, имеющая несомненную ценность для биолога, будет иметь ценность, близкую к кулевой, для программиста. Ценность информации связывают со временем, поскольку с течением времени она стареет и ценность ее, а, следовательно, и "количество" уменьшается. Таким образом, прагматический подход оценивает содержательный аспект информации. Он имеет особое значение при использовании информации для управления, поскольку ее количество тесно связано с эффективностью управления в системе. Разные подходы к оценке количества информации заставляют, с одной стороны, использовать разнотипные единицы информации для характеристики различных информационных процессов, а с другой стороны — увязывать эти единицы между собой как на логическом, так и на физическом уровнях. Например, процесс передачи информации, измеряемой в одних единицах, сопрягается с процессом храпения, когда она измеряется в других единицах, и т. Рассмотрим статистическую меру количества информации, получившую наибольшее применение в процессе передачи сообщений. Чтобы возник процесс передачи, должны существовать источник информации и потребитель. Источник выдает сообщение, потребитель, принимая сообщение, получает при этом информацию о состоянии источника. В статистической теории, как указывалось выше, не изучается содержание информации. Таким образом, статистическая количественная характеристика информации — это мера, на основе которой в процессе получения информации снимается неопределенность системы. Введем количественную меру информации для простейшего варианта передачи равновероятных сообщений. Пусть источник формирует М сообщений, каждое из которых передается неизбыточным кодом длиной п. Будем считать что выполняются следующие условия: Тогда число передаваемых сообщений составляет. Учитывая, что , получаем , , ,. За единицу количества информации примем число сведений, которые передаются двумя равновероятными сообщениями. Назовем эту единицу двоичной единицей информации. Тогда для , получим. Отсюда и, следовательно, количество информации в сообщении составит. Эта формула получила название формулы Хартли. Из нее следует, что для равновероятных дискретных сообщений количество информации зависит лишь от числа передаваемых сообщений. Если сообщения отображаются неизбыточным кодом, то, подставляя , получим. Видно, что число двоичных единиц информации, содержащихся в одном сообщении, прямо пропорционально длине кода п и возрастает с увеличением его основания. Отсюда видно, что если длина сообщения равна п, то сообщение содержит п бит информации, то есть один элемент кода несет одну двоичную единицу информации. Информация, содержащаяся в сообщении, складывается из информации, которую несет каждый элемент кода, поэтому мера информации является аддитивной. Аддитивность статистической меры информации позволяет определить ее количество и в более общем случае, когда передаваемые дискретные сообщения являются неравно вероятными. Можно предположить, что количество информации, содержащейся в конкретном дискретном сообщении, функционально зависит от вероятности выбора этого сообщения. Тогда для сообщения возникающего с вероятностью , количество информации может быть описано в виде. Пусть вслед за сообщением из источника формируется сообщение. Вероятность последовательного возникновения этих сообщений обозначим. Количество информации, которая будет содержаться в этих сообщениях, оценим как. Учитывая аддитивный характер принятой выше статистической меры информации, будем считать, что количество информации, заключенное в последовательности сообщений , равно сумме количеств информации, содержащихся в каждом из выбранных сообщений. Умножим левую и правую части уравнения на вероятность , тогда. Учитывая, что вероятность находится в пределах от 0 до 5, видим, что части уравнения должны представлять собой постоянную величину, то есть , где к — постоянная величина. Количество информации в j -м сообщении составит. Для определения с рассмотрим частный случай, когда имеет место передача лишь одного j -го сообщения, то есть. Для определения постоянной к выберем систему единиц. Естественным требованием является то, что количество информации должно быть положительной величиной, тогда, принимая , получаем. Тогда в качестве единицы информации можно принять натуральную единицу. Количество информации в одну натуральную единицу 1 нат равно информации, которая передается в одном сообщении с вероятностью появления. Как указывалось выше, в статистической теории получила применение двоичная единица информации, что соответствует коэффициенту. Тогда количество информации для неравновероятных сообщений составит. При необходимости количество информации в случайно выбранном сообщении нетрудно связать с информативностью символов кода сообщения. Если процесс образования символов описывается цепью Маркова и символы могут принимать К значений, то найти вероятность возникновения сообщения можно как произведение вероятностей возникновения символов его кода. Если они выбираются независимо и символ типа j встречается раз, то вероятность возникновения сообщения составит. При большой длине кода п можно считать, что , а так как выше установлено, что количество сообщения составляет , то, подставляя полученные выше значения вероятности , найдем количество информации в виде. Видно, что количество информации прямо пропорционально длине кода п и информативности отдельно взятого символа. Отметим, что максимально возможное количество информации, то есть максимум записанного выше выражения, получается, если символы равновероятны. Тогда для множества символов оптимальное равномерное распределение соответствует.. В этом случае получим, что. Для двоичного кода , что соответствует количеству информации для неизбыточного кода при равновероятных сообщениях. Введенная количественная статистическая мера информации широко используется в теории информации для оценки количества собственной, условной, взаимной и других видов информации. Рассмотрим это на примере собственной информации. Под этим будем понимать информацию, которая содержится в данном конкретном сообщении. В соответствии с этим определением количество собственной информации в сообщении x 0j определяется как. Количество собственной информации измеряется числом бит информации, содержащихся в сообщении x 0j. Для нее могут быть сформулированы следующие свойства:. Чем меньше вероятность возникновения сообщения, тем больше количество информации, содержащейся в нем. Если сообщение имеет вероятность возникновения, равную единице, то получаемая с ним информация равна нулю, так как заранее известно, что может прийти только это сообщение, и выявление данного сообщения не несет потребителю никакой информации. Собственная информация обладает свойством аддитивности. Для доказательства этого рассмотрим ансамбль из множества сообщений. Найдем количество собственной информации для пары сообщений:. Если сообщения статистически независимы, то. Количество информации в двух сообщениях составит. Таким образом, количество собственной информации в двух независимых сообщениях равно сумме собственных сообщений. Отметим, что она характеризует сообщение, которое возникает случайным образом из источника, а поэтому является случайной величиной и зависит от номера выбранного сообщения. Рассмотрим понятия и свойства энтропии дискретных систем. Математическое ожидание случайной величины собственной информации называется энтропией. Энтропия рассчитывается на множестве ансамбле сообщений либо на множестве символов и физически определяет среднее количество собственной информации, которое содержится в элементах множества либо сообщений, либо символов. Для источника сообщений случайная величина собственной информации принимает значения с вероятностями соответственно. Среднее количество математическое ожидание собственной информации, содержащейся в ансамбле сообщений X 0, то есть энтропия этого ансамбля, составит. Содержательно энтропия показывает количество двоичных единиц информации, которая содержится в любом сообщении из множества. Следует отметить, что понятие энтропии исторически использовалось для оценки меры неопределенности состояния любой системы. Чем больше энтропия системы, тем больше неопределенность ее состояния и тем большую информацию получаем, когда эта неопределенность снимается. Энтропия как количественная мера информации обладает следующими свойствами [48]:. Функция энтропии является непрерывной относительно вероятности возникновения событий и для дискретных событий имеет наибольшее значение при равной вероятности их появления. Если возможно появление лишь одного события, то априорной неопределенности нет, поэтому количество информации и энтропия равны нулю;. При равновероятных событиях функция энтропии возрастает с увеличением числа событий в ансамбле, а поэтому для повышения информативности символов необходимо увеличивать основание системы счисления используемого кода;. Функция энтропии не зависит от пути выбора событий. Это свойство вытекает из аддитивности статической меры информации и, как следствие, аддитивности функции энтропии;. Теперь перейдем к понятиям "энтропия источника" и "энтропия сообщения". При кодировании важно обеспечить выбор кода, который оптимально согласуется с источником. Это согласование возможно по критерию энтропии источника. Под энтропией источника обычно понимают количество информации, которая в среднем содержится в одном символе кода. Если код имеет основание системы счисления К, то энтропия источника, то есть среднее количество информации, содержащейся в символе кода, составит. Содержательно энтропия источника показывает, сколько двоичных единиц информации переносится в среднем в одном символе кода. Для повышения информативности источника необходимо стремиться к равновероятности символов. В этом случае для неизбыточного кода в одном символе передается двоичная единица информации. С введением избыточности информативность символа уменьшается, но появляются возможности, связанные с обнаружением и исправлением ошибок, что обеспечивает требуемую помехоустойчивость передачи сообщений. Среднее количество информации, содержащееся в сообщении, называется энтропией сообщения и определяется в виде. Видно, что энтропия сообщения представляет собой математическое ожидание собственной информации, содержащейся в ансамбле сообщений Х 0. Таким образом, энтропия является универсальной статистической характеристикой, позволяющей оценить количество информации, которая содержится в любом ансамбле дискретных событий. Понятие энтропии применимо и к непрерывным событиям. В системах обработки информации и управления значительная доля информации имеет непрерывный характер и выражается в виде непрерывной функции от времени. В этом случае возникает задача передачи непрерывной информации в виде непрерывных сообщений по каналам связи. Непосредственная передача непрерывных сообщений без преобразования возможна лишь на незначительные расстояния. С увеличением расстояний осуществляют операцию дискретизации информации. Для этого вводят квантование по времени и по уровню. Непрерывная функция передается в виде совокупности мгновенных либо квантовых отсчетов, выбранных с различными интервалами по времени. Оценим количество информации, которая содержится в одном отсчете непрерывной функции, и найдем общее выражение для энтропии непрерывных событий. Пусть имеет место непрерывная информация, представленная в виде непрерывной функции с известной плотностью распределения вероятностей амплитудных значений. Разобьем область значений функции на К уровней с интервалом квантования , тогда получим уровни. При достижении функцией некоторого уровня и передаче этого уровня по каналу связи количество передаваемой информации может быть определено с помощью функции энтропии , если известна вероятность возникновения отсчета. Для нахождения вероятности построим плотность распределения и отметим отсчеты функций. Зависимость плотности распределения вероятностей W х от уровня амплитуды х. Энтропия отсчета определяет количество информации, которая передается отсчетом функции. С уменьшением шага дискретизации , то есть при , можно найти , то есть предварительное значение. Учитывая, что исходная функция непрерывна и может изменяться в неограниченных пределах, найдем энтропию непрерывного сообщения как сумму энтропий отсчетов в виде. Второе слагаемое содержит член , который не рассчитывается, так как с уменьшением он может стать бесконечно большой величиной. Обычно определяют так называемую дифференциальную или приведенную энтропию в виде. Таким образом, понятие энтропии применимо и для оценки среднего количества информации, которая содержится в непрерывном сообщении. Однако пользоваться выражением энтропии для непрерывных сообщений следует крайне осторожно, учитывая неопределенность второго слагаемого выражения, особенно при малых значениях шага квантования. Дифференциальная энтропия определяется статистикой отсчетов непрерывной функции. Можно показать, что при постоянной дисперсии отсчетов наибольшее количество информации соответствует непрерывным сообщениям, отсчеты которых распределяются по нормальному закону;. Энтропия зависит от амплитуды исходной непрерывной функции х и шага ее квантования. На практике реализуют системы с равномерным и неравномерным шагом квантования, с передачей отклонения функции от математического ожидания и др. Таким образом, статистическая теория позволяет дать плодотворные оценки количества информации для такого важного этапа информационного процесса в системе, как передача. Шенноном принципы количественной оценки на основе функции энтропии сохраняют свою значимость до настоящего времени и являются полезными при определении информативности символов и сообщений и при оценке оптимальности построения кода на основе критериев избыточности. В современных системах обработки информации и управления существенное место занимает подготовка информации для принятия решения и сам процесс принятия решения в системе. Здесь существенную помощь может оказать семантическая теория, позволяющая понять смысл и содержание информации, выражаемой на естественном языке. С увеличением объема и сложности производства количество информации, необходимое для принятия безошибочного решения, непрерывно возрастает. В этих условиях необходимо осуществлять отбор информации по некоторым критериям, то есть предоставлять руководителю либо лицу, принимающему решение, своевременную и полезную информацию. С учетом ошибок, которые могут возникать в информации в связи с действиями оператора, отказами технических средств в др. В этом смысле можно считать, что избыточность способствует сохранению ценности информации, обеспечивая требуемую верность. В рамках семантического подхода ценность информации можно задать через функцию потерь. Если в процессе подготовки информации исходная величина х отображается через величину у, то минимум потерь можно установить как. Следует отметить, что данная интерпретация ценности имеет сугубо технический характер. Конструктивным выходом из нее является такое разбиение входной величины х, при котором удается максимизировать ценность. В общем случае ценность информации, поступающей от материального объекта, является функцией времени. Анализ информации, используемой для принятия решения в реальных системах, позволил найти функции ценности. При принятии решения обычно используется информация не только о материальном объекте, но и об условных распределениях критериальных оценок последствий различных альтернативных решений. В этом случае резко уменьшается число предпочтительных альтернатив и удается принять решение, базируясь на качественно неполной информации. В ряде практических случаев решение принимается с использованием субъективных критериев, при этом приходится применять большой объем информации, ужесточать требования к согласованности и непротиворечивости исходной информации. Принцип принятия решений по своей методологии требует сохранения содержания качественных понятий на всех этапах использования информации при общей оценке альтернативных решений. Кроме того, исключается сложная информация, при работе с которой лицо, принимающее решение, должно иметь дело с громоздкими задачами. Используют замкнутые процедуры выявления предпочтений, то есть процедуры, в которых имеется возможность проверить предпочтение на непротиворечивость и транзитивность. Можно отметить, что семантическая теория требует дальнейшей серьезной проработки, однако уже сейчас при принятии решений существует ряд методов, позволяющих оценивать смысловое содержание информации. Обеспечение любого вида деятельности составляют финансы, материальные ресурсы, штаты и информационные ресурсы. Если первые три вида ресурсов можно рассматривать обособленно, то информационные ресурсы тесно взаимосвязаны с каждым из них и по уровню иерархии стоят выше, так как используются при управлении остальными. Информацию как вид ресурса можно создавать, передавать, искать, принимать, копировать в той или иной форме , обрабатывать, разрушать. Информационные образы могут создаваться в самых разнообразных формах: Важность информации как экономической категории составляет одну из главнейших характеристик постиндустриальной эпохи. Информационный ресурс — концентрация имеющихся фактов, документов, данных и знаний, отражающих реальное изменяющееся во времени состояние общества, и используемых при подготовке кадров, в научных исследованиях и материальном производстве , Документы — часть информации, определенным образом структурированная и занесенная на бумажный носитель. Данные — вид информации, отличающийся высокой степенью форматированности в отличие от более свободных структур, характерных для речевой, текстовой и визуальной информации. Знания — итог теоретической и практической деятельности человека, отражающий накопление предыдущего опыта и отличающийся высокой степенью структурированности. Главная Информатика Информационные технологии. Количественные и качественные характеристики информации В процессе отражения между состояниями взаимодействующих объектов возникает определенная связь. Некоторое количество информации можно рассматривать с трех основных точек зрения: Учитывая, что , получаем , , , Отсюда где. Тогда где — вероятность возникновения сообщения при условии появления перед ним сообщения. Количество информации в j -м сообщении составит где с — постоянная интегрирования. Естественным требованием является то, что количество информации должно быть положительной величиной, тогда, принимая , получаем Тогда в качестве единицы информации можно принять натуральную единицу. Тогда количество информации для неравновероятных сообщений составит При необходимости количество информации в случайно выбранном сообщении нетрудно связать с информативностью символов кода сообщения. Если они выбираются независимо и символ типа j встречается раз, то вероятность возникновения сообщения составит где — вероятность возникновения символа типа j. При большой длине кода п можно считать, что , а так как выше установлено, что количество сообщения составляет , то, подставляя полученные выше значения вероятности , найдем количество информации в виде Видно, что количество информации прямо пропорционально длине кода п и информативности отдельно взятого символа. Для нее могут быть сформулированы следующие свойства: Найдем количество собственной информации для пары сообщений: Количество информации в двух сообщениях составит Таким образом, количество собственной информации в двух независимых сообщениях равно сумме собственных сообщений. Среднее количество математическое ожидание собственной информации, содержащейся в ансамбле сообщений X 0, то есть энтропия этого ансамбля, составит где — множество сообщений в ансамбле. Энтропия как количественная мера информации обладает следующими свойствами [48]: Если возможно появление лишь одного события, то априорной неопределенности нет, поэтому количество информации и энтропия равны нулю; 2. При равновероятных событиях функция энтропии возрастает с увеличением числа событий в ансамбле, а поэтому для повышения информативности символов необходимо увеличивать основание системы счисления используемого кода; 3. Это свойство вытекает из аддитивности статической меры информации и, как следствие, аддитивности функции энтропии; Теперь перейдем к понятиям "энтропия источника" и "энтропия сообщения". Если код имеет основание системы счисления К, то энтропия источника, то есть среднее количество информации, содержащейся в символе кода, составит Содержательно энтропия источника показывает, сколько двоичных единиц информации переносится в среднем в одном символе кода. Среднее количество информации, содержащееся в сообщении, называется энтропией сообщения и определяется в виде Видно, что энтропия сообщения представляет собой математическое ожидание собственной информации, содержащейся в ансамбле сообщений Х 0. Для нахождения вероятности построим плотность распределения и отметим отсчеты функций , рис. Вероятность отображена заштрихованной на рис. Зависимость плотности распределения вероятностей W х от уровня амплитуды х Энтропия отсчета определяет количество информации, которая передается отсчетом функции. С уменьшением шага дискретизации , то есть при , можно найти , то есть предварительное значение Учитывая, что исходная функция непрерывна и может изменяться в неограниченных пределах, найдем энтропию непрерывного сообщения как сумму энтропий отсчетов в виде Второе слагаемое содержит член , который не рассчитывается, так как с уменьшением он может стать бесконечно большой величиной. Обычно определяют так называемую дифференциальную или приведенную энтропию в виде Таким образом, понятие энтропии применимо и для оценки среднего количества информации, которая содержится в непрерывном сообщении. В целом в отношении энтропии непрерывного сообщения можно сделать следующие выводы: Можно показать, что при постоянной дисперсии отсчетов наибольшее количество информации соответствует непрерывным сообщениям, отсчеты которых распределяются по нормальному закону; 2. Это позволяет в конкретных условиях повысить скорость передачи информации в непрерывном канале. Если в процессе подготовки информации исходная величина х отображается через величину у, то минимум потерь можно установить как где — распределение входной величины х; — потери при преобразовании входной величины х в величину у. Отсюда ценность информации определяется как где — математическое ожидание потерь при отклонении от входной величины х к величине у. Превращение информации в ресурс Обеспечение любого вида деятельности составляют финансы, материальные ресурсы, штаты и информационные ресурсы. Факты — результат наблюдения за состоянием предметной области. Можно выделить три основных вида знаний:


Свойства и качественные характеристики информации


При организации информационных процессов необходимо учитывать свойства информации, которые носят как общий, так и специфический характер. Чем сложнее интересующая нас система, чем из большего числа элементов она состоит, тем обширней состав и объём сведений, её характеризующих, тем сложней оценить состояние системы. Отсюда требование мощности и совершенства средства для сбора, передачи, обработки информации, с тем чтобы можно было понять поведение системы, управлять ею, оценить её перспективу. В этом смысле наиболее сложными параметрами характеризуются современное производство, организация, фирма. Современное предприятие — сложный организм, включающий большое число служб, подразделений, цехов, складов и т. Производство на предприятии характеризуется глубиной и сложностью связей, высокой степенью разделения труда, динамизмом всех процессов — технологических, экономических, социальных, организационных и пр. Деятельность такого предприятия складывается из огромной совокупности процессов, событий, явлений, каждое из которых является источником информации. Это свойство связано со спецификой её потребления, в процессе которого онане исчезает. Данное свойство предъявляет требования к созданию систем не только обработки, хранения информации, но и централизованного использования её работниками аппарата управления. Это означает, что одну и ту же информацию можно представить в разном виде материализации и, следовательно, на разных носителях. Информация, отражающая процессы, происходящие в производстве,конкретна, индивидуальна, то есть присуща конкретному станку, рабочему, процессу, но в то же время структура её такова, что она позволяет дать общественную оценку явлениям, событиям, процессам в целом. Количество и качество информации. Является одной из основных характеристик при оценке загруженности работников аппарата управления, а также для определения производительности используемых при обработке информации технических средств. Оценка количества информации во многом зависит от способов её фиксации, применения различных носителей. Иногда работники аппарата управления перегружены информацией, то есть налицо информационная избыточность, — это затрудняет выработку решения. Достоверность и точность информации. Всякие сведения лишь с определённой степенью достоверности отражают реальные события. Чем выше достоверность информации, тем больше возможностей для разработки эффективных решений. Достоверность информации — этокомплексное число ошибочных символов на определённый объём информационного сообщения. На достоверность информации значительно влияют средства и способы отображения реальных фактов; средства и способы их хранения и передачи информационных данных. В информационный обмен в системе управления могут оказаться вовлечёнными ложные сведения, что затрудняет её функционирование. Иногда считают, что достоверность информации зависит от субъективных факторов, поскольку само понятие информации связано с деятельностью человека. Но достоверность информационного обеспечения имеет и объективные основания, которые зависят от методики и средств измерения, расчёта, сбора информации и т. Об одном и том же событии можно получить менее достоверную и более достоверную информацию в зависимости от того, как подойти к её сбору и обработке. Определяется как соотношение необходимой для управления информации и полученной. Количество необходимой информации зависит от затрат времени на её сбор и передачу. Полнота информации определяется не вообще полнотой наших знаний по данной проблеме, авозможным и необходимом объёмом информации в данном процессе управления, чтобы затраты на сбор и обработку информации не снижали эффекта от повышения её полноты, увеличения объёма. Это вовсе не означает, что полнота знаний не влияет на полноту информационного обеспечения процесса управления. Она определяет необходимость организационного и экономического совершенствования управления. Важную роль здесь играет и методика разработки управленческого решения, влияющая на объём используемой при этом информации. Она связана с временем, в течении которого информация устаревает. В условиях ускоряющихся процессов социально-экономического развития, научно-технической революции актуальность информации постоянно изменяется. Поэтому период, в течение которого информация является актуальной, приобретает немаловажное значение в процессе управления. Актуальность информации зависит от своевременного её сбора, регистрации, правильного использования её по назначению. Поддерживая актуальность информации, мы тем самым не только можем принимать эффективные решения по управлению производством, но и прогнозировать поведение элементов и состояние тех или иных процессов на определённую перспективу в управляемом объекте. Эта характеристика относительна, так как ценность информации может быть различной и относительно воспринимающих её субъектов. Вот почему нельзя строго оценить или измерить ценность информации. И тем не менее в практике управления каждый руководитель, разрабатывая решение, оценивает полученные сведения. Руководитель отрицательно оценивает информационное обеспечение процесса управления, если слишком часто к нему попадает бесполезная информация, загружающая его лишней работой. Это её количество, содержащееся в выбранной единице носителя. Низкая плотность информации при отсутствии соответствующей техники обработки увеличивает объём рутинных работ в процессе управления, усложняет процессы хранения и поиска информации и тем самым снижает производительность управленческого труда. Высокая плотность информации требует специальных технических средств для её использования. Например, микрофильм, микрофиша, кассета и т. Уплотнение информации является одной из современных тенденций развития информационного обеспечения управления. В деловой документации большую роль играетунифицированность терминологии, порядок составления документа. Это способствует повышению плотности информации и улучшению характеристик информационного обеспечения системы управления. Регулярность, ритмичность поступления информации. Информационное обеспечение управления характеризует и частота использования определённых видов информации. Не вся информация одинаково используется в процессе управления. Частота использования информации в процессе управления играет большую роль в организации её хранения и поиска, в выборе методов организации её массивов и стратегии поиска. Разделение информации по уровням управления. На каждом иерархическом уровне решаются свои специфические задачи управления. Для того чтобы решения, принимаемые на каждом уровне управления, были эффективными и своевременными, необходимо чтобы работник каждого звена получал специально отобранную информацию определённого объёма и качества, в чётко определённые моменты времени. Чем выше ступень управления, тем выше уровень концентрации предоставляемой пользователю информации. Руководство предприятия нуждается в информации синтегральными оценками процессов и явлений в производстве с учётом функциональных обязанностей и административной ответственности. Систематизация информации по функциям управления. Каждое звено системы управления работает со своей специфической для выполняемой функции информацией. Можно разделить информацию по её функциональной принадлежности. Причём это деление можно произвести как поосновным, так и по конкретным функциям управления. Такое классификационное деление информации имеет большое значение в проектировании системы управления, в частности при определении трудоёмкости работ по различным звеньям системы управления. Каждая из выполняемых управленческих работ требует вполне определённой, конкретной информации. Следовательно, информация, необходимая, например, для реализации функций оперативного управления и перспективного планирования, будет резко отличаться по срокам предоставления, объёмам, структуре, форме предоставления и т. На стипендию можно купить что-нибудь, но не больше A Свойства поля I. Аналитические, качественные реакции аминокислот и пептидов. U-образные характеристики синхронного генератора. U-образные характеристики синхронного двигателя. Но предоставляет возможность бесплатного использования. Есть нарушение авторского права? Качественными характеристиками информации являются:


Фильм где воруют детей
Ибуфен от 3 месяцев инструкция по применению
Как сделать полки для инструментов
Удаление менингиомы квота
Чертежи каноэ из фанеры
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment