Экономическая кибернетика

Системы, модели и их классификация. Управление: виды, принципы и законы. нформация: ее количественное измерение, неопределенность, семиотика. Экономическая система и ее идентификация. Основные принципы анализа и синтеза моделей экономических систем.

Рубрика Экономико-математическое моделирование
Вид учебное пособие
Язык русский
Дата добавления 08.11.2008
Размер файла 380,5 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

По приведенной формуле определяется среднее количество информация в сообщениях при неравновероятных исходах опыта. Легко заметить, что при равновероятности исходов формула

превращается в формулы:

и

поскольку сумма всех p всегда равна 1 и каждое pi = р.

Запишем формулу Шеннона в виде:

Пусть все исходы равновероятны, тогда:

подставив эти значения в формулу, получим:

Из формулы степени неопределенности видно, что среднее количество информации в битах в дискретном сообщении о простом событии определяется как отрицательная сумма вероятностей всех возможных событий, умноженных на их логарифмы по основанию 2. Количество информации выше среднего приходится на события, вероятность которых ниже. Более высокую информационную емкость имеют редкие события. Формулой подтверждается также более низкая неопределенность систем с более высокой вероятностью событий. Поскольку вероятность одних событий повышается за счет снижения

вероятности других (так как сумма всех вероятностей равна 1), энтропия становится тем ниже, чем менее вероятны события, а максимума она достигает при равновероятности всех событий.

Покажем что Hmax, получаемое при равновероятных исходах события, является верхней границей значений H. Для этого найдем максимальное значение функции

используя множитель Лагранжа

Найти max

Приравняем нулю частные производные функции по pi.

Отсюда и легко видеть, что все , следовательно,

H = Hmax. Если же событие является достоверным (при этом pi =1а остальные pi=0, ), то

H = -0*log0 - 0*log0 +…-1*log1+…-0*log0.

Легко показать, что выражение 0*log0 = 0*()=0. Раскроем неопределенность, используя правило Лопиталя:

Тогда получим Н=0 для достоверного события.

Следовательно, среднее количество информации находится в пределах

Теперь можно сформулировать определение условной вероятности. Если случайная величина х принимает значения x1,x2, ..., хN, а случайная величина y принимает значения y1, y2, ..., уM, то условной вероятностью называется вероятность того, что х примет значение хi, если известно, что у приняло значение yi.

Безусловная вероятность p(xi) равна условной вероятности, усредненной по всем возможным значeниям y:

(4.4)

где p(yj) - вероятность j-го значения величины y, величина р(уj) p(xi/yj) - есть вероятность того, что у примет значение yj, а х - значение хi,. Она называется совместной вероятностью события (xi ,yj) и обозначается p(xi,yj).

Очевидно, если события х и у независимы, то

(4.5)

Неопределенность события х определяется по формуле:

(4.6)

Если события х и у зависимы, и событие у приняло значение yj, то неопределенность события х становится равной:

(4.7)

Так как событие у может принимать значение y1, у2,..., уM с вероятностями p(y1), р(у2),…, р(yM), средняя неопределенность события х при любых возможных исходах события у равна:

(4.8)

Это условная негэнтропия случайной величины х при задании случайной величины у. Она всегда не больше безусловной

,

причем равенство имеет место только в том случае, когда знание величины у не меняет вероятностей значений величины х, т.е.

,

каким бы ни было значение yj. Это условие означает, что неопределенность события х не возрастает от того, что событие у становится известно.

Для двух случайных событий х и у энтропия совместного события равна:

В полученном выражении

а второе слагаемое есть не что иное, как

H(x/y).

Следовательно,

(4.9)

Равенство достигается тогда, когда события х и у независимы В качестве меры количества информации в случайной величине у о случайной величине х принимается величина, на которую уменьшается в среднем неопределенность величины х, если нам становится известным значение величины у:

Эта формула выражает количество информации в случайной величине у о случайной величине х, как разность между безусловной и условной негэнтропией.

По формуле условной негэнтропии строится вся современная статистическая теория информации. Переход от абсолютной негэнтропии к условной приобретает фундаментальное решающее значение. Формула условной негэнтропии выражает количество информации относительно заданной системы отсчета, системы координат. Иначе говоря, она характеризует количество информации, содержащееся в одном объекте относительно другого объекта.

Классическая теория информации дает полезный аппарат, но он не универсален и множество ситуаций не укладываются в информационную модель Шеннона. Далеко не всегда можно заранее установить перечень возможных состояний системы и вычислить их вероятности. Кроме того, основным недостатком этой теории является то, что, занимаясь только формальной стороной сообщений, она оставляет в стороне их ценность и важность. Например, система радиолокационных станций ведет наблюдение за воздушным пространством с целью обнаружения самолета противника. Система S, за которой ведется наблюдение, может быть в одном из двух состояний: x1 - пpoтивник есть, х2 - противника нет. Выяснение фактического состояния системы принесло бы в рамках классической теории информации 1 бит, однако первое сообщение гораздо важнее, что оценить невозможно с помощью вероятностного подхода.

Статистическая теория информации оперирует лишь вероятностями исходов рассматриваемых опытов и полностью игнорирует содержание этих исходов. Поэтому эта теория не может быть признана пригодной во всех случаях. Понятие информации в ней трактуется весьма односторонне.

Следовательно, уничтожение неопределенности, т.е. получение информации, может происходить не только в результате вероятностного процесса, но и в других формах. Понятие неопределенности оказывается шире понятия вероятности. Неопределенность - понятие, отражающее отсутствие однозначности выбора элементов множества. Если этот выбор имеет случайный характер, то мы имеем дело со статистической теорией информации. Если же этот выбор не случаен, то необходим невероятностный подход к определению информации. Существуют следующие невероятностные подходы к определению информации: динамический, топологический, алгоритмический. Мы не будем рассматривать эти невероятностные подходы к определению количества информации, отметим только, что каждый из этих методов обнаруживает нечто общее со статистическим подходом. Оно состоит в том, что эти методы изучают переход от неопределенности к определенности. Но все же эти методы отличаются от статистического подхода. Один из невероятностных подходов к определению количества информации принадлежит советскому ученому А.Н. Колмогорову. По аналогии с вероятностным определением количества информации как функции связи двух систем, он вводит определение алгоритмического количества информации.

Количество информации, содержащееся в сообщении, можно связывать не только с мерой неопределенности системы, но и с ее структурной сложностью и точностью измерений. Такой подход предлагается к оценке научной информации, возникающей в результате анализа процесса наблюдений и эксперимента.

Количество различных признаков, характеризующих данный предмет, т.е. его размерность или число степеней свободы, является мерой структурной информации. Ясно, что цветное изображение содержит в себе больше информации по сравнению с черно-белым изображением того же объекта. Единица структурной информации - логон - означает, что к имеющемуся представлению можно добавить одну новую различимую группу или категорию.

Количество метрической информации связано с разрешающей способностью измерений. Например, эксперимент, результат которого обладает погрешностью, равной 1%, дает больше информации, чем эксперимент, характеризующийся погрешностью в 10%.

Единицей измерения метрической информации является метрон. В случае числового параметра эта единица служит мерой точности, с которой этот параметр определен.

Статистический и нестатистический подходы в теории информации касаются только количества информации, но информация имеет еще и качественный аспект. Объединение элементов в множество всегда предполагает наличие у них некоторого свойства, признака, благодаря чему они образуют данное множество, а не иное. Следовательно, каждый элемент множества обладает определенным качественным отличием от элемента другого множества. Кроме того, внутри множества различие элементов друг от друга носит тоже качественный характер. Поиск качественного аспекта информации как раз и состоит в учете природы элементов, объединяемых в множества, в учете качественного многообразия материи.

До сих пор информация рассматривалась как снятая, устраняемая неопределенность. Именно то, что устраняет, уменьшает любую неопределенность и есть информация. Однако информацию можно рассматривать не только как снятую неопределенность, а несколько тире. Например, в биологии информация - это прежде всего совокупность реальных сигналов, отображающих качественное или количественное различие между какими-либо явлениями, предметами, процессами, структурами, свойствами. Такой более широкий подход к определению понятия информации сделал У. Росс Эшби. Он считает, что понятие информации неотделимо от понятия разнообразия. Природа информации заключается в разнообразии, а количество информации выражает количество разнообразия. Одно и то же сообщение при разных обстоятельствах может содержать различное количество информации. Это зависит от разнообразия, которое наблюдается в системе.

Слово «разнообразие» означает число различных элементов в множестве. Так, например, множество с, b, с, а, с, с, а, b, с, b, b, а, если не принимать во внимание порядок расположения элементов, содержит 12 элементов, и только три из них различные: а, b, с. Такое множество имеет разнообразие в три элемента.

Множество с разнообразием и множество с вероятностями имеют эквивалентные свойства. Так, множество, у которого все элементы различны, имеет максимальное количество разнообразия. Чем больше в системе разнообразия, тем больше неопределенность в поведении такой системы. Уменьшение разнообразия уменьшает неопределенность системы. Вероятность выбрать наугад данный элемент из множества с максимальным разнообразием равна единице, деленной на количество всех элементов множества . Нетрудно видеть, что это аналогично статистической совокупности с равномерным распределением вероятностей. Количество информации в этом случае имеет максимальное значение. Множество, у которого все элементы одинаковы, содержит минимальное количество разнообразия - всего в один элемент. Аналогией такого множества является статистическая совокупность с таким распределением вероятностей, когда одна из них равна единице, а остальные нулю. Количество информации в такой совокупности равно нулю. В множестве информация появляется только тогда, когда один элемент отличается от другого. Подобно вероятности разнообразие может измеряться как число различных элементов и как логарифм этого числа, например, по основанию два. Между минимальным и максимальным количеством разнообразия в множестве существует ряд промежуточных состояний, которые появляются в результате ограничения разнообразия. Понятие ограничения разнообразия является очень важным. Оно представляет собой отношение между двумя множествами. Это отношение возникает, когда разнообразие, существующее при одних условиях, меньше, чем разнообразие, существующее при других условиях.

Ограничения разнообразия весьма обычны в окружающем нас мире. Любой закон природы подразумевает наличие некоторого инварианта, поэтому всякий закон природы есть ограничение разнообразия.

Окружающий мир чрезвычайно богат ограничениями разнообразия. Без ограничений разнообразия мир был бы полностью хаотичным. Ограничение разнообразия соответствует уменьшению количества информации, поэтому ограничение разнообразия равносильно установившемуся в статистической теории понятию избыточности. Избыточность тем больше, чем больше ограничение разнообразия. Если же элементы в множестве одинаковы, то избыточность равна единице. Если в ящике все шары оказываются одинакового цвета то их избыточность по цвету равна единице, если же все шары будут разного цвета, то избыточность равна нулю. Наличие у информации качества вызывает необходимость в классификации видов информации. Различают элементарную информацию, т.е. информацию в неживой природе, биологическую, логическую, человеческую, или социальную. Для социальной информации характерно выделение двух аспектов: семантического, связанного с содержанием сообщений, и прагматического, связанного с полезностью их для получателя.

Семиотика

Развитие качественной стороны в исследованиях информации теснее всего связано с семиотикой - теорией знаковых систем. Семиотика исследует знаки как особый вид носителей информации.

Отношение между знаками, обозначаемыми предметами и их отображением в форме понятий и моделей, изучаются другим аспектом семиотики - семантикой. Этими отношениями определяется содержание информации, передаваемой посредством знаков.

В настоящее время еще не разработаны методы точного количественного определения смыслового содержания информации. Наиболее известными подходами к построению теории семантической информации являются теория Карнапа и Бар-Хиллела, основанная на понятии логической вероятности, и теория советского ученого Ю.А. Шрейдера, имеющая невероятностный характер.

Отношения между знаками и их потребителями, с точки зрения использования получаемой информации и влияния знаков на поведение системы, изучается другим разделом семиотики - прагматической теорией информации. Предметом ее исследования является определение ценности информации для потребителя. Ценность uнфоpмации -- есть отношение субъекта, информации и цели, где информация выступает как объективный фактор или носитель ценности. Ценность информации является важной характеристикой для кибернетических систем, так как она связана с их функционированием. Ценностный критерий информации является пригодным, когда сравниваются системы, выполняющие одну и ту же функцию, но имеющие внутреннее разнообразие. Каждое сообщение важно оценивать не с точки зрения познавательных характеристик, а с точки зрения полезности для выполнения функций управления. Исходя из этих соображений, А.А. Харкевич предложил определять меру ценности информации Ic как изменение вероятности достижения цели при получении этой информации:

где р0 - вероятность достижения цели до получения информация;

p1 - вероятность достижения цели после получения информации.

Другой подход к проблеме ценности информации осуществлен М.М. Бонгардом. Он вводит понятие «полезная информация», связывая сообщение с тем, какую задачу решает получатель, что он знает до прихода сообщения и как он сто истолковывает. Этот подход имеет вероятностно-алгебраическую сущность и носит более общий характер, чем мера ценности информации, предложенная А.А. Харкевичем.

Между элементами любой системы и между различными системами существуют информационные связи. Чтобы иметь представление о состоянии системы, необходимо каким-то способом оценивать значение ее координат. При этом оказывается, что ни один способ наблюдения не может доставить абсолютно точных сведений о значениях координат системы. Это объясняется тем, что любому измерению свойственна определенная конечная разрешающая способность.

В общем виде, если состояние системы представляется вектором, составляющие которого х1, х2 ,....xn , могут независимо друг от друга

принимать r1, r2 ,…,rn значений соответственно, то число всевозможных наборов этих значений, входящих в множество состояний системы, будет равно N=r1 *r2 *…rn .

Состояние системы в определенный момент времени называется событием. Событием называется каждая фиксируемая наблюдением количественная или качественная определенность динамической системы или ее состояния. Различают простые и сложные события, (х, t) представляет собой множество возможных событий для каждого момента времени.

Каждому состоянию системы, событию, можно ставить в соответствие определенное значение какой-либо физической величины. При помощи этой величины можно осуществлять передачу сведений от одного объекта к другому. Физический процесс, представляющий собой материальное воплощение сообщения о событиях, называется сигналом. Сигнал как физический носитель информации возникает только на основе изменения состояния системы, т.е. возникшего события; он имеет самостоятельную физическую сущность и существует независимо от содержания происшедшего события, и всегда связан с каким-либо материальным объектом или материальным процессом. Сигнал может существовать длительное время, иметь непрерывную или дискретную характеристику и быть статическим или динамическим. Посредством сигналов осуществляются информационные связан циркулирующие в кибернетических системах. Сигналы можно передавать на расстояние, поддерживая связь между разобщенными в пространстве объектами. Сигналы можно запоминать и передавать их во времени. Это позволяет связывать между собой объекты, разделенные во времени.

Система или среда, в которой осуществляется передача сигнала, называется каналом связи, информационным каналом или каналом передачи сообщений. В общем виде абстрактную схему системы связи можно изобразить следующим образом.

Эта схема функционирует следующим образом: источник информации (отправитель) обладает некоторым множеством различны» и разнозначных для получателя сведений, совокупность которых называется сообщением. Передача сообщения означает выбор определенного символа или определенных символов из множества возможных символов или алфавита отправителя и преобразование этих сим волов с помощью передатчика в передаваемые сигналы.

Элементами алфавита могут быть дискретные символы -- буквы, цифры, азбука Морзе, либо непрерывные символы - высота тона, амплитуда колебания. Передающие сигналы по коммуникационной цепи перемещаются с шумом, вызывающим искажение сообщений. На стороне приемника имеется алфавит физических символов, из которых на основе полученных физических сигналов восстанавливается полученное сообщение. Полученные сигналы могут быть искажены аддитивными помехами, т.е. шумом. Получаемая информация всегда относительна, так как она зависит от различия между неуверенностью принимающего перед приемом и после приема.

Сигналы, в которых содержится информация, могут быть представлены в дискретной и в непрерывной форме. Дискретные сигналы могут принимать лишь определенное конечное количество значений. Непрерывный сигнал может принимать бесчисленное множество значений, которые могут отличаться один от другого сколь угодно малыми приращениями.

Каждому состоянию системы х соответствует определенное сообщение xc. Множеству возможных событий соответствует множество сообщений, передаваемых при помощи сигналов. Формирование сообщения следует рассматривать как преобразование системы в xc - одно из множества возможных состоянийЭто преобразование происходит посредством некоторого оператора Р:

Оператор Р преобразования какого-либо операнда в его образ сообщения называется кодом. Это комплекс правил, согласно которым информации придается определенный сигнал. Сама операция преобразования посредством кода называется кодированием. В узком смысле слова под кодированием понимают присвоение кодового обозначения объекту или всякую операцию сопоставления множества сообщений одного источника множеству сообщений другого источника, согласно определенной системе правил.

В качестве операнда может рассматриваться не только состояние системы x или событие (х, t), но и сообщение . В этом случае имеет место перекодирование. Операция перекодирования часто бывает необходима в случаях секретности. При этом сообщение, закодированное одним способом, преобразуется в сообщение , закодированное другим способом. В коммуникационной цепи возможно многократное перекодирование. Такое преобразование сообщений можно представить как последовательное воздействие на состояние системы х операторов P1, Р2, ..., Pi по схеме:

Экономичность передачи сообщения зависит от правильности его кодирования, т.е. от рациональной системы кодирования. Кодирование сигнала по существу означает сравнение символов одного алфавита с символами другого алфавита. При этом код представляет собой комплекс правил сравнения символов. Поскольку при кодировании сравниваются символы двух алфавитов, то при этом может изменится количество символов и их вероятностное распределение. В силу этого изменяется и энтропия сообщения. Задача заключается в том, чтобы найти наиболее экономичный для данной передачи код. Наиболее экономичным является код, который требует минимального числа символов и минимального времени на передачу. Хороший код должен сохранить все нужное в сообщении и исключить ненужное.

Большинство кодов имеют избыточность. Это значит, что при передаче сообщений умышленно не используются все возможности кода.

Избыточность - это свойство языков, кодов и знаковых систем состоящее в том, что сообщение содержит больше сигналов, чем фактически требуется для передачи информации: это свойство улучшает связь в условиях помех. Простейшей формой избыточности является дублирование.

Наличие избыточности в сигнале равносильно его удлинению. Однако считать избыточность исключительно отрицательным явлением нельзя, т.к. чем больше избыточность сообщения, тем меньше оно подвержено искажению за счет действия помех. Нахождение оптимальной избыточности кода при данном уровне помех - одна из главных задач теории информации.

Одной из основных проблем при передаче информации по каналу связи с ограниченной пропускной способностью является максимальное увеличение фактической скорости передачи сообщений, которая зависит не только от параметров технических устройств, но и от принятой системы кодирования. Выбором эффективного способа кодирования и декодирования для каждого конкретного канала связи можно добиться наилучшего использования его пропускной способности.

Наибольшее распространение получили двоичные коды, обладающие существенным преимуществом. Наличие всего двух символов позволяет просто и надежно представлять числа в виде импульсов тока или напряжения. Большинство цифровых вычислительных систем предназначается для обработки дискретной информации, закодированной в двоичной системе счисления. Коды, в которых сообщения представлены комбинациями с неравным количеством символов, называются неравномерными или некомплектными. Коды, в которых сообщения представлены комбинациями с равным количеством символов, называются равномерными, или комплектными,

Очевидно, что при использовании равномерного кода в отличие от неравномерного не требуется специального знака, отделяющего одну букву от другой. Для однозначного декодирования принятых сообщений, а также для передачи больших объемов информации при меньших временных и материальных затратах коды должны удовлетворять следующим требованиям:

разные символы передаваемого сообщения должны иметь различные коды;

код должен быть построен так, чтобы можно было четко отделить начало и конец букв алфавита, из которого составлено сообщение;

код должен быть максимально кратким - чем меньшее число элементарных символов требуется для передачи данного сообщения, тем ближе скорость передачи информации к пропускной способности данного канала.

Первое требование очевидно, так как при одинаковых кодовых обозначениях различных букв сообщения нельзя будет однозначно декодировать.

Второе требование может быть удовлетворено следующим образом: введением в код дополнительно разделительного символа-паузы, что значительно удлиняет время передачи сообщения; созданием кода, в котором конец одной буквы не может быть началом другой; либо применением равномерного кода. В этом отношении равномерные коды обладают преимуществом, вместе с тем они имеют существенный недостаток -- независимо от вероятности появления отдельных букв сообщения они закодированы последовательностями символов одинаковой длины. Такой код может быть оптимальным с точки зрения затрат времени на передачу только в случае, если все буквы сообщения равновероятны и независимы.

Третье, основное требование к кодам обеспечивает наибольшую скорость передачи информации по каналу связи посредством возможного сокращения кодов. Длину последовательности символов, кодирующих каждое сообщение, назовем длиной кодового слова. Основные свойства оптимальных кодов:

1. Минимальная средняя длина кодового слова оптимального кода обеспечивается в том случае, когда избыточность каждого слова сведена к минимуму (в предельном случае - к нулю).

2. Алфавит оптимального кода должен строиться из равновероятных и независимых символов.

Из свойств оптимальных кодов вытекают принципы оптимального кодирования: выбор очередного символа в кодовом слове необходимо производить так, чтобы содержащееся в нем количество информации было максимальным, и сообщениям, имеющим большую вероятность появления, необходимо присваивать более короткие кодовые слова.

Эти принципы определяют метод построения оптимальных кодов, предложенный независимо друг от друга Р. Фано и К. Шенноном. Поэтому соответствующий код называется кодом Шеннона-Фано.

Построение оптимального двоичного кода сводится к следующей процедуре:

1. Множество из N сообщений располагают в порядке убывания вероятностей.

2. Множество сообщений разбивают на две группы так, чтобы суммарные вероятности сообщений обеих групп были по возможности равны.

3. Первой группе присваивают символ 0, второй группе - символ 1.

4. Каждую из групп делят на 2 подгруппы так, чтобы их суммарные вероятности были по возможности равны.

5. Первым подгруппам каждой из групп вновь присваивают 0, а вторым - 7, в результате чего получаются вторые цифры кода. Затем каждую из четырех подгрупп вновь делят на равные (по суммарной вероятности) части и т.д. до тех пор, пока в каждой из подгрупп останется по одной букве. Очевидно, что для равновероятностных сообщений оптимальный код будет равномерным, т.е. длина кодового слова постоянна.

Вопрос об отыскании практически удобных методов кодирования для различных каналов связи с помехами составляет содержание теории кодирования, являющейся самостоятельным разделом теории информации.

Экономическая информация

Так же, как и информация вообще, экономическая информация может быть понята, проанализирована и рационально сконструирована только при изучении экономических систем, процессов управления в них и конкретных задач, решаемых в системах управления. С этой точки зрения под экономической информацией следует понимать:

сведения, знания наблюдателя об экономическом объекте;

наличие связи между элементами экономической системы, т.е. именно то, что определяет ее цельность как системы (внутренняя информация системы);

нематериальные составные части системы -- знания, навыки, методы, т.е. информационные подсистемы экономической системы;

сообщения, которые циркулируют в экономической системе, и которыми она обменивается с внешней средой или другими экономическими системами. Они отражают те реальные связи, которые существуют между различными экономическими объектами, отображаемыми в виде систем;

некоторые общепризнанные знания, сведения, правила и обычаи, вторыми руководствуются люди и коллективы в своей производственно-экономической деятельности. Они существуют в виде нормативных, правовых актов, показателей планирования и являются формами проявления регулирующей и целенаправляющей информации в экономических системах.

Экономические сообщения и хранимые сведения обладают широко разветвленными и глубокими взаимосвязями и объективными зависимостями, которые трудно установить в результате запутанности сетей коммуникаций и несистематичности массивов хранимых сведений.

В потоке экономической информации нельзя выделить один главный фактор. Такие факторы, как полезность сообщения, его смысл, способ знакового отображения, словарь, алфавит, код имеют равное значение, или же их значение изменяется в зависимости от этапа решения задачи.

Экономическую информацию классифицируют по различным признакам с точки зрения класса задач экономического управления.

Экономическую информацию классифицируют на первичную и вторичную, производную. Для каждой экономической системы имеются свои границы между первичной и вторичной информацией. В каждом случае первичной информацией будет поступившая в систему из внешней среды и возникающая в системе, а вторичной -- переработанная внутри системы. Первичная экономическая информация в народном хозяйстве имеет единый источник процессы материального производства, распределения и потребления, рассматриваемые на уровне непосредственных технологических операций.

По признакам отображаемых объектов экономическая информация может классифицироваться:

по фазам воспроизводства: информация о производстве, распределении, обмене, потреблении;

по факторам воспроизводства: информация о природных ресурсах, средствах производства (основных и оборотных фондах), населении и трудовых ресурсах, продукции и услугах;

по отраслям экономики: информация о промышленности, сельском хозяйстве, строительстве, торговле и т.д.

По назначению в процессе управления экономическая информация делится на управляющую и осведомляющую. Назначение управляющей информации - довести до исполнителей подлежащие выполнению решения - либо в форме прямых распоряжений, либо в форме экономических и моральных стимулов, влияющих на поведение объектов управления. Назначение осведомляющей информации - реализация обратной связи в системе управления.

По характеру использования экономическую информацию можно разделить на две категории: информацию непосредственного управления и информацию развития системы. К первой категории следует отнести информацию, циркулирующую в системе и используемую в решении поставленных задач. Информация развития системы -- это сведения, которые могут быть использованы для коренных преобразований системы: изменения и корректировки целей, постановки новых задач, выработки новых методов и перестройки старых, внедрения новых устройств переработки информации.

В зависимости от выполняемых в управлении функций экономическую информацию подразделяют на учетно-отчетную, плановую, нормативную, аналитико-прогнозирующую.

Учетно-отчетная информация отражается в виде натуральных и стоимостных показателей. Ее источником являются бухгалтерские, статистические и оперативные данные, которые отражают апостериорные явления.

Плановая информация используется при перспективном, текущем, годовом и оперативном планировании и в условиях планомерного осуществления процесса производства играет существенную роль.

Показатели плановой информации характеризуются большим количеством взаимосвязанных факторов, их получение связано с выполнением значительного количества логических и арифметических операций. Существенное значение для планирования имеет нормативная информация, источником которой являются данные о нормативах затрат ресурсов на производство продукции.

Аналитико-прогнозирующая информация является основой для принятия оперативных и стратегических решений по управлению объектом. Ее подготовка требует использования плановой и учетной информации и связана с применением аналитических методов.

В системе управления каждый из перечисленных видов информации выполняет различную роль. Плановая информация осуществляет по отношению к объекту прямую связь, учетно-отчетная и аналитико-прогнозирующая - обратную.

В процессе общественного производства информационный и производственный процессы едины и неразрывны - операции обработки информации предшествуют каждой технологической операции и завершают ее. Уже на уровне оперативного учета предприятия циркулирует переработанная информация, в многократно переработанном виде она поступает в средние и высшие органы управления. Там эта учетно-отчетная информация путем совместной переработки с плановой, научно-технической и другой информацией преобразуется в командную информацию, которая в свою очередь после многократных преобразований приходит к единому источнику всей информации - технологическим операциям процесса общественного производства. Различаются горизонтальные потоки экономической информации, связывающие подсистемы одного уровня иерархии, и вертикальные (восходящие и нисходящие), связывающие подсистемы разных уровней.

Поскольку экономические системы являются динамическими и процессы преобразования информации протекают во времени, информацию классифицируют по временным признакам. Здесь возможно несколько различных подходов. В зависимости от интервалов времени между поступлениями сообщений, информация бывает периодическая и непериодическая.

Другой принцип классификации связан с интервалом между однородными сообщениями. Если интервал между сообщениями больше или равен циклу управления, то сообщения относят к условно-постоянной информации, если же этот интервал меньше цикла управления, то говорят об условно-переменной информации.

Для исследования и проектирования экономических систем могут использоваться и другие критерии классификации экономической информации - по степени достоверности сообщений, по полезности, по физической форме сообщений, по способу преобразования информации и др.

Следует отметить, что в каждом конкретном случае классификация экономической информации должна производиться с позиций решения поставленной задачи или комплекса задач экономического управления.

Обмен информацией между экономическими системами и их элементами всегда осуществляется с помощью знаков - на определенном экономическом языке. Важное значение при этом имеют проблемы знакового выражения экономической информации, что является содержанием экономической семиотики.

Экономическая семиотика -- это наука о закономерностях построения и использования форм обмена информацией в системах экономического управления. Ее задача - упрощение и устранение избыточности информации в документации; разработка эффективных форм обмена информацией между человеком и машиной в человеко-машинных системах управления; формализация языка документов в связи с созданием автоматизированных систем хранения и обработки экономической информации.

Экономическая информация воплощается в нескольких знаковые системах (графический язык документов, специальные экономические термины, элементы языка математики и других наук), объединяемых на основе естественного языка. Важнейшая особенность языка экономического управления - наличие специфических знаковых уровней. На уровнях букв, элементарных знаков и слов язык экономического управления принципиально не отличается от общего языка. Специфичными являются знаковые системы показателей и документов. Анализ экономического сообщения (документа, показателя, тек- I ста) может производится на каждом из уровней или каждой паре уровней экономического языка, в одном из трех аспектов семиотики: синтаксическом, семантическом или прагматическом.

Синтаксический аспект рассмотрения экономических сообщений предполагает исследование свойств алфавита, правил словообразования, детерминированных и вероятностных законов чередования знаков, изучение возможностей использования этих законов для сокращения текста сообщений, отвлекаясь от содержания и ценности этих сообщений для получателя. В тех случаях, когда анализ смысла сообщения или его полезности оказывается невозможным или затруднительным, обычно осуществляется только синтаксический анализ, в котором в полной мере используется статистико-вероятностный аппарат теории информации.

Семантический аспект рассмотрения экономических сообщений означает исследование закрепленных за каждым из них как за знаком соответствующих значений, что, в частности, предполагает понятийную классификацию объектов, отображаемых информационной системой, уточнение смысловых вариантов каждого из знаков языка в различных контекстах, слежение за модификацией этих значений по мере развития системы, фиксацию отнесенности знаков к различным функциональным подсистемам системы управления. Объектом семантики является содержание экономической информации и способы его знакового представления, но она отвлекается от проблемы ценности информации, рассматривая ее как экономические данные.

Прагматический аспект анализа сообщений предполагает исследование информации в условиях, когда экономические данные становятся экономической информацией. Проблема ценности в этом аспекте является центральной. Прагматический подход требует точной ориентации каждого сообщения на конкретную систему и на определенную задачу, решаемую в этой системе, и предполагает оценку значимости каждого из языковых знаков применительно к задачам, решаемым в системе, оценку стоимости получения информации, учет сведений о месте возникновения, обработки, трудоемкости получения и путях следования сообщений.

Методы измерения экономической информации на различных уровнях не в равной степени разработаны.

Методы классической теории информации позволяют измерять количество информации, доставляемой каждым знаком, но на синтаксическом уровне эта мера будет зависеть исключительно от вероятности появления знака в канале связи, но не от вероятности отображаемых с его помощью событий.

Укрупненной единицей экономической информации, раскрывающей качественную и количественную стороны, является экономический показатель. Определение количества информации, размещенной в показателе, можно осуществить по формуле:

(4.10)

где k - количество возможных состояний данного показателя;

рi -- вероятность i-го состояния показателя.

Если d - количество показателей в однострочных документах, то количество информации в них равно:

Общее количество информации в документах с учетом документо-строк может быть определено по формуле:

,

где l - количество видов документов;

j - порядковый номер вида документа;

dj - количество показателей в j-м виде документов;

Inj - количество информации, приходящейся на один показатель в j-м виде документов.

Аппарат, представляемый теорией информации, позволяет оценить количество сигнальной, алфавитной и знаковой информации, и его применение вполне оправдано при механизации и автоматизации обработки данных. Однако статистический подход к оценке информации оказывается непригодным на семантическом и прагматическом уровне.

Анализ смысловой информации, а также отбор и оценка прагматической информации представляют сложную задачу. Вопросы формализации смыслового анализа, а в особенности математической его интерпретации, находятся в начальной стадии изучения. К тому же и полное осуществление смыслового анализа информации не может служить оценкой ее полезности, а является лишь необходимым этапом на пути к достижению этой цели, поскольку интерпретация информации еще не есть ее оценка. Для прагматической оценки экономической информации характерен подход к данным как к продукту определенного качества. Качество экономических данных определяется комбинацией потребительских свойств, таких, как: содержательность, достоверность, полнота, удобства восприятия. Информация - производственный ресурс, способный быстро терять свои качества. Поэтому немаловажное значение приобретает такой фактор как своевременность информации. При обработке информации необходимо соблюдать принцип экономичности, который заключается в организации этого процесса, обеспечивающей систему необходимой информацией с минимальными затратами. Все эти факторы определяют ценность экономической информации. Из их числа можно выделить информативность данных. Для ее измерения можно использовать формулу Шеннона, но такую, которая определяла бы количество информации не по вероятности появления знаков, а в зависимости от вероятностей событий и ситуаций, отображаемых экономической информацией. Единой оценки полезности информации пока еще нет. Если цель системы четко определена, то полезность информации может быть определена через прирост вероятности достижения цели по формуле:

(4.11)

где P0 вероятность достижения цели до получения информации;

P1 - вероятность достижения цели после получения информации.

Ценность информации может быть определена как мера близости к заданной цели системы. Допустим, что цель задана каким-то списком вопросов. Тогда мерой ценности информации может служить функция

(4.12)

где n - число вопросов, определяющих цель;

i - вес i-го вопроса, его значение по относительной шкале достижения цели;

Pi =1 - если нa i-й вопрос содержится ответ в данной информации;

Рi=0 - если в данной информации не содержится ответ на i-й вопрос.

На практике в качестве критериев оценки экономической информации используются показатели: значимости, употребимости, полезности, ранга, стоимости, а также своевременности, доступности и достоверности. С помощью этих критериев может быть подучена некоторая общая оценка информации.

При обработке больших массивов данных может возникнуть необходимость в их усредненной оценке по нескольким параметрам сразу. В этом cлучae можно ввести весовые коэффициенты для каждого из оценочных параметров: значимости, полезности, периодичности и других.

Общая информативность системы, массива или текста определяется суммированием значений ценности содержащихся в них информационных единиц.

Отношение информативности системы к информативности текста составляет полноту информации. Отношение общей информативности системы к общей стоимости информации определяет эффективность информационной системы.

Рассмотренный подход легко формализуется и может быть использован в практических расчетах для конкретных экономических систем.

Экономическая информация выступает своеобразным ресурсом, эффективное использование которого имеет большое значение для процесса управления.

Под системой экономической информации понимается совокупность данных, отображающих экономический аспект деятельности системы управления.

Обеспечение целостности информационной системы базируется на концепции интегрированных систем обработки данных.

Применение принципов интеграции в широком смысле слова для обработки экономической информации, а также при проектировании системы экономической информации является необходимым условием эффективной организации процесса управления.

ГЛАВА 5. ЭКОНОМИЧЕСКАЯ СИСТЕМА

Биологический моделью промышленного предприятия или фирмы является живой организм, взаимодействующий с окружающей средой. Эту модель мы уже привлекали ранее, и в данном случае она предназначена только для того, чтобы сосредоточить вокруг нее наши рассуждения. Но при этом не следует думать, что в этой аналогии мы намерены усматривать нечто большее, чем ее общее экологическое значение и удобство. Представим себе некоторый, организм, обладающий протяженностью и материальным единством. Он изменяется, развиваясь и разрушаясь, приспосабливаясь к новым внутренним и внешним воздействиям. Питание этого организма составляют капитал, рабочая сила и сырье, а в результате его деятельности образуется дополнительный капитал в форме прибыли, производятся товары и удовлетворяются духовные потребности людей. Внутренние службы предприятия подобны системе кровообращения и эндокринных желез, они питают энергией отдельные части организма и обусловливают их работу. Связи, реализуемые внутри предприятия, которые представляют собой средства управления и объединения предприятия в единое целое, подобны нервной системе (хотя, как мы показали с самого начала, пока что эти средства являются весьма несовершенными: продолжая биологическую аналогию, можно сказать, что они находятся на уровне нервной системы, губки). Это общее внутреннее сходство предприятия с живым организмом дополняется его рефлексами, т.е. заложенными в него реакциями, определяемыми системой управления производством, а также наличием мозга предприятия, которым является его руководство. Однако для внешнего мира предприятие выступает как часть организма промышленной фирмы, функционирующей в некоторой окружающей среде и способной воспринимать ее воздействия в виде изменения в конъюнктуре рынка и в социальной, политической и экономической обстановке. Этот организм должен непрерывно реагировать как единое целое в соответствии со своей структурой и свойствами на случайные возмущения, окружающей среды и свои собственные изменения и неполадки.

Одно время, например, в начале прошлого века, мы в Англии пытались рассматривать этот организм как простую детерминированную систему. Промышленник в то время, по существу, управляя входами предприятия по собственному произволу, ибо в период экономического расцвета капитал имелся в избытке, рабочая сила в условиях упадка социальной системы была в изобилии, а в сырье в эпоху интенсивного открытия месторождений полезных ископаемых не испытывалось недостатка. В тех условиях можно было заставить "организм", т. е. предприятие, подчиняться категорическим решениям мозга главным образом потому, что всегда имелась возможность увеличения числа рабочих, а сами рабочие не предъявляли особых претензий. Окружающая среда в целом не создавала особых помех, так как это была эра международной экспансии. В наше время современная теория руководства промышленностью считает предприятие или фирму сложной вероятностной системой. Многие методы этой теории, например исследование производственных процессов, организация и методы руководства и т. п., достигли вершины своего развития в исследовании операций, потому что руководство промышленностью - это именно та область, в которой приходится исходить из современных гипотез в отношении систем, которые одновременно являются сложными и вероятностными. Именно на этом этапе развития методов руководства возникают непреодолимые трудности, ибо (в соответствии с нашей приблизительной классификацией систем) предприятие или фирма являются не просто сложными, но очень сложными системами. Если перевести это положение на язык возможностей человеческого разума, то можно сказать, что мы работаем над решением проблем управления, явно не поддающихся невооруженному разуму.

Ст..Бир

Общая характеристика экономической системы

Экономика (экономическая система) - сложная целенаправленная управляемая динамическая система, осуществляющая производство, распределение и потребление материальных благ с целью удовлетворения неограниченных человеческих потребностей.

Экономическая система с точки зрения системного подхода может быть представлена следующим образом.

Пространство и время - наиболее общие детерминанты экономической системы, конкретизирующие ее пространственное и временное существование и ограниченность.

Природная среда находится в непрерывном взаимодействии с экономической системой; последняя, в частности, эксплуатирует природные ресурсы: сельскохозяйственные земли, запасы минералов, воды, древесины, - и оказывает воздействие на природу, изменяя ее. Экономика является функциональной подсистемой социальной системы, выполняя требование удовлетворения потребностей общества и используя человеческие ресурсы.

Принцип неограниченности потребностей общества следует понимать так, что ориентация экономики на максимальное удовлетворение человеческих потребностей никогда не достигает идеальной цели - создания полного изобилия в силу действия закона опережающего роста потребностей.

Экономическая система, эффективность функционирования которой характеризуется экономическими показателями: прибылью, рентабельностью, себестоимостью, производительностью и другими, - является сложной системой. Изменения, возникающие в одной части системы, вызывают изменения в других ее частях. Так, появление нового продукта в одной из отраслей промышленности приводит не только к изменениям в этой отрасли, но и оказывает преобразующее воздействие на структуру спроса и потребления, что, в свою очередь, определяет новые изменения в производящих отраслях. Экономическая система находится в непрерывном движении: она растет и I развивается. Понятие роста отражает количественный аспект динамики: увеличение числа элементов, связей, размеров экономической системы. Принцип развития связывается с понятием качества, совершенствования системы, возрастанием ее потенциала. Примечательно, что макроэкономическая система наращивает потенциал дом скорейшего достижения цели - улучшение качества и уровня жизни населения (развитие) и характеризуется реальными показателями повышения уровня жизни (рост).

Среда экономической системы также является сложной системой и обладает всеми свойствами таковой. При выделении системы исходят из наличия более жестких связей внутри самой сложной системы по сравнению со связями между системой и внешней средой. Система и среда в общем случае характеризуется различными интересами, целями и критериями. Совокупность факторов внешней среды характеризуется:


Подобные документы

  • Основы теории продукционных систем: основные понятия и модели. Элементы теории живучести предпринимательства. Вариационные модели продукционных систем. Расчетная часть: компонентная модель продукционной системы и технологическая расчетная таблица.

    методичка [100,4 K], добавлен 08.11.2008

  • Теоретические основы экономико-математических задач о смесях. Принципы построения и структура интегрированной системы экономико-математических моделей. Организационно-экономическая характеристика и технико-экономические показатели работы СПК "Родина".

    курсовая работа [66,6 K], добавлен 01.04.2011

  • Классификация систем (по отношению ко времени и среде, обусловленности поведения, сложности), их основные свойства. Виды процессов в динамических системах. Кибернетические системы и законы их функционирования. Особенности нелинейных динамических систем.

    презентация [204,4 K], добавлен 19.12.2013

  • Использование математических методов в сфере управления, в традиционных экономических расчетах при обосновании потребностей в ресурсах, разработке планов и проектов. Основные признаки иерархической системы управления и количественная оценка решений.

    контрольная работа [57,0 K], добавлен 21.01.2010

  • Основы построения и тестирования адекватности экономических моделей множественной регрессии, проблема их спецификации и последствия ошибок. Методическое и информационное обеспечение множественной регрессии. Числовой пример модели множественной регрессии.

    курсовая работа [3,4 M], добавлен 10.02.2014

  • Современная экономическая теория. Экономические процессы. Использование моделирования и количественного анализа. Выражение взаимосвязи экономических явлений и процессов. Определение, объект исследования, основные принципы, цели и задачи эконометрики.

    реферат [19,3 K], добавлен 04.12.2008

  • Регламентация основ разработки сложных систем. Классификация структурных методологий и их примеры. Основные этапы подхода Мартина. Методологии структурного анализа Йодана/Де Марко и Гейна-Сарсона. Сравнительный анализ SADT-моделей и потоковых моделей.

    реферат [81,5 K], добавлен 05.10.2012

  • Функция и экономическая деятельность предприятия. Сущность методов статистического анализа. Технологии проектирования имитационных математических моделей по оценке и анализу финансового состояния предприятия, экономическая эффективность от их внедрения.

    дипломная работа [1,1 M], добавлен 12.12.2011

  • Общие принципы системного анализа. Основные этапы построения эконометрических моделей и использования их для прогнозирования. Экстраполяция трендов и ее использование в анализе. Правила составления информации подсистем. Модель "спрос-предложение".

    реферат [190,5 K], добавлен 24.01.2011

  • Задачи, функции и этапы построения экономико-математических моделей. Аналитические, анионные, численные и алгоритмические модели. Экономическая модель спортивных сооружений. Модели временных рядов: тенденции и сезонности. Теории массового обслуживания.

    реферат [167,6 K], добавлен 22.07.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.