Экономическая кибернетика

Системы, модели и их классификация. Управление: виды, принципы и законы. нформация: ее количественное измерение, неопределенность, семиотика. Экономическая система и ее идентификация. Основные принципы анализа и синтеза моделей экономических систем.

Рубрика Экономико-математическое моделирование
Вид учебное пособие
Язык русский
Дата добавления 08.11.2008
Размер файла 380,5 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Нельзя говорить, что система созревает до более организованного состояния, если фактически процесс энтропии заставляет ее дезинтегрировать - терять сложность. Предположим, что мороженый пудинг совершенной формы вытащен из холодильника и оставлен в теплой комнате. Согласно этому определению, система будет вызревать к состоянию, в котором тарелка будет заполнена текучей жидкостью, которая должна быть в этом случае объявлена более организованной, чем она была прежде. Если этот результат противоречит обычному подходу, что он и делает, причина не в том, что ссылка на сложность быт опущена. Мороженый пудинг действительно развился до более вероятного состояния чем прежде, и следовательно более, а не менее организован относительно окружающей среды. Нет; то, что было опущено - это ссылка на цели пудинга.

Это фактически целенаправленный контекст системы, который определяет, должна ли система быть названа совершенно организованной или полностью дезорганизованной. Уровень организации, соединяющий эти крайние состояния, градуирован пригодностью системы к достижению цели. Целая единица описания мороженого пудинга - это то, что он должен быть (относительно) холодным, и сохранять формующуюся форму. Осознание цели, таким образом, определяет физическое состояние, которое будет считаться "совершенно организованным" на шкале. В этом понимании, пудинг, который распадается в теплом месте, в конце концов, потеряет организацию, что удовлетворяет традиционным представлениям. Но энтропия системы возрастает, и мы сказали, что это означает, что организация также должна увеличиться. Какое решение этого парадокса?

Ответ в том, что пудинг никогда не должен быть извлечен из холодильника. В процессе его извлечения, целенаправленный контекст был изменен. Пудинг был настроен на программу "адаптация" к теплой комнате, к выполнению которой он приступил - вследствие чего эта система созрела". Если пудинг намеревается остаться холодным, сохранить форму, тогда уместная окружающая среда, к которой он должен адаптироваться - холодильник. Все сказанное означает, что, если максимальная энтропия определяет созревание и, следовательно максимальную организацию, то контекстуальная система (S), состоящая из первоначальной системы (л), взаимодействующей с непосредственной окружающей средой (е), должна быть определена относительно цели первоначальной системы (s). Если и только если так определено, то частные значения для уравнения энтропии (тавтологически) указаны так, что процессы энтропии направляют систему (s) к максимально организованному состоянию и никуда больше. Это в свою очередь означает, что система (s) и окружающая среда (е) рассматривается как относительно изолированная система (S} внутри большей окружающей среды (Е).

При анализе первоначального парадокса, становится ясно, что система (s), получающая относительно окружающей среды (Е) энтропию - это пудинг, который тает в теплой комнате и становится более организованным относительно нее. Когда мы говорим, что эта концепция организации бесполезна, мы подразумеваем, что цель пудинга состоит в том, чтобы быть холодным и отформованным; он, следовательно, изолирован от комнаты при помощи окружающего его холодильника. Энтропическая девиация внутри этой системы определена соотношением (s - е). Поскольку е более холодная чем s, пудинг становится более организованным в допустимом смысле (то есть относительно цели). В чем же состоит назначение большей окружающей среды (Е), комнаты снаружи холодильника?

С точки зрения системы (s - е), которая также является точкой зрения наблюдателя пудинга, комната - источник возмущений окружающей среды, целью которого служит подавление: она - разрушитель пудингов. Теперь конечно холодильник в частности является механизмом достижения гомеостазиса в контуре (s е) вопреки внешним возмущениям внешней среды. Система (s е) ультраустойчива. Все типы непрограммируемых возмущений могут быть реализованы в наружной части комнаты противниками мороженых пудингов. Они могут разжигать огонь на полу (которого не ожидал проектировщик холодильника); они могут замораживать комнату в надежде относительно усыпить бдительность холодильника, и затем быстро нагревать ее снова. Это все без толку. Мы, знающие, как работают холодильники, понимаем, что эта машина имеет внутренний механизм управления: равновесие восстанавливается в случае его потери.

Мы не приучены к пониманию того, что порядок более естественен, чем хаос. Люди ожидают, что природа будет хаотической, и думают о порядке как о чем-то привнесенном в природу умными людьми. Как в преобразовании беспорядка в порядок в физике, который мы, однако, объявили, более предпочтительным, чем преобразование порядка в беспорядок, так и в сфере живых существ. Уже достаточно много говорилось об экологическом равновесии; однако факт, что каждая экосистема, которая окружает нас, имеет собственную упорядоченность, продиктованную энтропией созревания, в общем не отмечен. Следующий пример сможет помочь осветить это положение. Это частный пример экосистемного управления, к существованию которого уже притягивается внимание.

Cabbage aphis - это тля. Она весит около миллиграмма, и питается, сидя на капустных листьях. Предположим, что в начале летнего сезона взята только одна тля. Начинается размножение (партеногенез). Тля размножается быстро и с большой фертильностью. Если ничто не повлияло на процесс, то есть, если вся тля в свою очередь жила и размножалась в условиях достаточности капусты, очевидно, что к концу сезона появилось бы относительно большое количество тли. Люди хорошо сознают, что этот экспоненциальный процесс размножения впечатляет, - но на сколько впечатляет? Какой бы вес тли оказался в результате эксперимента? Мы не знаем ответ, но подготовлены быть впечатленными общим количеством, которое, очевидно, могло бы достигать несколько тонн. Но согласно докладу Нью-Йоркской Академии Наук, на самом деле ответ - 822,000,000 тонны - который равен приблизительно пятикратному весу полного человеческого населения.

Этого фантастического распространения тли не произойдет; многочисленное потомство, которое является производительной силой тли, поглощается внутри экосистемы гомеостазисом. Не существует никакого "Контроллера Тли", никакого получения лицензий, никаких правил ни юридических, ни моральных с помощью которых можно предотвратить всемирное наводнение тлей (или совершенно любым другим животным). Не существует и процесса массового сокращения животной популяции вплоть до полного уничтожения целой разновидности. Это не хаос, а наиболее замечательный порядок. И он заключается в той упорядоченности, которую садовод совершенствует своим пестицидом - не для того, чтобы выстроить порядок из хаоса, как он может думать, а для того, чтобы внести локальное изменение в гомеостатическое равновесие одного набора выделенных подсистем. Это происходит посредством изменения локальных рамок подсистемы таким образом, что энтропическая девиация была направлена на разрушение тли. Управление системами с высоким многообразием всегда имеет отношение к формированию определения энтропии, которая обслуживает частные цели, и с определением успеха как завершенности системы с ее максимальной энтропией.

Представления о том, что самоорганизующаяся система становится тем, чем она является на основании тенденции, родственной энтропии, на самом деле существенны, и их смысл должен быть понят Вопрос, на который нужно ответить: что делает природу такой умной?

Раз уж свойство самоорганизации было определено, как структурное регулирование множества возмущений в контексте с множеством первоочередных целей, оно прекращает быть чем-либо "умным". Ум самоорганизующейся системы постоянно находится в умах наблюдателей, которые пытаются представлять себя определяющими правила: они останавливаются перед трудностью этой задачи. Как можно было бы, например, запрограммировать пчелу строить медовые соты в виде шестиугольной решетки? Или каким образом - и действительно как - можно было бы запрограммировать облако горячего газа в космосе, чтобы обеспечить сохранение равновесной температуры превышающей 6000°С? Предполагается, что мы придерживаемся наших знаний естественных законов и отказываемся заниматься таким бессмысленным занятием, как исследование природы этого программирования, мы можем понять, как такие приемы применяются. Это не более, чем попытка рассмотреть, как самоорганизующиеся системы могут быть созданы и области управления. Таким образом, поскольку концепция энтропии была представлена различными способами, будет полезно получить более-менее точное ее определение.

В классической термодинамике, понятие энтропии объясняется примерно так. Имеется система, состоящая из частей, некоторые из которых более теплые, чем другие. В каждый элементарный момент времени, крошечное количество теплоты изменяет свое местоположение в этой системе (пока, в конце концов, полностью не перераспределится). Значение количества теплоты, которое переносится, имеет прямое отношение к общей температуре системы в это время. Это соображение, которое дает классическую математическую формулировку для энтропии:

.

Теперь, когда теплота обменивается на основе энтропической девиации, каждое из состояний на пути от несбалансированной системы до выровненной системы может быть достигнуто бесчисленным числом способов. То есть, поскольку теплота выравнивается по стадиям, нет необходимости знать, где каждая конкретная частная молекула находится на любой стадии. Если бесчисленных способов, о которых говорилось, g, и все они равновероятны, то энтропия возрастает с логарифмом g. Это - формулировка энтропии, которая может быть найдена в статистической механике, и она записывается даже проще:

S = k log g,

где k - константа, постоянная Больцмана, если быть точным.

Очевидно, любая система имеет большое количество возможных состояний, которые в данный момент мы считаем равновероятными. Так что энтропия системы - это логарифм вероятности того, что система находится в данном состоянии. Когда система полностью созрела (как это было описано ранее), это означает, что она находится в наиболее вероятном состоянии. Так что энтропия - это естественная "сила" которая несет систему от невероятного состояния к вероятному.

Чтобы извлечь всю пользу из этого открытия, мы должны оценить энтропию в виде, который учитывал бы то, что все состояния системы в большинстве случаев не в равной степени вероятны. Рассмотрим состояние i. Вероятность Р, того, что система находится в состоянии i, меньше единицы, так как она могла бы быть в каком-то другом состоянии. Так что выражение для S с учетом вышесказанного должно быть перезаписано, чтобы согласовать сумму всех возможных состояний, измеряя вероятность каждого. Следовательно,

.

Для проверки предположим, что имеются только четыре возможных состояния системы, и что каждое является фактически в равной степени вероятным. Тогда новое будет иметь вид:

S = -k 4 ј log ј = k log ј,

которое задается первоначальным выражением.

Эта классические выражения даются исключительно как помощь для понимания; мы не будем начинать вычислять их. Дело в том, что система имеет тенденцию двигаться от менее к более вероятному состоянию, и темп этого изменения пропорционален логарифму отклонения вероятности в любой момент времени.

Теперь становится понятно, что энтропическое движение переводит структуру экосистемы к модели, которая гарантирует равновесие между системой и окружающей средой. Если наблюдатель определил набор целей соответствующий его стремлениям, и выразил энтропическую девиацию, которая соответствует этим потребностям, он выровняет самоорганизацию системы. Затем он обращается к изменениям, проявляющимся как доказательство управления, которые с его точки зрения действительно являются таковыми. Несомненно, если система движется к тому, что он принимает за желаемый результат, она - "управляема". Кроме того, управление, которое было проявлено в процессе самоорганизации, пропорционально "самоосведомленности" системы о собственном неправдоподобии - измеряемом по отношению к наиболее вероятному состоянию завершенности. Термин "самоосведомленность", несомненно, также может использоваться; для системы находящейся в процессе самоорганизации, и для наблюдателя, движение должно выглядеть эволюционным и целенаправленным. Наблюдатель проектирует свое собственное видение цели системы. Таким образом, система кажется наблюдателю управляемой в соответствии с уровнем самоосведомленности - то есть информации относительно себя самой, - который она проявляет. Или, если быть точным: степень проявленного управления пропорциональна логарифму количества эффективной информации, доступной системе.

Эти заключения могут быть проверены в случае с пчелами, которые "должны быть запрограммированы", чтобы строить шестиугольные соты, и облаком горячего газа, которое "должно быть запрограммировано" сохранять высокую температуру. Каждая из этих систем - фактически самоорганизованная, их "управление" заключается в энтропической девиации. Фактически, они не должны программироваться; им необходимо лишь определить, чем они являются на самом деле.

Рассмотрим пчелу. Она выделяет воск, и строит свою соту, быстро вращаясь среди воска. Таким образом, о пчеле можно думать; как об окруженной герметической оболочкой в форме цилиндра воска. В таком случае вопрос состоит в том, как они должны быть запрограммированы, чтобы конструировать шестиугольную соту? Настаивать на ответе на данный вопрос - значит оставить наблюдателя биться над загадкой "ума" пчел. В этом случае пчеле должна быть известна математика; они должны общаться друг с другом в математических терминах. В этом случае пчела - чрезвычайно умна; хотелось бы конструировать компьютеры настолько же изобретательными. Но проблема совершенно необъективна. Цилиндры, после того как они сформировались, сплющиваются вместе под действием гравитационного поля. Следовательно, каждый будет смещаться вниз, насколько он сможет. Если бы имелись какие-либо промежутки, вращаясь пчелы заполнили бы их. Предположим, что первая пчела спускается к этому нижнему слою: она вполне может опуститься на спину другой пчеле. Но это - исключение; фактически рой пчел одновременно работает на всех уровнях, так что рассмотренная пчела с трудом сможет сбалансировать свою соту в неустойчивом равновесии на низлежащей - она будет низвержена со своего насеста. Очевидно, второй слой пчел неизбежно устроится в углублениях между пчелами слоя основания. И так далее.

Теперь рассмотрим пчелу, занятую всей этой деятельностью. Она находится в углублении, сформированном двумя пчелами низшего уровня; она касается двух пчел с обеих сторон (делая три соты в ряд на ее уровне); и так что еще две пчелы в верхнем уровне находятся в углублениях, вследствие этого образования. Следовательно, ее соты касаются тангенциально шесть других сот, равноотстоящих от нее. Воск по прежнему мягкий, и капиллярные силы вынуждают дуги окружностей сходиться друг к другу. Сотовая структура, которая выглядит настолько изобретательной, является просто экосистемой.

Самоорганизующаяся система в этом случае названа организованной, потому что она удовлетворяет критериям наблюдателя проекта: она обладает эстетически удовлетворительной регулярностью; она обладает превосходной экономией (максимум пчел в минимуме пространства), и, следовательно, выглядит целенаправленной для экономного гражданина. Она организовывает себя энтропическим процессом, однако, без применения мыслящей или хотя бы инстинктивной плановой функции. Для организации она подвергается выравниванию в системе под воздействием трех обобщенных сил: гравитация, капиллярность и случайное движение. Заметьте, как необходимое многообразие в "блоке строительства шестиугольников", которого не существует, снабжает систему таким количеством пчел, каково их общее число - не трудное для выполнения условие. Заметьте, что управляющие инструкции, необходимые для конструирования шестиугольников, определяются однородным преобразованием для каждой пчелы: "падай, толкайся, цепляйся".

В размышлениях об управлении, кажется, люди слишком механичны и самосозерцательны. Идеи механичны, потому что в разработке мы не достигаем результатов, если части системы не действуют совершенно предопределенным образом: инфраструктура работающей машины должна быть полностью определена. Идеи управления самосозерцательны , потому что наиболее внушительная естественная система в глазах человека - это он сам, и он управляется мозгом. Следовательно, если система находится под управлением, организованна, мы стремимся искать коробку, которая содержит "задания", "программы", "компьютер". Но наибольший урок кибернетики то, что наиболее типично - в природе нет такой штуки. Естественные системы организовывают себя в течение времени, чтобы быть тем, чем они в действительности являются. Для наблюдателя, который определяет критерии, по которым результат будет назван организованным, этот процесс кажется похожим на обучение или, в общем, на адаптацию. Фактически, это - процесс энтропии.

Нет ничего особенно замечательного в поиске системой более вероятного состояния по сравнению с менее вероятным состоянием которым она обладает в любой конкретный момент. И со статистической точки зрения, состояние любой системы обычно в достаточно высокой степени невероятно. Конечно, мы также не распознаем этого. Говоря обычным языком, вещи, которые имеют тенденцию, чтобы считаться более вероятными, являются таковыми потому, что они такие есть. Что произойдет, если четыре человека сидят и играют в бридж, и случиться, что каждому выпадет на руки целая масть? Учитывая, что игроки доверяют друг другу и не предполагают наличия шулерства, они станут очень возбужденными; они могут писать в газеты, чтобы обсудить астрономически неравные шансы против этого случая. При этом, однако, они не остановятся, чтобы подумать, что это частное распределение карт не более невероятное, чем частное распределение, полученное в каждой отдельной партии, которую они когда-либо засвидетельствовали. Любое частное распределение в высокой степени невероятно; однако любое частное распределение может быть получено совершенно легко, простой раздачей карт. Волнение образовано распознаванием случая, когда целая масть падает каждому игроку.

Теперь механизм самоорганизации становится, в конце концов, ясным, когда стало понятно, что система должна быть признана организованной, когда она в наиболее вероятном состоянии. Главный пример этого встречается в процессе роста. Зерно должно рассматриваться как усилитель многообразия, поскольку оно несет в себе описание чего-то большего, чем оно само. Но оно также несет в себе временный план роста завершенности: самоорганизующуюся способность. Этот план не только определяет набор архитектурных связей, он определяет критерий завершенности. То есть любая органическая семенная программа, которая начинает и управляет ростом, "знает, когда остановиться". Эта способность применяется не только к макроструктуре, так, чтобы Вы и я были приблизительно правильного размера, чтобы быть распознаны как люди; она также применяется к инфраструктуре организма: каждая конечность, каждый орган, каждое волокно ткани должно быть очерченным, от черепа до кончиков ногтей, растет к пределу.

В течение роста, дальнейший рост определяется следующим: развитие (за исключением протекающего под массивным вмешательством снаружи) не может быть приостановлено, пока план не выполнен. В этом диапазоне, частично выросший организм находится в маловероятном состоянии, и двигается к наиболее вероятному состоянию - взрослому состоянию. Рост может быть расценен, таким образом, как процесс энтропический. Процесс роста останавливается, когда генетическая информация исчерпана, в действительности, целиком и полностью обменяна на потенциал. Любая форма уравнения энтропии сможет формализовать этот процесс.

Рост, в этом случае, является самоорганизующейся деятельностью системы, в которой эта система "учится быть тем, чем она является". Семя "целенаправленно борется", чтобы высвободить взрослого, заточенного в него. Для семени необходимое многообразие - это гепатит, который оно непрерывно усиливает, генерируя большее количество многообразия из относящегося к окружающей среде входа для формирования фенотипа. Однако генотипическому многообразию предшествует в свою очередь необходимое многообразие; количество информации и упорядоченность определены родительским генетическим шаблоном. Таким образом, процессы воспроизведения и роста означают развитие некоторой организованной структуры, которой мы назвали организацию, через природу и через время, вдоль интервала жизненного цикла для каждого индивидуума. Обмены энергии объясняют эту возможность в терминах функционирования организма, но только энтропические обмены могут объяснять функционирование организации без быстрой деградации в поколениях потомков. Организация фактически сохраняется от родителя к потомству Доставками негэнтропии в окружающую среду, которую генератор многообразия в организме может использовать. Так становится возможной эволюция, так степень организации двигается против потока энергии, а увеличивается с энтропией. Таким образом, эволюция, так же как рост непосредственно, является самоорганизующейся характеристикой.

Становится все более очевидным как аргумент, что свойства живых организмов, которыми мы больше всего восхищаемся и пытаемся понять параметры самоорганизующихся систем. Обучение и адаптация, рост и эволюция, возникают в энтропических процессах, которые требуют наличия "контрольных центров", но используют всеобъемлющие естественные законы. Все они основаны на свойства» механизма выравнивания, гомеостата.

Затем было выдвинуто утверждение, что целенаправленная при. рода этих жизненных характеристик проектируется на систему наблюдателем, который интерпретирует энтропию в телеологических (целенаправленных) терминах. Сущность идеи состоит в том, что поскольку системы, управляемые природой в направлении выравнивания энергии, и поскольку организация сохраняется в этом процессе по причинам уже обсужденным, эти системы сопротивляются против возмущений. Наблюдатель, интерпретируя это, заявляет, что гомеостатическая система имеет адаптивные возможности: потому что, хотя окружающая среда изменяется все время, организм увековечивает собственную структурную идентичность, организацию. Аналогично, когда наблюдатель замечает сохранение идентичности по поколениям, сопровождаемым длительным увеличением в организации, он заявляет, что гомеостатическая система имеет эволюционные возможности. Вид выживает, и увеличивает целесообразность выживания в этом процессе. Эти способности целенаправленны, по мнению наблюдателя, только потому, что он может видеть, что они способствуют выживанию. Принимая во внимание влияния, которые очевидно атакуют, адаптирующийся организм и развивающуюся разновидность, наблюдатель думает об успехе в обоих случаях как о высоко невероятных событиях: вследствие его целенаправленных объяснений. Как было показано, однако, успех не невероятен (в среднем), но возможен; потому что невероятность не более невероятна, чем любая альтернативная невероятность, и в любом случае они перемещаются непрерывно к более вероятным состояниям все время.

Отметим, что эти объяснения целенаправленных механизмов далеко не объясняют "цель". Они не уверяют нас в том, что самоорганизующиеся системы не целенаправленны, а только говорят, что имеется естественный механизм, которому дано имя цели. Как каждый может его интерпретировать, это - субъективное понятие и оно должно зависеть от соответствия и согласования со словом "цель". Так, например, не представляется возможным, основываясь на данной главе ни делать атеистические, ни теологические выводы. Но может быть, необходимо сказать то, что должно быть объяснено, или теистически или атеистически, - не ум или сила стремления организма к поиску выживания, но существования, универсальности и простоты закона энтропии.

Энтропическим процессом, который ведет самоорганизацию, является гомеостазис, но мы научились здесь не думать о нем как о слепом. Жизнеспособные регуляторы управляются энтропией, но генерирование многообразия, производящее распространяющиеся состояния, из которых должны быть отобраны успешные, содержится вне системы. Часть этого влияния, несомненно, датирует задним числом собственное поведение системы посредством коенетических переменных, как обсуждалось ранее. Коенетические переменные уменьшают распространяющееся многообразие, резервируя некоторые подмножества возможного диапазона множества состояний. Во-вторых, многообразие уменьшено на обратную связь уничтожающего вида, основанную на экологически проверенных мутациях.

В-третьих, многообразие сокращено механизмом обучения, который обеспечивает мнимую случайность мутаций, вследствие чего происходит создание эпигенетического ландшафта, как в теории Ваддингтона.

Экосистема - это чувствительная мутация. Она дает гомеостату задачу, которая, наконец, может быть выполнена в доступное время. Вид может развиваться, индивидуум может обучаться. Жизнеспособная система, любого вида, может адаптироваться. Это - устройство управления, которое выбирает случайное из случайности. Вместо значения "совершенно непредсказуемый по форме и содержанию", случайный означает "в значительной степени предсказуемый по форме, но не по содержанию". И обучение, и адаптация, и эволюция -действительно стохастические процессы, контролируемые и обусловленные специальными обратными связями через алгедонические контуры.

Принципы и законы управления

Подведем некоторые итоги обсуждения концепции управления, содержание которого определяется, прежде всего, целью, ради достижения которой оно осуществляется. Сущность управления близка его содержанию и характеризуется целенаправленностью, присущей любам видам систем и процессов управления. Управление реализуемся в системах различной природы, в специфических условиях, что создает сложности в процессе их исследования. Методологической базой исследования систем и процессов управления является комплекс принципов, учет которых обеспечивает многообразие, актуальность и эффективность их применения. В главе 3 были рассмотрены следующие принципы, собранные в таблице 3.1.

Таблица 3.1. Принципы и законы управления

Принципы и законы исследования

систем управления

Принципы и законы исследования

процессовуправления

Целостность

системный подход

организованность

динамичность

управляемость

оптимальность

многокритериальность

многофункциональность

необходимое разнообразие

внешнее дополнение

иерархичность управления

адаптивность управления

обязательность обратной связи

управление воздействием на главный фактор

принятие решений на основе отбора и преобразования информации

ГЛАВА 4. ИНФОРМАЦИЯ

Рассмотрим какую-нибудь большую систему, которая с кибернетической точки зрения представляет собой машину. По определению эта система является очень сложной. Степень сложности измеряется разнообразием системы. Термин разнообразие достаточно наглядно определяет число различимых элементов в системе. Рассмотрим теперь нашу кибернетическую систему как машину для переработки информации. По существу, очень часто это именно то (даже прежде всего то), чем кибернетическая машина и является. Даже в том случае, когда в нее входит какой-либо физический механизм (например, как в экономику или мозг), совершенно очевидна роль, которую играет способность хранить, передавать и преобразовывать информацию в работе этого механизма. Такая машина для переработки информации обладает большим разнообразием, а, следовательно, характеризуется большой неопределенностью. Здесь следует напомнить, что системы очень сложного типа, как уже было указано, описываются при помощи аппарата теории вероятностей. Таким образом, с увеличением разнообразия увеличивается число возможных состояний системы и усложняется ее математическое описание.

Машина в первоначальном состоянии полна неопределенности, ее поведение хаотично. Однако, как только машина начинает работать, в ней появляется упорядоченность, которая начинает уничтожать царящую неопределенность. Эта особенность - появление информации - и позволяет нам управлять кибернетическими системами. Информация уничтожает разнообразие, а уменьшение разнообразия является одним из основных методов регулирования, и не потому, что при этом упрощается управляемая система, а потому, что поведение системы становится более предсказуемым. Наличие шума в системе ведет к увеличению разнообразия (а, следовательно, и неопределенности), не увеличивая содержащейся в ней информации.

Ст. Бир

Информация - (лат. informatio - разъяснение, изложение, осведомленность) неотъемлемый элемент любого процесса управления в экономических, технических системах, обществе, живом организме. Информация - такое же неотъемлемое свойство материи, как масса и энергия. Информация - одно из наиболее общих понятий пауки, обозначающее некоторые сведения, совокупность каких-либо данных, сообщений и т.п. Иначе, под информацией понимается сообщение устраняющее неопределенность в той области, к которой оно относится. Академик В.М. Глушков дал следующее определение: информация - это мера неоднородности распределения материи и энергии в пространстве и во времени, показатель изменений, которыми сопровождаются все протекающие в мире процессы. В общественной практике понятие информации отождествляется с содержанием какого-либо известия, которое может иметь форму устного сообщения, письма, доклада, результатов исследования, наблюдения и пр. Н. Винер писал, что в кибернетике информация понимается не только как обмен между человеком и машиной, но и как обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств.

Важнейшим инструментом исследования информации является теория информации, посвященная проблемам сбора, передачи, хранения, переработки и определения количественной меры информации.

Создателями теории информации явились Л. Хартли, К. Шеннон, А.А. Харкевич, С. Гольдман и др. Основы статистической теории информации сформулированы, главным образом, К. Шепноком. Но теория Шеннона оказалась применимой к довольно широкому кругу вопросов, хотя она и не претендует на адекватное отображение всего содержания информации, употребляемого в науке и в обыденной жизни в различном смысле.

Наличие различных методологических подходов к информации объясняется тем, что изучение информации находится в процессе развития. Разные точки зрения имеют свои положительные стороны и служат познанию окружающего мира в конкретной области исследования. Поскольку объектом исследования в кибернетике являются системы, конструируемые для решения определенных задач, то информацию определяют как сведения, полезные для решения задачи. Если сведения не имеют никакой пользы, то они представляют собой не информацию, а «шум». Если они отклоняют от правильного решения, то представляют собой дезинформацию. Рассмотрение информации как условия системного исследования позволяет выделить ряд ее важнейших свойств. В первую очередь, это полезность информации и наличие в ней смысла для данной системы. Важнейшим свойством информации является то, что она всегда имеет знаковое воплощение. Знак, какова бы ни была его природа, является материальным носителем информации. Приемник информации имеет способность к восприятию, преобразованию и воспроизводству знаков в определенном диапазоне, отведенном ему природой или конструкцией. Эти знаковые преобразования трактуются как переработка информации. В настоящее время используются различные технические устройства переработки информации. В этих устройствах информация преобразуется в различного рода сигналь с последующим ее восстановлением. Существенное свойство информации состоит в ее способности воплощаться в различные сигналы и восстанавливаться из них. Попытки качественного определения информации дополняются количественным определением, связанным с различными способами измерения информации.

Количественное измерены информации

Информацию можно измерить количественно, подсчитать. Для этого абстрагируются от смысла сообщения. Шеннон дал формальное определение количества информации на основе вероятностного подхода и указал критерий, позволяющий сравнивать количество информации, доставляемое разными сигналами.

Смысл заключается в том, что между сигналом и событием существует однозначная связь. Совокупность сигналов является изоморфным отображением некоторых сторон реального события. Связь сигнала с событием воспринимается как смысловое содержание сигнала или сообщения, сущность которого состоит в том, что благодаря ему получатель побуждается к выбору определенного поведения. Всякое сообщение может рассматриваться как сведения об определенном событии х, в момент t. Это событие содержит данные о том, в каком из множества возможных состояний находилась система S в момент времени t. Процесс связи предполагает наличие множества возможностей. У.Р. Эшби приводит следующий пример.

Заключенного должна навестить жена. Сторож знает, что она хочет сообщить мужу, пойман ли его сообщник. Ей не разрешено делать никаких сообщений. Но сторож подозревает, что они договорились о каком-то условном знаке. Вот она просит послать мужу чашку кофе. Как сторож может добиться, чтобы сообщение не было передано? Он будет рассуждать так: может быть, она условилась передать ему сладкий иди несладкий кофе, тогда я могу помешать, добавив в кофе сахару и сказав об этом заключенному. Может быть, она условилась послать или не послать ему ложку, тогда я помешаю, изъяв ложку и сказав ему, что передача ложек воспрещена. Она может послать ему не кофе, а чай, но все знают, что в это время выдается только кофе. Как видно, сторож интуитивно стремится пресечь всякую возможность связи. Для этого он сводит все возможности к одной - только с сахаром, только без ложки, только кофе. Если все возможности сведены к одной, связь прерывается, и посылаемый напиток лишен возможности передать информацию. Из этого примера видно, что передача и хранение информации существенно связаны с наличием некоторого множества возможностей.

Кроме того, информация, передаваемая отдельным сообщением зависит от того множества, из которого оно выбрано. Например, два солдата находятся в плену - один в стране А, другой в стране В. Им разрешили послать женам телеграммы с содержанием «Я здоров». Однако известно, что в стране А пленным разрешается выбирать следующие сообщения: я здоров, я слегка болен, я серьезно болен. В стране В разрешается сообщать только: я здоров, означающее - я жив. Обе женщины получили одинаковую фразу, но они будут понимать, что полученная ими информация не является тождественной. Из этого примера видно, что передаваемая информация не является внутренним свойством индивидуального сообщения. Она зависит от того множества, из которого выбрана.

Сообщения могут быть непрерывные и дискретные. Непрерывные сообщения получают бесконечно малые приращения и совокупность последовательных символов не только не конечна, но и не поддается исчислению. Обычно в практике применяются

дискретные сообщения, под которыми понимается конечная последовательность символов, взятых из некоторого набора символов, называемого алфавитом. Каждый отдельный символ называется буквой алфавита.

Конечная последовательность символов, взятых из некоторого алфавита, называется словом. Использование дискретных сообщений позволяет передавать данные о состоянии, выбранном из сколь угодно большого числа возможных состоянии, посредством использования немногих различных символов из алфавита. Число этих символов называется основанием кода. Количество различных символов, из которых составляются слова, зависит от основания кода. Общепринятая арабская цифровая система придает специальное значение числу 10. Однако десятичная система счисления оправдывается только привычкой. В ряде европейских и азиатских стран, а также в России до начала XX века в какой-то мере использовали представление чисел в двоичной системе. Оказывается, что любое сколь угодно сложное сообщение, можно успешно передавать при помощи последовательности, построенной из двух различных символов. Во всем мире принято два символа: 0 и 7, которым соответствуют 0 -- отсутствие сигнала, 1 - наличие сигнала. Если система может находиться в одном из N различных состояний, множество которых x1 ,x2...,xN известно получателю сообщения, то для передачи сведений о состоянии системы достаточно указать номер i (i=1, 2 ,..., N) состояния, в котором она находится. Этот номер представляет собой слово в алфавите, буквами которого являются цифры. Американская телефонная компания Белла воспользовалась этим и построила вычислительную машину, в основу которой положено двоичное счисление. Вместо того; чтобы записывать число в виде суммы стольких-то единиц, стольких-то десятков, стольких-то сотен, с таким же правом можно представлять целое число в виде суммы единиц, двоек, четверок, восьмерок и т.д.

При этом всякое число i может быть записано в таком виде:

где каждое а может принимать только два значения: 0 или 1. Эта запись означает:. Если число в десятичной записи составляет i=35, то в двоичной записи оно имеет следующий вид: i=100011. Если это число записать снова в десятичной системе счисления, то получим:

35 =1*32 +0*16 +0*8 +0*4 +1*2+1.

Запись чисел от 1 до 15 в двоичной системе счисления имеет следующий вид: 1, 10, 11, 100, 101, 110, 111, 1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111, а число 27 передается последовательностью символов 11011. Из приведенных примеров видно, что сообщение о любом событии может быть записано в виде слова в двухбуквенном алфавите. Различных двоичных последовательностей длины m имеется 2m, так как каждый символ может принимать два значения независимо от других. С помощью двоичной последовательности длины m можно передать сообщение о событии, выбранном из N возможных событий, где N=2m, или иначе:

m = log2 N .

Если передавать то же сообщение не двоичным кодом, а десятичным, то потребовалась бы последовательность длины =log10 N . При этом m'~m. Из этого видно, что m отличается от m' постоянным множителем, независящим от N. Выбор коэффициента пропорциональности сводится к выбору основания логарифмов и одновременно означает выбор единицы количества информации. Обычно берутся логарифмы по основанию 2. В этом случае за единицу принимается количество информации, которое заключается в одном двоичном разряде, т.е. выборе одного из двух возможных сообщений. Такая единица информации называется битом. Слово “bit” является сокращенным от английского слова “binary digit”, что означает Двоичный разряд. Двоичную единицу, или бит можно представить себе как неизвестный заранее ответ «да» или «нет» на вопрос, ответ на который мы никак не можем предсказать и поэтому вынуждены считать оба ответа равновероятными. Поэтому в немецкой литературе эту двоичную единицу называют «да - нет» (ja Nein-Emheit). Если событие имеет два равновероятных исхода, то это означает, что вероятность каждого исхода равна 1/2. Сообщение о том, что родился мальчик или девочка несет информацию равную 1- (0.5 мальчик + 0.5 девочка). Кроме представления чисел с помощью двоичных индикаторов (устройство, которое в любой момент времени может быть только в одном из двух возможных состояний: 1 либо 0), каждую десятичную цифру можно представить с помощью четырех двоичных цифр, которое называется двоично-кодированным десятичным представлением. Такое представление требует не меньше битов, чем обычное двоичное.

Минимальная единица информации, которую обрабатывают ЭВМ, называется байтом. Эта единица заключает в себе один символ. Символы существуют трех типов: цифры - 0, 1, 2, ... , 9, буквы Аа, ВЬ, ..., Zz. Специальные символы -,*,=, +; пробелы и др. Всего имеем 256 различных символов. Символ представляется двумя десятичными цифрами, которые в современных ЭВМ помещаются в один байт. Байт состоит из девяти битов. Восемь битов для представления информации и один бит - для проверки на четность. Восемь битов могут представлять восемь двоичных цифр или две десятичные цифры в двоично-кодированном десятичном представлении, например, число 31 представляется как 00110001, где 0011 представляет цифру 3, а 0001 - цифру 1. Бит проверки на четность добавляется к каждому байту таким образом, чтобы полное число составляющих его единиц было всегда нечетным. Нечетность служит проверкой на точность. Когда байт пересылается внутри ЭВМ, производится проверка, представляет ли он правильный код. Если он окажется четным числом единиц, то машинный контроль сообщает об ошибке. В теоретических исследованиях при определении количества информации удобно пользоваться не двоичными, а натуральными логарифмами. Соответствующая единица информации называется натуральной единицей, сокращенно «Нит» или «Нат». Если при определении количества информации пользуются десятичными логарифмами, единичную информацию получают, выделив сообщение из 10 равновероятных сообщений. Соответствующая единица информации называется децитом (decimal -- digit -- десятичный символ).

Количество информации в расчете на единицу времени называется скоростью передачи информации и исчисляется, например, в бит/сек.

Каким бы ни было основание кода, длина последовательности, необходимой для передачи некоторого сообщения, пропорциональна логарифму числа возможных сообщении. Если статистические связи между символами отсутствуют, то максимальное количество информации (Hmax) которое содержится в сообщении, пропорционально длине:

Эта мера максимального количества информации, которое может содержать в сообщении, предложена к 1928 г. американским ученым Л. Хартли. Мера максимального количества информации облачает двумя важнейшими свойствами: она монотонно возрастает с возрастанием N и является аддитивной. Свойство аддитивности означает следующее: сообщение а выбирается из N1 возможных сообщений, независимое от а сообщение b выбирается из N2 возможных сообщений. Информация, которая содержится в сложном сообщении, состоящем из сообщения а и сообщения b, зависит от числа возможных сложных сообщений, их N = N1 *N2. Отсюда:

Очевидно, что в сложном сообщении содержится сумма информации, которую несут отдельные сообщения, что согласуется с интуитивными представлениями.

Величина Nmax указывает верхнюю границу количества информации, которое может содержаться в сообщении. Однако действительное количество информации зависит не только от числа возможных сообщений, но и от их вероятностей. Заслуга К. Шеннона состоит в том, что он указал на существование неопределенности относительно того, какое именно конкретное сообщение из множества сообщений отправителя будет выбрано для передачи. Это связывает информацию с теорией вероятностей. Оценка количества информации основывается на законах теории вероятностей. Сообщение имеет ценность, оно несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. При этом ценность информации в основном определяется степенью неожиданности сообщения.

Оказалось, что состояние неопределенности выбора обладает измеримой количественной оценкой, называемой энтропией источника сообщений (Н). Вероятность можно описать как частоту появления «Ио данного исхода в длинной серии однотипных испытаний.

Неопределенность

Понятия возможности, случайности, вероятности находятся в определенном отношении с понятием неопределенности. Неопределенность существует объективно. Она всегда имеет место тогда, когда производится выбор из некоторой совокупности элементов одного элемента. Степень неопределенности выбора характеризуется отношением числа выбранных элементов к общему числу элементов совокупности (множества). Если множество состоит из одного элемента, то степень неопределенности равна нулю. Вероятность выбора в этом случае равна 1. Множество из двух элементов имеет вероятность выбора, равную p=1/2. Степень неопределенности здесь будет равна 2. Вообще увеличение числа элементов в множестве ведет к росту степени неопределенности и к уменьшению вероятности выбора одного элемента. Бесконечное число элементов в множестве соответствует бесконечной неопределенности и нулевой вероятности. Из этого видно, что степень неопределенности и степень вероятности связаны друг с другом. Зная вероятность, можно определить степень неопределенности. Если мы должны угадать одно из 20 чисел, то, исходя из соображений равно возможности, вероятность угадать задуманное число будет составлять 1/20, а степень неопределенности равна 20. Однако при этом простой зависимости Н =1/p не получается (здесь Н - степень неопределенности и р - вероятность выбора элемента). При p = 0 степень неопределенности равна бесконечности:

Если же р = 1, то Н =1/1=1, что является неверным, так как при р=1 степень неопределенности должна быть равна 0, ибо в множестве один элемент выбирать не из чего. В связи с этим зависимость между неопределенностью Н и вероятностью р измеряется логарифмом величины 1/p:

(4.1)

При этом можно брать логарифмы по любому основанию, но принято брать логарифмы по основанию два.

Изучением степени неопределенности и связи ее с вероятностью занимается статистическая теория информации. Формула H= log21/p является логарифмической мерой количества информации. В теории информации рассматриваются любые события, в результате которых уменьшается, уничтожается, исчезает неопределенность.

Для оценки количества информации, связанной с появлением одного сообщения, пользуются формулой:

(4.2)

где pi - вероятность появления события Si.

Такую оценку индивидуального количества информации называют индивидуальной энтропией. Индивидуальная энтропия события тем больше, чем меньше вероятность его появления. Однако статистическую теорию информации не интересует индивидуальное количество информации. Существенной для характеристики любого опыта являются не информации n1, n2 ..., nN, связанные с отдельными исходами опыта, а средняя информация, которая определяется следующим образом.

Пусть для некоторого события х известно, что количество различных исходов равно N, а вероятности их равны соответственно p1, p2, …,pN, причем p1+p2+…+pN=1.

В результате достаточно большого числа испытаний (их число равно М) получено, что первый исход наступил m1 раз, второй - m2 раз,..., N-й - mN раз (m1+m2+…+mN=M). Известно, что в результате единичного наступления i-го исхода опыта получаем индивидуальное количество информации:

Поскольку первый исход наступил т, раз, то полученное при этом суммарное количество информации равно n1m1, где n1 - индивидуальное количество информации, полученное в результате одного наступления первого исхода опыта. Аналогично получаем суммарное количество информации, полученное при наступлении второго исхода опыта и т.д. Общее количество информации, полученное в результате M испытаний, равно

n1m1+n2m2+…+nNmN

а среднее количество информации, полученное в одном испытании, равно

При

Отсюда получаем среднее количество информации, характеризующее событие x:

Предположим, что опыт состоит в извлечении одного шара из ящика, в котором находится один черный и два белых шара. Исходя из классического подхода, вероятность выбора черного шара равна 1/3, а вероятность выбора белого шара равна 2/3. Среднее значение неопределенности получается, если вероятность отдельного исхода умножается на его неопределенность, и эти произведения складываются:

В общем виде формула степени неопределенности (количества информации в битах) имеет следующий вид:

(4.3)

Эта формула предложена в 1948 г. К. Шенноном. Ее называют еще формулой абсолютной негэнтропии. Она аналогична формуле энтропии, только имеет отрицательный знак.

Знак минус в правой части приведенного уравнения использован для того, чтобы сделать величину Н положительной (поскольку ). Понятие энтропии ввел немецкий физик-теоретик Р. Клаузиус в 1865 г. Термин происходит от греческого слова - entrope - «замкнуть внутри». Он обозначает меру деградации какой-либо системы. В 1872 г. австрийский физик Л. Больцман связал энтропию с вероятностью состояния. Изменения энергии в изолированной системе описываются вторым законом термодинамики, который был сформулирован следующим образом: теплота не может сама собою перейти от более холодного тела к более теплому. Cyть этого закона состоит в том, что способность изолированных систем совершать работу уменьшается, так как происходит рассеивание энергии. Формула энтропии определяет степень беспорядка, хаотичности молекул газа в сосуде. Естественным поведением любой системы является увеличение энтропии. Если энтропия имеет тенденцию к возрастанию, то система теряет информацию и деградирует. Чтобы система не деградировала, необходимо внести в нес дополнительную информацию (негэнтропию). Отсюда энтропия есть мера дезорганизацию а информация есть мера организованности. Всякий раз, когда в результате наблюдения система получает какую-либо информацию, энтропия этой системы уменьшается, а энтропия источника информации увеличивается.


Подобные документы

  • Основы теории продукционных систем: основные понятия и модели. Элементы теории живучести предпринимательства. Вариационные модели продукционных систем. Расчетная часть: компонентная модель продукционной системы и технологическая расчетная таблица.

    методичка [100,4 K], добавлен 08.11.2008

  • Теоретические основы экономико-математических задач о смесях. Принципы построения и структура интегрированной системы экономико-математических моделей. Организационно-экономическая характеристика и технико-экономические показатели работы СПК "Родина".

    курсовая работа [66,6 K], добавлен 01.04.2011

  • Классификация систем (по отношению ко времени и среде, обусловленности поведения, сложности), их основные свойства. Виды процессов в динамических системах. Кибернетические системы и законы их функционирования. Особенности нелинейных динамических систем.

    презентация [204,4 K], добавлен 19.12.2013

  • Использование математических методов в сфере управления, в традиционных экономических расчетах при обосновании потребностей в ресурсах, разработке планов и проектов. Основные признаки иерархической системы управления и количественная оценка решений.

    контрольная работа [57,0 K], добавлен 21.01.2010

  • Основы построения и тестирования адекватности экономических моделей множественной регрессии, проблема их спецификации и последствия ошибок. Методическое и информационное обеспечение множественной регрессии. Числовой пример модели множественной регрессии.

    курсовая работа [3,4 M], добавлен 10.02.2014

  • Современная экономическая теория. Экономические процессы. Использование моделирования и количественного анализа. Выражение взаимосвязи экономических явлений и процессов. Определение, объект исследования, основные принципы, цели и задачи эконометрики.

    реферат [19,3 K], добавлен 04.12.2008

  • Регламентация основ разработки сложных систем. Классификация структурных методологий и их примеры. Основные этапы подхода Мартина. Методологии структурного анализа Йодана/Де Марко и Гейна-Сарсона. Сравнительный анализ SADT-моделей и потоковых моделей.

    реферат [81,5 K], добавлен 05.10.2012

  • Функция и экономическая деятельность предприятия. Сущность методов статистического анализа. Технологии проектирования имитационных математических моделей по оценке и анализу финансового состояния предприятия, экономическая эффективность от их внедрения.

    дипломная работа [1,1 M], добавлен 12.12.2011

  • Общие принципы системного анализа. Основные этапы построения эконометрических моделей и использования их для прогнозирования. Экстраполяция трендов и ее использование в анализе. Правила составления информации подсистем. Модель "спрос-предложение".

    реферат [190,5 K], добавлен 24.01.2011

  • Задачи, функции и этапы построения экономико-математических моделей. Аналитические, анионные, численные и алгоритмические модели. Экономическая модель спортивных сооружений. Модели временных рядов: тенденции и сезонности. Теории массового обслуживания.

    реферат [167,6 K], добавлен 22.07.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.