Теория информации и кодирования: логические основы ЭВМ

Понятие информации и основные принципы ее кодирования, используемые методы и приемы, инструментарий и задачи. Специфические особенности процессов кодирования цифровой и текстовой, графической и звуковой информации. Логические основы работы компьютера.

Рубрика Программирование, компьютеры и кибернетика
Вид курсовая работа
Язык русский
Дата добавления 23.04.2014
Размер файла 55,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Теория информации и кодирования: логические основы ЭВМ

Введение

цифровой кодирование информация компьютер

Теоретической основой информатики является группа фундаментальных наук таких как: теория информации, теория алгоритмов, математическая логика, теория формальных языков и грамматик, комбинаторный анализ и т.д. Кроме них информатика включает такие разделы, как архитектура ЭВМ, операционные системы, теория баз данных, технология программирования и многие другие. Важным в определении информатики как науки является то, что с одной стороны, она занимается изучением устройств и принципов действия средств вычислительной техники, а с другой - систематизацией приемов и методов работы с программами, управляющими этой техникой.

Информационная технология - это совокупность конкретных технических и программных средств, с помощью которых выполняются разнообразные операции по обработке информации во всех сферах нашей жизни и деятельности. Иногда информационную технологию называют компьютерной технологией или прикладной информатикой.

Информация аналоговая и цифровая. Термин «информация» восходит к латинскому informatio, - разъяснение, изложение, осведомленность.

Информацию можно классифицировать разными способами, и разные науки это делают по-разному. Например, в философии различают информацию объективную и субъективную. Объективная информация отражает явления природы и человеческого общества. Субъективная информация создается людьми и отражает их взгляд на объективные явления.

В информатике отдельно рассматривается аналоговая информация и цифровая. Это важно, поскольку человек благодаря своим органам чувств, привык иметь дело с аналоговой информацией, а вычислительная техника, наоборот, в основном, работает с цифровой информацией.

Цель написания курсовой работы - изучить теорию информации и кодирования, а так же рассмотреть алгоритмы кодирования информации.

Для достижения цели были поставлены следующие задачи:

- образовательная - сформировать представление о базовых логических элементах, объяснять работу основных логических элементов;

- развивающие - развитие логического и комбинационного мышления, памяти, внимательности, формирование элементов графической культуры;

- воспитательные - воспитание познавательного интереса учащихся, умения слушать, аккуратности в работе, трудолюбия.

- изучения логических основ ЭВМ

- анализ полученной информации.

1. Теоретические основы проекта «Теория информации и кодирования: логические основы ЭВМ»

1.1 Понятие информации

Понятие информации часто встречается в деятельности людей. Можно сказать, что, сколько существует человечество, столько времени оно пользуется информацией. Жизнь каждого человека, так или иначе, связана с получением, накоплением и обработкой информации. Все профессиональные навыки и секреты мастерства отдельных специалистов по получению каких-либо материалов или изготовлению изделий представляют ни что иное как информацию, которая в течение нескольких поколений, бережно накапливалась, строго охранялась и передавалась, сохраняя секреты профессии. Информация имеет большое значение в современном мире. С каждым годом растет объем информации и величина информационных потоков. Особенно это характерно для науки, производственной деятельности и управления. Помимо увеличения объема информации, имеет место резкое увеличение скорости ее возрастания. Общая сумма человеческих знаний в XVIII веке удваивалась каждые 50 лет, к 1950 г. - каждые 10 лет, к 1970 г. - 5 лет, к 1990 г. - каждые 2-3 года, а к началу XXI век 1-2 года. Оценки показывают, что в настоящее время ежеминутно в мире делается от 15 до 20 изобретений.

До XX века основным предметом труда были материальные объекты. Экономическая мощь государства измерялась, прежде всего, его материальными и энергетическими ресурсами, а также средствами материального производства. В последнюю очередь экономическая мощь государства определялась наличием научно-технического потенциала. В настоящее время, одним из основных показателем становится информационные технологии, и мощь государства определяется теперь, в большей степени, наличием высококвалифицированных работников - ученых, инженеров, рабочих. Проведенная оценка сфер человеческой деятельности показывает, что более половины человечества в своей профессиональной деятельности, в настоящее время, занимается непосредственно работой, связанной с той или иной обработкой информации. Одной из важнейших проблем человечества является лавинообразный поток информации практически в любой отрасли его жизнедеятельности. Подсчитано, например, что в настоящее время специалист должен тратить до 80% своего рабочего времени, чтобы уследить за всеми новыми печатными работами в его области деятельности. Во всех областях человеческой деятельности приходится накапливать, собирать, обрабатывать и и пользовать информацию. Разнообразие и огромное количество информации, и также растущий спрос на нее, вызывает необходимость прибегать к разработке автоматизированных систем хранения, обработки и передачи информации.

При работе с информацией производятся самые разнообразные действия. Информация собирается, хранится, передается, анализируется, обобщается. Информация также распространяется, при этом она может перерабатываться и преобразовываться по форме и виду (например, кодируется или декодируется, текст озвучивается, звуковая или видеоинформация преобразуется в радиоволны, передается на соответствующий приемник и опять преобразуется в звуковую или видеоинформацию) и т.п. Достаточно специфическими действиями с информацией являются получение новой информации, а также продажа и покупка информации.

В понятие информации может быть вложен различный смысл. Существует несколько определений информации. Это обусловлено сложностью, специфичностью и многообразием подходов к толкованию сущности этого понятия. В бытовом смысле под информацией понимается сообщение, любые данные или знания, которые кого-либо интересуют. Практически, до середины XX века под информацией понимались сведения, передаваемые друг другу. Такое понимание информации основано на логико-семантическом подходе (семантика - изучение сообщения с точки зрения смысла), при котором информация трактуется как знание, причем не любое знание, а только та его часть, которая используется для принятия решений, активных действий и управления. В дальнейшем понятие информации получило более широкое толкование - это сведения, обмениваемые тем или иным способом между людьми, обмен сигналами между животными и растениями, передача сведений в живом мире на клеточном и генном уровне и т.п. Такое понимание информации рассматривает информацию как свойство (атрибут) материи. В производственной и научной деятельности под информацией также понимают сведения, которыми обмениваются люди между собой, человек и компьютер. Появление понятия информации связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Можно сказать, что сейчас, в широком смысле, информация - это отражение реального мира. В узком смысле информация - это любые сведения, являющиеся объектом хранения, передачи и преобразования. С точки зрения фундаментальных наук понятие информации является настолько общим и глубоким понятием, что оно не может быть определено через более простые - первичные понятия. Поэтому понятие информации является одним из фундаментальных основных понятий многих современных научных дисциплин (в философии существует даже такая философская категория как информация).

С практической точки зрения информация всегда представляется в виде какого-либо сообщения. Любое информационное сообщение обязательно связано с источником информации, приемником информации и каналом передачи сообщения. Процесс, который происходит при установлении связи между источником информации (генератором информации) и приемником информации (получателем), называется информационным процессом. Обмен информацией происходит по каналам передачи сообщений посредством сигнала. Сообщение от источника к приемнику передается в материально-энергетической форме (электрической, магнитной, электромагнитной или световой, акустической, тепловой, химической реакции или веществом и т.п.). Физическая среда, в которой может фиксироваться или накапливаться информация для последующей обработки или передачи и анализа называется носителем информации. Чаще всего информация существует в форме электромагнитных волн различной частоты (световых или радиоволн), акустических волн (звуков), электрического тока или напряжения, в форме магнитных полей или, что для нас более привычно, в виде каких-либо знаков на бумаге, жестов, поз и мимики (в животном мире), наличия определенных веществ. Сигнал - это материальный носитель информации (предмет, символ, физический или химический процесс, явление), распространяющийся в пространстве и времени. Полученный сигнал, каким-либо образом, перерабатывается получателем информации и воспринимается в смысловом значении для дальнейшего его использования, учета, обработки или передаче к другим получателям. В принципе, информацию может переносить любая материальная структура или поток энергии.

Таким образом, любой информационный процесс может происходить только в такой системе, в которой упорядочены и определенным образом связаны между собой ее элементы: источник, приемник, переработчик информации, а также каналы передачи информации или сообщений между ними. Упорядоченную совокупность таких элементов системы в дальнейшем будем называть информационной системой.

1.2 Кодирование

Под словом «кодирование» понимают процесс представления информации, удобный для ее хранения и / или передачи. Следовательно, запись текста на естественном языке можно рассматривать как способ кодирования речи с помощью графических элементов (букв, иероглифов). Записанный текст является кодом, заключающим в себе содержание речи, т.е. информацию.

Может существовать много способом кодирования одного и того же текста на одном и том же языке. Например, русский текст мы привыкли записывать с помощью русского алфавита. Но то же самое можно сделать, используя латинский алфавит. Иногда так приходится поступать, отправляя SMS по мобильному телефону, на котором нет русских букв, или элементарное письмо на русском языке за границу, если у адресата нет русифицированного программного обеспечения. Например, фразу «Здравствуй, дорогой Антоша!» приходится писать так: «Zdravstvui, dorogoi Antosha!».

Существует множество способов кодирования. Например, стенография - быстрый способ записи устной речи. Ею владеют лишь немногие специально обученные люди - стенографисты. Они успевают записывать текст синхронно с речью выступающего человека. В стенограмме один значок обозначает целое слово или сочетание букв. Расшифровать (декодировать) стенограмму может только сам стенографист.

Широко используемыми в информатики формальными языками являются языки программирования.

В некоторых случаях возникает потребность засекречивания текста сообщения или документа, для того чтобы его не смогли прочитать те, кому не положено. Это называется защитой от несанкционированного доступа. В таком случае секретный тест шифруется. В давние времена шифрование называлось тайнописью. Шифрование представляет собой процесс превращения открытого текста в зашифрованный, а дешифрования - процесс обратного преобразования, при котором восстанавливается исходный текст. Шифрования - это тоже кодирования, но засекреченным методом, известным только источнику и адресату. Методами шифрования занимается наука криптография.

Каждый, кто когда-нибудь смотрел кино об американском Западе XIX-го века, знает, что первым методом кодирования, широко применяемым для преобразования символов и текстов в электронный вид, был метод, предложенный Морзе. То, что этот метод кодирования был изобретён для передачи сообщений по телеграфным линиям, а не для обработки текстов в компьютерах, общеизвестно. Однако гораздо меньшее количество людей знает, что его изобретатель, американец Сэмюэл Финли Бриз Морзе (1791-1872), был также известным художником. В своё время он изучал рисование в Лондоне и там узнал об исследованиях электромагнетизма, проводимых британскими учёными. Возвращаясь по морю в США в 1832-м году, он задумал создать свою собственную систему телеграфа. Именно с этой системы началось движение в сторону того мира электронных сетей, в котором мы сейчас живём, и именно за её разработку Морзе снискал славу «американского Леонардо да Винчи». Морзе изобрёл метод кодирования, который он использовал для посылки своего исторического сообщения, в 1838-м году. Метод кодирования Морзе напоминает двоичный код, используемый в современных компьютерах, тем, что он тоже базировался на двух возможных значениях - в случае метода кодирования Морзе, это были точка или тире. Однако в отличие от современных методов кодирования, используемых для нумерации символов в современных компьютерах, комбинации точек и тире, используемые для представления символов в методе кодирования Морзе, были разной длины. Морзе использовал принцип, по которому наиболее часто употребляемым буквам ставились в соответствие наиболее короткие последовательности из точек и тире, что существенно сокращало длину сообщения. Например, наиболее часто используемой в английском языке букве «E» в методе кодирования Морзе соответствует одна точка; второй по частоте использования букве английского языка - «T» - одно тире. Интересно, что Морзе подсчитывал частоту использования букв не путём изучения текстов, а путём подсчёта литер каждого типа в типографском наборе. Результатом его поистине каторжного труда стал высокоэффективный метод кодирования, который с некоторыми изменениями используется до сих пор, хотя с момента его изобретения прошло уже более 160 лет.

Следующим существенным прорывом вперёд в технологии телеграфа был примитивный печатающий телеграфный аппарат, или «телетайп»; его запатентовал во Франции в 1874-м году Жан Морис Эмиль Бодо (1845-1903). Как и телеграф Морзе, это изобретение привело к созданию новой системы кодирования символов - 5-битного метода кодирования Бодо. Метод кодирования Бодо стал первым в мире методом кодирования текстовых данных с помощью двоичных последовательностей. Сообщения, для передачи которых использовалась система кодирования Бодо, распечатывались операторами на узкие ленты для двухканальной связи с помощью специальных 5-клавишных клавиатур. В более поздних версиях устройства использовались клавиатуры с буквами, которые уже автоматически генерировали соответствующую той или иной букве 5-битную последовательность. Другой особенностью телетайпа Бодо было мультиплексирование, обеспечивающее возможность одновременной работы до 6-ти операторов благодаря применению системы временного распределения. Это позволило значительно увеличить пропускную способность телеграфной линии. Предложенная Бодо аппаратура зарекомендовала себя весьма положительно и оставалась в широком применении в XX-м веке, пока её не вытеснили телефоны и персональные компьютеры. 1890-й год: американское Бюро статистики и появление в нём новой системы для кодирования символов.

Конец XIX-го века ознаменовался изобретением ещё одной системы для кодирования символов естественных языков. Он была создана в США для обработки данных, собираемых во время переписей населения, молодым американским* изобретателем, которого звали Герман Холлерит (1860-1929). После окончания Нью-Йоркской Колумбийской школы горного дела в 1879-м году, в 1880-м Холлерит устроился на работу в Бюро статистики при Министерстве внутренних дел США. Последствия этого, казалось бы, незначительного события сказывались впоследствии вплоть до 1970-х годов, «золотой эры» больших вычислительных машин. Герман Холлерит был ни кем иным, как изобретателем кода Холлерита, использовавшегося для записи алфавитно-цифровой информации на бумажных перфорированных картах. С появлением перфокарт в американских массах возникло шуточное выражение 'do not fold, spindle, or mutilate' («не гнуть, не тянуть, не мять»), которое оставляло у многих американцев впечатление, что компьютеры скоро будут полностью контролировать их общество.

В системе кодирования Холлерита, на первый взгляд, двоичная последовательность, соответствующая одному алфавитно-цифровому символу, регистрировалась в 12-ти горизонтальных рядах перфокарты, и поскольку каждый из рядов мог быть перфорирован или не перфорирован (содержать 1 или 0), это давало бы 12-битный метод кодирования. Максимально возможное количество элементов, которое могло бы быть представлено с помощью такого метода кодирования - 212, то есть 4096. На самом же деле таблица символов, используемая в системе Холлерита, содержала только 69 символов - это были заглавные латинские буквы, арабские цифры, знаки препинания и некоторые другие символы. Таким образом, реальные возможности системы кодирования Холлерита по представлению текстовых данных были сравнимы даже с таковыми возможностями системы кодирования Бодо. Зачем же тогда, спросит читатель, на перфокарте было предусмотрено так много горизонтальных рядов? Одной из причин этому является тот факт, что большее количество рядов позволяет кодировать данные, производя меньшее количество перфораций, а это было критично, так как работа с перфораторами карт в течение многих лет производилась вручную. Поскольку рядов было много, для кодирования каждой из 10 арабских цифр (а также 2-х букв латинского алфавита) было достаточно сделать всего одну перфорацию на один вертикальный ряд. Оставшиеся 24 буквы латинского алфавита кодировались с помощью двух перфораций. Для кодирования знаков препинания и прочих символов требовалось сделать 2 или больше перфораций, поэтому нередко они вообще не использовались.

Таблица 1. Система основных понятий

Представления информации

Языки представления информации

Естественные: русский, китайский, английский и др.

Формальные: язык математики, нотная грамота, языки программирования и др.

Кодирование

Цели кодирования

Засекречивание информации

Быстрый способ записи

Передача по техн. каналам связи

Выполнение математических вычислений

Шифрование

Стенография

Телеграфный код

Система счисления

Алгоритмы криптографий

Один знак - слово или сочетания букв

Код Морзе: неравномерный, троичный код

Код Бодо: равномерный, двоичный код

Для человека: десятичная с. с.

Для компьютера двоичная: с. с.

1.3 Логические основы ЭВМ

Умение правильно рассуждать необходимо в любой области человеческой деятельности: науке и технике, управлении, планировании, юстиции и дипломатии, военном деле и т.д. Это умение восходит к древним временам. Ответ на вопрос, какие формы рассуждений являются правильными, а какие неправильными, был дан в логике. Логика - это науке о формах и закона мышления, возникла в IV веке до нашей эры в работах великого греческого философа Аристотеля, который по праву считается основателем логики. Аристотель исследовал различные формы человеческого мышления, ввел в рассмотрение логики такие формы мысли как «понятие», «суждение» и «умозаключение», разработал теорию умозаключений и доказательств, введя понятие силлогизма, то есть такого рассуждения, в котором из заданных двух суждений выводится третье суждение. Примером силлогизма может быть такое рассуждение: «Все млекопитающие имеют скелет. Все киты - млекопитающие. Следовательно, все киты имеют скелет». В общем виде, силлогизмы имеют форму: «Все A суть B; все B суть C. Следовательно, все A суть C». Некоторые силлогизмы являются правильными, некоторые силлогизмы могут быть неправильными. Так, например, силлогизм: «Юрий мой друг. Все мои друзья пошли в театр. Юрий смотрит спектакль» является верным, а силлогизм: «Все мои друзья пошли в театр. Юрий смотрит спектакль. Юрий мой друг» является неверным. С помощью комбинаторики доказано, что общее число силлогизмов, которые можно составить из суждений указанного выше вида, равно 256. Из них правильными являются лишь только 24.

Законы классической логики (Logos (греч.) - мысль, слово). Логика, основанная на теории силлогизмов, называется классической логикой или аристотелевской логикой. Предметом логики как науки является исследование фор и законов мышления, когда из одних суждений выводятся другие в соответствии с их логической формой, поэтому ее также называют формальной логикой. В классической логике Аристотелем были выведены основные законы, которым подчиняются правильные рассуждения. Ими являются, прежде всего, следующие логические законы: закон тождества, закон противоречия и закон исключенного третьего.

1. Закон тождества - каждый из предметов, о котором идет речь в рассуждениях и выводах, все время должен оставаться самим собой.

2. Закон не противоречия (противоречия) - одно и тоже нельзя одновременно утверждать и отрицать.

3. Закон исключенного третьего (tertium nondatur) - каждое высказывание непременно должно быть либо истинным, либо ложным.

Указанные законы вырабатывались в течение многовекового опыта человечества. Требование закона тождества совершенно необходимо, так как в противном случае изменчивость предмета рассуждения привела бы к тому, что уже в ходе самого рассуждения истинные высказывания становились бы ложными и наоборот. Из этих высказываний нельзя было бы извлечь никакой надежной информации. Требование закона не противоречия (противоречия) также необходимо. Действительно, если в высказывании что-то одновременно утверждается и отрицается, то это высказывание по существу никакой информации не несет. Высказывания не несущие никакой информации абсолютно бесполезны и поэтому не могут служить средством общения. Требование закона исключенного третьего основано на убеждении, что для любого осмысленного высказывания всегда можно установить, истинно оно или ложно, а это означает, что третьего не дано. Именно поэтому этот закон так и называется.

В классической логике сформулированы также и другие законы правильных рассуждений.

4. Закон двойного отрицания - если отрицание утверждения ложно, то исходное утверждение истинно.

5. Закон достаточных оснований (Г. Лейбниц) - любое утверждение должно предполагать наличие аргументов и фактов, достаточных для его обоснования. Иными словами, что каждая истина должна быть обоснованной.

6. Принцип выбора - если всегда истинно одно из утверждений А либо В (то есть одновременно они не могут быть истинны), но истинность В не выполняется, то должна выполняться истинность утверждения А.

Основная заслуга Аристотеля и его последователей состоит в установлении основного принципа логики, который утверждает, что правильность любых рассуждений или умозаключений зависит не только от непосредственных входящих в них суждений, а, в большой степени, определяется их логической структурой.

Элементы теории силлогизмов. Теория силлогизмов до середины XX века входила составной частью во многие учебные программы образовательных заведений как гуманитарного, так и естественнонаучного направления. Рассмотрим кратко некоторые элементы теории силлогизмов. Само название этого раздела классической логики произошло от слова силлогизм (от греческого - sillogismos - категорический), такого дедуктивного умозаключения, в котором из двух суждений, имеющих, так называемую, субъективно-предикатную форму следует новое суждение, имеющее также субъективно-предикатную форму («Все S суть P»; «Ни одно S не есть P»; «Некоторые S суть P»; «Некоторые S не есть P»).

Под субъективно-предикатной формой (от лат. Proedicatum - сказанное) понимается языковое выражение, обозначающее некоторое свойство рассматриваемого предмета (субъекта) или отношения, которым он подчиняется. Такое обозначение указанных суждений вытекает также из грамматического построения суждений и утверждений: там есть подлежащее (англ. - subject) и сказуемое (англ. - predicate). Только в логике понятия субъекта и предиката понимается в более широком смысле, чем в грамматике. «Субъектами» могут быть дополнения, местоимения и существительные, о которых что-то говорится, а «предикатами» могут быть обстоятельства и наречия.

В данном разделе были изучены следующие темы: информация, кодирование, логические основы кодирования.

Проанализировали историю возникновения: информации, кодирования, логических основ кодирования. Изучили понятия, суть, применения.

2. Практические аспекты алгоритмы кодирования информации

Для любой ЭВМ ввод информации и программ должен записываться на

«языке» понятном ЭВМ. Таким понятным «языком» является двоичная система, представляемая единичками и нулями в соответствующих ячейках памяти ЭВМ. То есть все операнды и команды запоминаются в виде нулей и единиц в определенной последовательности. Если использовать 8 двоичных разрядов (байт), то легко подсчитать, что число возможных комбинаций допустимых значений «0» или «1» в одном байте равно 28 = 256 (0 до 255). Действительно, максимально возможное двоичное число равно 1111 11112. Для представления его в десятичном виде получим 1111 11112=(1111 11112+1) - 1=1000000-1=2^8-1=255. Поэтому каждый символ-буква какого-либо алфавита, цифра, знак пунктуации или арифметического действия кодируется определенной последовательностью двоичных цифр в соответствии с принятой таблицей кодирования. Наиболее распространенными таблицами кодирования информации являются таблицы: ДКОИ, КОИ-8, ASCII. Отличия их состоит в том, что в них для представления символов используется различное количество разрядов. В последнее время для кодирования информации все чаще используется таблица UNICODE, использующая для кодировки 2 байта. То есть в кодировке UNICODE можно закодировать 65536 различных символов. Как видно, в одном байте можно хранить одно из 256 целых чисел от 0 до 255. Этого вполне достаточно для того, чтобы дать уникальное 8-битовое обозначение каждому символу, применяемому в языке программирования. Для представления чисел в памяти ЭВМ выделяется определенное количество битов, независимо от конкретных значений чисел. Такое представление называют кодом числа. Код числа, в зависимости от выбранной формы, всегда имеет фиксированное количество двоичных цифр. В отличие от нумерации разрядов числа, биты в байте нумеруются слева направо от 0 до 7. Каждый байт в памяти ЭВМ имеет свой порядковый номер, который называется абсолютным адресом байта. Байт является основной единицей хранения данных и наименьшей адресуемой единицей обмена информации в оперативной памяти ЭВМ, то есть минимальной единицей обмена информации, имеющей адрес в памяти ЭВМ.

Последовательность нескольких смежных байтов образует поле данных. Количество байтов поля называется длиной поля, а адрес самого левого байта поля - адресом поля. Байты нумеруются слева направо, начиная с 0. Обработка информации может вестись либо побайтно, либо полями данных (или форматом данных). Форматы данных показывают, как информация размещается в оперативной памяти и регистрах ЭВМ. Форматы данных различают по-длине, типу данных и структуре. Различают поля фиксированной и переменной длины. Длину формата данных измеряют в машинных словах или целым количестве битов. Минимальным полем фиксированной длины является полуслово. Полуслово состоит из двух последовательных байтов (16 бит, пронумерованных слева направо от 0 до 15). Два полуслова образуют слово. Слово состоит из четырех последовательных байтов (32 бита, пронумерованных слева направо от 0 до 31). Два слова образуют двойное слово (64 бита, пронумерованных слева направо от 0 до 63). В ПЭВМ слово, это, как правило, 2 байта, а двойное слово - 4 байта. Поле переменной длины может быть любой длины в пределах от одного до 256 байтов (нумерация от 0 до 255). Форматы полей данных, используемых в ЭВМ, представлены в таблицах 2.1, 2.2.

Таблица 2. Формат данных фиксированной длины

0

7

8

15

16

23

24

31

32

39

40

47

48

55

56

63

Байт

Байт

Байт

Байт

Байт

Байт

Байт

Байт

Полуслово

Полуслово

Полуслово

Полуслово

Слово

Слово

Двойное слово

Таблица 3. Формат данных переменной длины

Байт

Байт

Байт

Байт

Байт

….

Байт

0

1

2

3

4

….

255

В ЭВМ для представления чисел в памяти используются следующие две формы: так называемые естественная форма и полулогарифмическая форма (экспоненциальная форма). Если выбрана длина поля данных и форма представления чисел, то независимо от величины числа, его код всегда имеет фиксированное количество двоичных цифр. Длина поля данных, используемая для представления кода чисел, является одной из важнейших характеристик любой ЭВМ. Причем всегда в представлении кода числа присутствует его знак (в отличие от общепринятых обозначений чисел в математике). Под естественной формой обычно понимают представленные числа с фиксированной запятой или точкой. Положение точки (запятой) строго устанавливается в зависимости от типа числа. Для правильных дробей точка ставится перед старшим разрядом, для смешанных дробей в определенном месте, отделяющем целую часть числа от дробной части. Для целых чисел точка ставится после младшего разряда. В настоящее время естественная форма используется в основном для представления целых чисел. Знак числа, во всех формах кодируется 0 (+) и 1 (-) и ставится перед старшим разрядом. Если числа кодируются в формате полуслова (16 бит), то этот формат называют - формат H, если числа кодируются в формате слова (32 бит), то этот формат называют - формат F. Для кодировки формата F используется шестнадцатеричная система счисления, которая позволяет сократить запись чисел. Достоинством естественной формы представления чисел является наглядность и простота, приводящая к высокой скорости выполнения операций. Существенным недостатком является ограниченный диапазон представления величин, что приводит к переполнению разрядной сетки при выходе за допустимые границы и искажению результата. Полулогарифмическая форма (экспоненциальная форма) используется для представления чисел с плавающей точкой или запятой. В электронных устройствах для отделения целой части числа от дробной, в отличие от привычной математической записи, то есть запятой, используется точка. Полулогарифмической (экспоненциальной) формой называется запись числа в виде:

А=± mp^±n,

Где m - мантисса числа, p - основание системы счисления, n - порядок.

Представленная запись называется полулогарифмической, так как в логарифмической форме представляется только часть числа, а именно, p±n. Положение запятой определяется значением порядка n. С изменением порядка в ту или другую сторону запятая перемещается (плавает) влево или вправо. Так как ЭВМ для разделения целой и дробной частей числа используется точка, то такую форму представления чисел называют формой числа с плавающей точкой.

2.1 Кодирование информации

Код - это набор условных обозначений (или сигналов) для записи (или передачи) некоторых заранее определенных понятий.

Кодирование информации - это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Обычно каждый образ при кодировании (иногда говорят - шифровке) представлении отдельным знаком. Знак - это элемент конечного множества отличных друг от друга элементов.

В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (например, звуки, изображения, показания приборов и т.д.) для обработки на компьютере должна быть преобразована в числовую форму. Например, чтобы перевести в числовую форму музыкальный звук, можно через небольшие промежутки времени измерять интенсивность звука на определенных частотах, представляя результаты каждого измерения в числовой форме. С помощью программ для компьютера можно выполнить преобразования полученной информации, например «наложить» друг на друга звуки от разных источников.

Аналогичным образом на компьютере можно обрабатывать текстовую информацию. При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.

Как правило, все числа в компьютере представляются с помощью нулей и единиц (а не десяти цифр, как это привычно для людей). Иными словами, компьютеры обычно работают в двоичной системе счисления, поскольку при этом устройства для их обработки получаются значительно более простыми. Ввод чисел в компьютер и вывод их для чтения человеком может осуществляться в привычной десятичной форме, а все необходимые преобразования выполняют программы, работающие на компьютере.

2.2 Способы кодирования информации

Одна и та же информация может быть представлена (закодирована) в нескольких формах. C появлением компьютеров возникла необходимость кодирования всех видов информации, с которыми имеет дело и отдельный человек, и человечество в целом. Но решать задачу кодирования информации человечество начало задолго до появления компьютеров. Грандиозные достижения человечества - письменность и арифметика - есть не что иное, как система кодирования речи и числовой информации. Информация никогда не появляется в чистом виде, она всегда как-то представлена, как-то закодирована.

Двоичное кодирование - один из распространенных способов представления информации. В вычислительных машинах, в роботах и станках с числовым программным управлением, как правило, вся информация, с которой имеет дело устройство, кодируется в виде слов двоичного алфавита.

Кодирование символьной (текстовой) информации. Основная операция, производимая над отдельными символами текста - сравнение символов.

При сравнении символов наиболее важными аспектами являются уникальность кода для каждого символа и длина этого кода, а сам выбор принципа кодирования практически не имеет значения.

Для кодирования текстов используются различные таблицы перекодировки. Важно, чтобы при кодировании и декодировании одного и того же текста использовалась одна и та же таблица.

Таблица перекодировки - таблица, содержащая упорядоченный некоторым образом перечень кодируемых символов, в соответствии с которой происходит преобразование символа в его двоичный код и обратно. Наиболее популярные таблицы перекодировки: ДКОИ-8, ASCII, CP1251, Unicode.

Исторически сложилось, что в качестве длины кода для кодирования символов было выбрано 8 бит или 1 байт. Поэтому чаще всего одному символу текста, хранимому в компьютере, соответствует один байт памяти.

Различных комбинаций из 0 и 1 при длине кода 8 бит может быть 28 = 256, поэтому с помощью одной таблицы перекодировки можно закодировать не более 256 символов. При длине кода в 2 байта (16 бит) можно закодировать 65536 символов.

2.3 Кодирование числовой информации

Сходство в кодировании числовой и текстовой информации состоит в следующем: чтобы можно было сравнивать данные этого типа, у разных чисел (как и у разных символов) должен быть различный код. Основное отличие числовых данных от символьных заключается в том, что над числами кроме операции сравнения производятся разнообразные математические операции: сложение, умножение, извлечение корня, вычисление логарифма и пр. Правила выполнения этих операций в математике подробно разработаны для чисел, представленных в позиционной системе счисления.

Основной системой счисления для представления чисел в компьютере является двоичная позиционная система счисления.

2.4 Кодирование текстовой информации

В настоящее время, большая часть пользователей, при помощи компьютера обрабатывает текстовую информацию, которая состоит из символов: букв, цифр, знаков препинания и др. Подсчитаем, сколько всего символов и какое количество бит нам нужно.

10 цифр, 12 знаков препинания, 15 знаков арифметических действий, буквы русского и латинского алфавита, ВСЕГО: 155 символов, что соответствует 8 бит информации.

Единицы измерения информации.

1 байт = 8 бит

1 Кбайт = 1024 байтам

1 Мбайт = 1024 Кбайтам

1 Гбайт = 1024 Мбайтам

1 Тбайт = 1024 Гбайтам

Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255.

Необходимо помнить, что в настоящее время для кодировки русских букв используют пять различных кодовых таблиц (КОИ - 8, СР1251, СР866, Мас, ISO), причем тексты, закодированные при помощи одной таблицы не будут правильно отображаться в другой

Основным отображением кодирования символов является код ASCII - American Standard Code for Information Interchange - американский стандартный код обмена информацией, который представляет из себя таблицу 16 на 16, где символы закодированы в шестнадцатеричной системе счисления.

2.5 Кодирование графической информации

Важным этапом кодирования графического изображения является разбиение его на дискретные элементы (дискретизация).

Основными способами представления графики для ее хранения и обработки с помощью компьютера являются растровые и векторные изображения

Векторное изображение представляет собой графический объект, состоящий из элементарных геометрических фигур (чаще всего отрезков и дуг). Положение этих элементарных отрезков определяется координатами точек и величиной радиуса. Для каждой линии указывается двоичные коды типа линии (сплошная, пунктирная, штрихпунктирная), толщины и цвета.

Растровое изображение представляет собой совокупность точек (пикселей), полученных в результате дискретизации изображения в соответствии с матричным принципом.

Матричный принцип кодирования графических изображений заключается в том, что изображение разбивается на заданное количество строк и столбцов. Затем каждый элемент полученной сетки кодируется по выбранному правилу.

Pixel (picture element - элемент рисунка) - минимальная единица изображения, цвет и яркость которой можно задать независимо от остального изображения.

В соответствии с матричным принципом строятся изображения, выводимые на принтер, отображаемые на экране дисплея, получаемые с помощью сканера. Качество изображения будет тем выше, чем «плотнее» расположены пиксели, то есть чем больше разрешающая способность устройства, и чем точнее закодирован цвет каждого из них. Для черно-белого изображения код цвета каждого пикселя задается одним битом. Если рисунок цветной, то для каждой точки задается двоичный код ее цвета.

Поскольку и цвета кодируются в двоичном коде, то если, например, вы хотите использовать 16-цветный рисунок, то для кодирования каждого пикселя вам потребуется 4 бита (16=24), а если есть возможность использовать 16 бит (2 байта) для кодирования цвета одного пикселя, то вы можете передать тогда 216 = 65536 различных цветов. Использование трех байтов (24 битов) для кодирования цвета одной точки позволяет отразить 16777216 (или около 17 миллионов) различных оттенков цвета - так называемый режим «истинного цвета» (True Color). Заметим, что это используемые в настоящее время, но далеко не предельные возможности современных компьютеров.

2.6 Кодирование звуковой информации

Из курса физики вам известно, что звук - это колебания воздуха. По своей природе звук является непрерывным сигналом. Если преобразовать звук в электрический сигнал (например, с помощью микрофона), мы увидим плавно изменяющееся с течением времени напряжение.

Для компьютерной обработки аналоговый сигнал нужно каким-то образом преобразовать в последовательность двоичных чисел, а для этого его необходимо дискретизировать и оцифровать.

Можно поступить следующим образом: измерять амплитуду сигнала через равные промежутки времени и записывать полученные числовые значения в память компьютера.

Заключение

Наиболее удобной для построения ЭВМ оказалась двоичная система счисления, т.е. система счисления, в которой используются только две цифры: 0 и 1, т.к. с технической точки зрения создать устройство с двумя состояниями проще, также упрощается различение этих состояний.

Для представления этих состояний в цифровых системах достаточно иметь электронные схемы, которые могут принимать два состояния, четко различающиеся значением какой-либо электрической величины - потенциала или тока. Одному из значений этой величины соответствует цифра 0, другому - 1. Относительная простота создания электронных схем с двумя электрическими состояниями и привела к тому, что двоичное представление чисел доминирует в современной цифровой технике. При этом 0 обычно представляется низким уровнем потенциала, а 1 - высоким уровнем. Такой способ представления называется положительной логикой.

Кодирование информации - это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (звуки, изображения, показания приборов и т.д.) для обработки на компьютере должна быть преобразована в числовую форму. Например, чтобы перевести в числовую форму музыкальный звук, можно через небольшие промежутки времени измерять интенсивность звука на определенных частотах, представляя результаты каждого измерения в числовой форме. С помощью компьютерных программ можно преобразовывать полученную информацию, например «наложить» друг на друга звуки от разных источников.

Аналогично на компьютере можно обрабатывать текстовую информацию. При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.

Как правило, все числа в компьютере представляются с помощью нулей и единиц (а не десяти цифр, как это привычно для людей). Иными словами, компьютеры обычно работают в двоичной системе счисления, поскольку при этом устройства для их обработки получаются значительно более простыми.

Список использованных источников

1. Каймин В.А. и др. «Основы информатики и вычислительной техники»; М.: «Просвещение», 1989 г.

2. «Основы информатики и вычислительной техники» Под ред. А.П. Ершов и В.М. Монахова, М.: «Просвещение», 1985 г. I часть, 1986 г. II часть.

3. Шауцукова Л.З. «Информатика»: Учебное пособие для 10-11 кл. общеобразовательных учреждений. - М.: «Просвещение», 2000. - 416 с.: ил.

4. Вальциферов Ю.В., Тихомиров В.П. Информатика, часть 1, Системы счисления. Элементы математической логики, Учебно-практическое пособие, М.: МЭСИ, 1996. - 101 стр.

5. Вальциферов Ю.В., Самойлов В.А., Хорошилов А.В. Информатика для абитуриентов. Мультимедийный учебник. Под ред. Тихомиров В.П. - М.: «Высшая школа», 2002. - 381 с.

6. Вальциферов Ю.В., Дронов В.П. Введение в информатику. Системы счисления, - М.: МГУЭСИ, 2000. - 67 с.

7. Савельев А.Я. и др. Основы информатики. Электронные вычислительные машины. В 8 кн. Кн. 1. Введение в ЭВМ. Под ред. А.Я. Савельев. - 2 изд. М.: «Высшая школа», 1991. - 159 с.

8. Савельев А.Я. и др. Основы информатики. Электронные вычислительные машины. В 8 кн. Кн. 2. Основы информатики. Под ред. А.Я. Савельев. - 2 изд. - М.: «Высшая школа», 1991. - 159 с.

9. Есипов А.С. Информатика. Учебник по базовому курсу общеобразовательных учебных заведений, Изд. 2-е, доп. и перераб. - СПб.: «Наука и техника», 2001 г. - 384 с., ил.

10. Есипов А.С., Паньгина Н.Н., Громада М.И. Информатика. Сборник задачи решений для общеобразовательных учебных заведений. - СПб.: «Наука и техника», 2001 г. - 368 с., ил.

Размещено на Allbest.ru


Подобные документы

  • Понятие и отличительные черты аналоговой и цифровой информации. Изучение единиц измерения цифровой информации: бит (двоичная цифра) и байт. Особенности передачи, методы кодирования и декодирования текстовой, звуковой и графической цифровой информации.

    реферат [479,4 K], добавлен 22.03.2010

  • Представление информации в двоичной системе. Необходимость кодирования в программировании. Кодирование графической информации, чисел, текста, звука. Разница между кодированием и шифрованием. Двоичное кодирование символьной (текстовой) информации.

    реферат [31,7 K], добавлен 27.03.2010

  • Сущность и содержание двоичного кодирования, цели и задачи, этапы реализации данного процесса, оценка его эффективности. Принципы и особенности кодирования чисел и символов, а также рисунков и звука. Используемые методы и приемы, применяемые инструменты.

    презентация [756,5 K], добавлен 29.10.2013

  • Методы арифметического кодирования. Основные функции программ, реализующие алгоритмы кодирования по методам Хаффмана, Голомба, Фибоначчи и Элиаса. Разработка программно-аппаратных средств оптимального арифметического кодирования и их экономический расчет.

    дипломная работа [1,1 M], добавлен 26.05.2012

  • Описание устройств ввода графической, звуковой информации, их назначение, классификация, конструкция, характеристики. Графические планшеты, сканнеры. Анализ способов представления и кодирования информации. Программные средства для архивации данных.

    контрольная работа [31,2 K], добавлен 22.11.2013

  • Методика разработки и механизм отладки программы на языке Лисп, реализующей криптографический алгоритм кодирования информации с открытым ключом – RSA. Математические и алгоритмические основы решения задачи, его программная модель, составление блок-схемы.

    курсовая работа [675,7 K], добавлен 20.01.2010

  • Методы компрессии информации. Обзор и характеристика существующих методов сжатия информации, основанных на процедуре кодирования Хаффмена. Алгоритмы динамического кодирования методом FGK и Виттера. Программная реализация и руководство пользователя.

    курсовая работа [33,2 K], добавлен 09.03.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.