Рефераты. Ответы на билеты по информатике 2006-2008 гг. (базовый уровень)

Язык как знаковая система

Для обмена информацией с другими людьми человек использует естественные языки

(русский, английский, китайский и др.), то есть информация представляется с

помощью естественных языков. В основе языка лежит алфавит, то есть набор

символов (знаков), которые человек различает по их начертанию. В основе русского

языка лежит кириллица, содержащая 33 знака, английский язык использует латиницу

(26 знаков), китайский язык использует алфавит из десятков тысяч знаков

(иероглифов).

Последовательности символов алфавита в соответствии с правилами грамматики

образуют основные объекты языка — слова. Правила, согласно которым образуются

предложения из слов данного языка, называются синтаксисом. Необходимо отметить,

что в естественных языках грамматика и синтаксис языка формулируются с помощью

большого количества правил, из которых существуют исключения, так как такие

правила складывались исторически.

Наряду с естественными языками были разработаны формальные языки (системы

счисления, язык алгебры, языки программирования и др.). Основное отличие

формальных языков от естественных состоит в наличии строгих правил грамматики и

синтаксиса.

Например, системы счисления можно рассматривать как формальные языки, имеющие

алфавит (цифры) и позволяющие не только именовать и записывать объекты (числа),

но и выполнять над ними арифметические операции по строго определенным правилам.

Некоторые языки используют в качестве знаков не буквы и цифры, а другие символы,

например химические формулы, ноты, изображения элементов электрических или

логических схем, дорожные знаки, точки и тире (код азбуки Морзе) и др.


Знаки могут -иметь различную физическую природу. Например, для представления

информации с использованием языка в письменной форме используются знаки, которые

являются изображениями на бумаге или других носителях, в устной речи в качестве

знаков языка используются различные звуки (фонемы), а при обработке текста на

компьютере знаки представляются в форме последовательностей электрических

импульсов (компьютерных кодов).


3. Двоичное кодирование информации

В компьютере для представления информации используется двоичное кодирование, так

как удалось создать надежно работающие технические устройства, которые могут со

стопроцентной надежностью сохранять и распознавать не более двух различных

состояний (цифр):

·         электромагнитные реле (замкнуто/разомкнуто), широко использовались в

конструкциях первых ЭВМ;

·         участок поверхности магнитного носителя информации

(намагничен/размагничен);

·         участок поверхности лазерного диска (отражает/не отражает);

·         триггер (см. п. 3.7.3), может устойчиво находиться в одном из двух

состояний, широко используется в оперативной памяти компьютера.

Все виды информации в компьютере кодируются на машинном языке, в виде логических

последовательностей нулей и единиц.

Цифры двоичного кода можно рассматривать как два равновероятных состояния

(события). При записи двоичной цифры реализуется выбор одного из двух возможных

состояний (одной из двух цифр) и, следовательно, она несет количество

информации, равное 1 биту.

Даже сама единица измерения количества информации бит (bit) получила свое

название от английского словосочетания BInary digiT (двоичная цифра).

Важно, что каждая цифра машинного двоичного кода несет информацию в 1 бит. Таким

образом, две цифры несут информацию в 2 бита, три цифры — в 3 бита и так далее.

Количество информации в битах равно количеству цифр двоичного машинного кода.


Преобразование графической и звуковой информации из аналоговой формы в

дискретную производится путем дискретизации, то есть разбиения непрерывного

графического изображения и непрерывного (аналогового) звукового сигнала на

отдельные элементы. В процессе дискретизации производится кодирование, то есть

присвоение каждому элементу конкретного значения в форме кода.


Дискретизация — это преобразование непрерывных изображений и звука в набор

дискретных значений в форме кодов.

Двоичное кодирование текстовой информации. Традиционно для кодирования одного

символа используется количество информации, равное 1 байту, то есть  I = 1 байт

= 8 битов.

Для кодирования одного символа требуется 1 байт информации.

Если рассматривать символы как возможные события, то можно вычислить, какое

количество различных символов можно закодировать:

N = 2I= 28 = 256.

Такое количество символов вполне достаточно для представления текстовой

информации, включая прописные и строчные буквы русского и латинского алфавита,

цифры, знаки, графические символы и пр.

Кодирование заключается в том, что каждому символу ставится в соответствие

уникальный десятичный код от 0 до 255 или соответствующий ему двоичный код от

00000000 до 11111111. Таким образом, человек различает символы по их

начертаниям, а компьютер - по их кодам.


3 Билет

Вероятностный и алфавитный подходы к измерению информации. Единицы измерения

информации. Скорость передачи информации. Пропускная способность канала связи.

Информация и знания. Человек получает информацию из окружающего мира с помощью

органов чувств, анализирует ее и выявляет существенные закономерности с помощью

мышления, хранит полученную информацию в памяти. Процесс систематического

научного познания окружающего мира приводит к накоплению информации в форме

знаний (фактов, научных теорий и так далее). Таким образом, с точки зрения

процесса познания информация может рассматриваться как знания.

Информацию, которую получает человек, можно считать мерой уменьшения

неопределенности знаний. Если некоторое сообщение приводит к уменьшению

неопределенности наших знаний, то можно говорить, что такое сообщение содержит

информацию.

1. Уменьшение неопределенности знаний (вероятностный подход). Подход к

информации как мере уменьшения неопределенности знаний позволяет количественно

измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об

определении количества информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной

вероятностью произойдет одно из двух возможных событий — монета окажется в одном

из двух положений: «орел» или «решка».


Можно говорить, что события равновероятны, если при возрастающем числе опытов

количества выпадений «орла» и «решки» постепенно сближаются. Например, если мы

бросим монету 10 раз, то «орел» может выпасть 7 раз, а решка — 3 раза, если

бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» — 40 раз, если

бросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» — 480 и так

далее.


В итоге при очень большой серии опытов количества выпадений «орла» и «решки»

практически сравняются.

Перед броском существует неопределенность наших знаний (возможны два события),

и, как упадет монета, предсказать невозможно. После броска наступает полная

определенность, так как мы видим (получаем зрительное сообщение), что монета в

данный момент находится в определенном положении (например, «орел»). Это

сообщение приводит к уменьшению неопределенности наших знаний в два раза, так

как до броска мы имели два вероятных события, а после броска — только одно, то

есть в два раза меньше.

В окружающей действительности достаточно часто встречаются ситуации, когда может

произойти некоторое количество равновероятных событий. Так, при бросании

равносторонней четырехгранной пирамиды существуют 4 равновероятных события, а

при бросании шестигранного игрального кубика - 6 равновероятных событий.

Чем больше количество возможных событий, тем больше начальная неопределенность и

соответственно тем большее количество информации будет содержать сообщение о

результатах опыта.

3. Единицы измерения количества информации. Для количественного выражения любой

величины необходимо определить единицу измерения. Так, для измерения длины в

качестве единицы выбран метр, для измерения массы — килограмм и так далее.

Аналогично, для определения количества информации необходимо ввести единицу

измерения.

За единицу количества информации принимается такое количество информации,

которое содержит сообщение, уменьшающее неопределенность в два раза. Такая

единица названа «бит».

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз

уменьшается в два раза и, следовательно, полученное количество информации равно

1 биту.

Минимальной единицей измерения количества информации является бит, а следующей

по величине единицей является байт, причем 1 байт = 23 бит = 8 бит.

В информатике система образования кратных единиц измерения количества информации

несколько отличается от принятых в большинстве наук. Традиционные метрические

системы единиц, например Международная система единиц СИ, в качестве множителей

кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и так далее, что

соответствует десятичным приставкам Кило (103), Мега (106), Гига (109) и так

далее.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления,

поэтому в кратных единицах измерения количества информации используется

коэффициент 2n.

Так, кратные байту единицы измерения количества информации вводятся следующим

образом:

1 Кбайт = 210 байт = 1024 байт;

1 Мбайт = 210 Кбайт = 1024 Кбайт;

1 Гбайт = 210 Мбайт = 1024 Мбайт.

Количество возможных событий и количество информации. Существует формула,

которая связывает между собой количество возможных событий N и количество

информации I: N=2I.

По этой формуле можно легко определить количество возможных событий, если

известно количество информации. Например, если мы получили 4 бита информации, то

количество возможных событий составляло: N = 24= 16.

Наоборот, для определения количества информации, если известно количество

событий, необходимо решить показательное уравнение относительно I. Например, в

игре «Крестики-нолики» на поле 8x8 перед первым ходом существует возможных

Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22



2012 © Все права защищены
При использовании материалов активная ссылка на источник обязательна.