Кодирование информации.

Тексты и числа хранятся в памяти компьютера в двоичном коде и программным способом преобразуются в изображения на экране.

При нажатии на клавишу в компьютер передаётся определённая последовательность электрических импульсов, причём каждому символу соответствует своя последовательность электрических импульсов (нулей и единиц на машинном языке). Программа драйвер клавиатуры и экрана по кодовой таблице определяет символ и создаёт его изображение на экране.

Кодировочные таблицы для русского языка:

КОИ8 («Код обмена информацией, 8 битный»). - Один из первых стандартов кодирования русских букв на компьютерах.

СР1251 («СР» означает «Code Page» или «кодовая страница») – это стандартная кириллическая кодировка Microsoft Windows.

Мас –разработана фирмой Apple для компьютеров Macintosh.

ISO 8859-5 – утверждена Международной организацией по стандартизации (International Standards Organization, ISO)

Unicode – международный стандарт, который отводит на каждый символ не один байт, а два, и поэтому с его помощью можно закодировать не 256 символов, а целых 65536.

Все эти кодировки продолжают кодовую таблицу стандарта ASCII (Американский стандартный код для информационного обмена), кодирующую 128 символов.

При двоичном кодировании аналогового звукового сигнала непрерывный сигнал дискретизируется, т.е. заменяется серией его отдельных выборок – отсчётов. Качество двоичного кодирования зависит от двух параметров: количества дискретных уровней сигнала и количества выборок в секунду. Количество выборок или частота дискретизации в аудиоадаптерах бывает различной: 11 кГц, 22 кГц, 44,1 кГц и др. Если количество уровней равно 65536, то на один звуковой сигнал рассчитано 16 бит (216). 16-разрядный аудиоадаптер точнее кодирует и воспроизводит звук, чем 8-разрядный.

Количество бит, необходимое для кодирования одного уровня звука, называется глубиной звука.

Графическая информация на экране дисплея представляется в виде изображения, которое формируется из точек (пикселей). Он имеет кодировку цвета и координаты.

Количество бит, необходимое для кодирования одного оттенка цвета, называется глубиной цвета. Если в изображении только чёрные и белые точки, то каждую из них можно закодировать 1 битом. Но если на присутствуют оттенки, то два бита позволяет закодировать 4 оттенка точек: 00 - белый цвет, 01 - светло-серый, 10 - тёмно-серый, 11 - чёрный. Три бита позволяют закодировать 8 оттенков и т.д.

 
Наверх