Цифровое кодирование (Digital Encoding), иногда не совсем корректно называемое модуляцией, определяет способ представления битов в физическом канале передачи данных. Рассмотрим различные варианты цифрового кодирования: от простого метода NRZ (Non Return to Zero без возврата к нулю) до более сложного HDB3 (High Density Bipolar 3 - биполярное кодирование с высокой плотностью, вариант 3).
Простейший метод NRZ используется в протоколах на базе интерфейса RS232, в сетях Ethernet применяется кодирование PE, а в телефонии используется алгоритм HDB3 (этот метод служит для кодирования сигналов в потоках E1 и E2). Выбор метода кодирования зависит от полосы канала связи, используемой кабельной системы, скорости передачи данных и других параметров.
Требования к алгоритмам цифрового кодирования
При кодировании цифровых сигналов должны выполняться требования.
1. Малая полоса цифрового сигнала для возможности передачи большого объема данных по имеющемуся физическому каналу.
2. Невысокий уровень постоянного напряжения в линии.
3. Достаточно высокие перепады напряжения для возможности использования сигнальных импульсов (переходов напряжения) для синхронизации приемника и передатчика без добавления в поток сигналов дополнительной информации.
4. Неполяризованный сигнал для того, чтобы можно было не обращать внимания на полярность подключения проводников в каждой паре.
Обзор методов цифрового кодирования
NRZ - Non Return to Zero (без возврата к нулю)
В этом варианте кодирования используется следующее представление битов:
биты 0 представляются нулевым напряжением (0 В);
биты 1 представляются напряжением +V.
Этот метод кодирования является наиболее простым и служит базой для построения более совершенных алгоритмов кодирования.
RZ - Return to Zero (возврат к нулю)
Цифровые данные представляются следующим образом:
биты 0 представляются нулевым напряжением (0 В);
биты 1 представляются значением +V в первой половине и нулевым напряжением во второй, т.е. единице соответствует импульс напряжения продолжительностью в половину продолжительности передачи одного бита данных.
Кодирование информации
Для автоматизации работы с данными, относящимися к разным типам, унифицируют их форму представления. Это можно сделать с помощью кодирования данных на единой основе.
Язык — это система кодирования понятий. Чтобы записать слова, применяется опять же кодирование — азбука. Проблемами универсального кодирования занимаются различные области науки, техники, культуры. Подготовка данных для обработки на компьютере в информатике имеет свою специфику, связанную с электроникой.
История кодирования очень обширна. В быту используются такие системы кодировки, как код Морзе[2], Брайля[3], код морских сигналов и т. п. В вычислительной технике система кодирования называется двоичным кодированием и основана на представлении данных в двоичной системе. Такое представление наиболее просто реализовать в электронных схемах с двумя устойчивыми состояниями: есть ток — 1, нет тока — 0. Таким образом, используются два знака 0 и 1. Эти знаки называются двоичными цифрами (binary digit или сокращенно bit). Двумя битами можно закодировать четыре различных комбинации 00, 01, 10 и 11, три бита дадут восемь комбинаций 000, 001, 010, 011, 100, 101, 110, 111 и т. д. Общая формула имеет вид
,
где — количество независимых кодируемых значений, — разрядность кодирования, принятая в данной системе.
Совокупность из восьми бит носит название один байт.