В XVII веке немецкий ученый Готфрид Лейбниц предложил уникальную систему представления чисел с помощью всего двух символов – 0 и 1. Сегодня этот способ повсеместно используется в технике, в том числе и в компьютерах и называется дискретным.
Компьютер способен хранить только дискретно представленную информацию. Его память, как бы велика она ни была, состоит из отдельных битов, а значит, по своей сути дискретна.
Язык компьютера — это язык двоичных чисел - двоичный алфавит, имеющий два знака, 1 и 0. Этим знакам в логике и технике приводят в соответствие понятия — да и нет, истина и ложь, включено и выключено. Такой алфавит называют еще бинарным. В соответствии с этим введена и наименьшая единица информации — бит (англ. bit, от binary — двоичный и digit — знак).
Одного бита информации достаточно, чтобы передать слово "да" или "нет", закодировать, например, состояние электролампочки. Кстати, на некоторых выключателях пишут "1 —включено" и "0 — выключено". Взгляд на выключатель снимает для нас неопределенность в его состоянии. При этом мы получаем количество информации, равное одному биту.
БИТ — наименьшая единица измерения информации, соответствующая одному разряду машинного двоичного кода.
Двоичная кодировка (двоичная система счисления) имеет ряд преимуществ перед другими системами кодирования:
- Для ее реализации нужны технически не сложные элементы с двумя возможными состояниями (есть ток — нет тока, намагничен — не намагничен и т.д.).
- Представление информации посредством только двух состояний надежно и помехоустойчиво.
- Возможно применение особой алгебры логики (булевой алгебры) для выполнения логических преобразований информации.
- Двоичная арифметика намного проще десятичной. Двоичные таблицы сложения и умножения предельно просты.
- Обработка информации в компьютере основана на обмене электрическими сигналами между различными устройствами машины. Признак наличия сигнала можно обозначить цифрой 1, признак отсутствия — цифрой 0.