Cистемы счисления в компьютерах
В XVII веке немецкий ученый Готфрид Лейбниц предложил уникальную систему представления чисел с помощью всего двух символов – 0 и 1. Сегодня этот способ повсеместно используется в технике, в том числе и в компьютерах и называется дискретным. Компьютер способен хранить только дискретно представленную информацию. Его память, как бы велика она ни была, состоит из отдельных битов, а значит, по своей сути дискретна. Язык компьютера — это язык двоичных чисел - двоичный алфавит, имеющий два знака, 1 и 0. Этим знакам в логике и технике приводят в соответствие понятия — да и нет, истина и ложь, включено и выключено. Такой алфавит называют еще бинарным. В соответствии с этим введена и наименьшая единица информации — бит (англ. bit, от binary — двоичный и digit — знак). БИТ — наименьшая единица измерения информации, соответствующая одному разряду машинного двоичного кода. Двоичная кодировка (двоичная система счисления) имеет ряд преимуществ перед другими системами кодирования:
|