Другие языки программирования и технологии

Почему в байте именно 8 бит, а не 10 ,например, или 7?

Раньше в байте вообще было 6 бит.

У старых компьютеров были размеры машинных слов и байтов, отличные от 8 бит. Обычно они были кратны шести. Восемь бит в байте появились только с возникновением System/360 от IBM. Это стало стандартом де-факто, и с начала 1970-х большинство компьютеров использует байты, состоящие из 8 бит, и машинные слова, кратные 8.
У System/360 были 8-битные байты, вероятно, из-за использования BCD-формата представления числа: по 4 бита на каждую цифру (0-9), таким образом один байт мог представлять две цифры. В System/360 были специальные инструкции для обработки данных такого формата, и было бы трудно использовать 6-битные байты для представления BCD, поэтому 8 бит в байте стали наилучшим решением.
По другой версии, 8-битный размер байта завязан на 8-битное числовое представление символа строки в кодировке EBCDIC. Из удобства: один байт = один символ.
Борис Мирошниченко
Борис Мирошниченко
325
Лучший ответ
интересный вопрос.
почему именно шестнадцатеричная система исчисления, а не 7-ная или 10-ная
почему не 10-ная а 8-ная понятно : её проще реализовать на физическом уровне
ведь изначально была схемотехника, а потом программирование
и системы были построены на основе двоичной
все остальные - её производные.. .

да уж.
Хакир
вот вопрос так вопрос.. .
почитал ответы все правы.. .
кроме не с_ умма_сшедшнго конечно (no mad) имеется в виду

а вот с Andri можно не согласиться т. к. первые компы "говорили" на inglish и => им хватило бы 128 вариантов, т. е. 7 бит
У старых компьютеров были размеры машинных слов и байтов, отличные от 8 бит. Обычно они были кратны шести. Восемь бит в байте появились только с возникновением System/360 от IBM. Это стало стандартом де-факто, и с начала 1970-х большинство компьютеров использует байты, состоящие из 8 бит, и машинные слова, кратные 8.

У System/360 были 8-битные байты, вероятно, из-за использования BCD-формата представления числа: по 4 бита на каждую цифру (0-9), таким образом один байт мог представлять две цифры. В System/360 были специальные инструкции для обработки данных такого формата, и было бы трудно использовать 6-битные байты для представления BCD, поэтому 8 бит в байте стали наилучшим решением.

По другой версии, 8-битный размер байта завязан на 8-битное числовое представление символа строки в кодировке EBCDIC. Из удобства: один байт = один символ.
Zabarov
Zabarov
4 494
Восемь бит в байте - не закон природы.
Так потому, что великая и могучая фирма IBM так захотела.
California .
California .
3 846
для того чтобы выразить в двоичном коде все знаки буквы и специальные символы используется таблица ASCII

в кодовой таблице ASCII - 255 символов и для того что бы это выразить достаточно 8 бит ведь число 255 в двоичной системе выглядит как 11111111
Все это обусловлено тем что первые компьютеры обладали маленькой памятью и на всем пытались экономить
восьмеричная система исчисления
бывает 2 и 10 и 16