Другие языки программирования и технологии
Такой вопрс: Почему самое минимальное количество информации равно 8 Бит?
Опаньки, и мне место нашлось. Байт минимально адресуемая единица информации. Так принято для общности, коммерциализации. На этом факте построено всё программирование. Нельзя адресовать бит, группу битов не кратную 8и. Альтернатива может существовать в специализированных устройствах, но примеры мне неведомы.
Минимальное количество информации - 1 бит. 1 байт - минимально адресуемая ячейка памяти.
Алексей Маслов
1 бит - это минимальное количество информации, которое можно на двоичных переключательных схемах зафиксировать в элементарном запоминающем устройстве вроде триггера с двумя устройчивыми состояниями. Это вопрос архитектуры, а не физики и математики. Математически и физически количество информации может быть меньше 1, быть дробной величиной и т. п. , соответственно можно другие типы запоминающих устройств использовать, в которых ячейка например будет 1,5 бита содержать (троичная архитектура)
1 ) Строго говоря, информация описывается в терминах энтропии, т. е. меры, характеризующей соотношение порядка и хаоса, а само понятие энтропии возникло в физике (Больцман, термодинамика) и определено в терминах логарифма.
2) Эта математическая функция сконструирована так, что показывает убыль незнания в результате измерения. Измерение это получение ответа на запрос. Когда мы выбираем из n вариантов ответа один, то собеседник в результате наблюдения получает i=log(2)N бит информации. Для 3 вариантов это число равно 1,5 бит.
3) Поскольку для сложных систем энтропия определяется в терминах статистики и теории вероятностей, возможны ситуации, когда информация имеет дробные значение и меньше 1 бита. Когда Хаусдорф ввел понятие дробных размерностей, в последующих исследованиях обнаружились интересные факты о фрактальных и самоорганизующихся системах, в которых у энтропии проявляются необычные свойства. Еще более интересно определение информационной емкости в квантовых вычислительных моделях, там все завязано на суперпозицию, вероятности и связанность состояний q-битов.
2) Эта математическая функция сконструирована так, что показывает убыль незнания в результате измерения. Измерение это получение ответа на запрос. Когда мы выбираем из n вариантов ответа один, то собеседник в результате наблюдения получает i=log(2)N бит информации. Для 3 вариантов это число равно 1,5 бит.
3) Поскольку для сложных систем энтропия определяется в терминах статистики и теории вероятностей, возможны ситуации, когда информация имеет дробные значение и меньше 1 бита. Когда Хаусдорф ввел понятие дробных размерностей, в последующих исследованиях обнаружились интересные факты о фрактальных и самоорганизующихся системах, в которых у энтропии проявляются необычные свойства. Еще более интересно определение информационной емкости в квантовых вычислительных моделях, там все завязано на суперпозицию, вероятности и связанность состояний q-битов.
Байт — единица хранения и обработки цифровой информации обрабатываемая компьютером одномоментно. В современных вычислительных системах байт состоит из восьми битов.
Похожие вопросы
- В 1 байте 8 бит....Байт - единица хранения и обработки цифровой информации.
- Если информационная емкость человеческой яйцеклетки приблизительно равна 233 бит, то минимальное количество винчестеров?
- зачем на тип данных bool (и эквивалентные ему в разные языках) выделяется целых 8 бит, если достаточно 1 бита?
- Музыка "8 бит"... Какая у неё должна быть частота?
- Почему в байте именно 8 бит, а не 10 ,например, или 7?
- Почему 1 байт состоит из 8 бит?Не из 7 и не из 9?
- Почему в Байте 8 бит?? Чёт не могу додуматься.. помогите если знаете
- Зачем придумали, чтоб 1 байт = 8 битам?!?!Че нельзя было чтоб = 10битам?
- Почему в компьютере вся информация переводится в двоичный код? Почему компьютер "понимает" только его?
- Какое количество бит информации содержится в 1 Гб?