Есть такая теория, в которой информация рассмотрена с количественной точки зрения. Основоположником этой теории является Шеннон Клод Элвуд. Так вот достоинством его подхода является то, что эта теория построена на базе теории вероятностей. Там введены такие понятия как энтропия и избыточность, которые зависят от вероятности появления того или иного явления, а также связи между явлениями. Так вот современные архиваторы при сжатии данных придерживаются именно этой теории. Если в источнике информации есть избыточность, то теоретически такая информация может быть однозначно представлена в более компактном виде. Если нет, то какой бы Вы супер пупер архиватор не придумали, он не сможет сжать информацию. Кстати, исходя из избыточности (энтропии) , можно рассчитать теоретически возможный максимальный коэффициент сжатия для разных случаев. Например, для варианта, где взаимосвязь между информационными элементами не учитывается (практически к этому пределу приближается архиватор, построенный по алгоритму Хафмана) . Другой вариант, когда учитываются только предыдущий символ. В этом случае коэффициент сжатия он будет чуть выше. Ну а далее можно рассматривать зависимость от 2, 3 и т. д. предыдущих символов и рассчитывать как чуть больше увеличивается этот теоретически предел.
Заметьте "теоретический предел", то есть лучше уже не получится, а чем от большего числа получается эта зависимость, тем экспоненциальней растёт время предварительного анализа, который должен сделать архиватор.
У меня студенты занимаются подобными проверками разных алгоритмов сжатия, в том числе и разных последних версий архиваторов. Так вот я Вам передам их разочарование, что даже супер пупер современные архиваторы сильно не дотягивают до 1 предела, где зависимость только от предыдущего символа. Все остальные проверки и суждения чисто субъективные и не могут служить авторитетной позицией, характеризующей современные архиваторы.
Поэтому я Вам не советую искать "сильные" архиваторы, а быть самим "сильными" в теории, ну и по возможности и в практике.
Другие языки программирования и технологии
что такое сильные архиваторы?
хз... нет такого понятия
...шах... .
как это нет?
Так это - нет такого понятия. У архиватора нет силы. Но понять, что имелось в виду, можно: имелось в виду "архиваторы с большой степенью сжатия архивного файла". Хорошие результаты, например, обеспечивает архиватор 7-zip.
Нет такого понятия, но лично у меня есть простое понятие, что такое хороший архиватор, во первых если архиватор хоть на сколько-то процентов может сжать изображения в формате JPEG это хороший архиватор, во вторых если архиватор умеет распознавать типы документов и применять различные алгоритмы сжатия для разных типов, то это хороший архиватор, в третьих если процедура распаковки занимает минимум времени по сравнению с запаковкой, то это определенно хороший архиватор. Что касается конкретики, то winrar и 7-zip объективно наилучшие программы-архиваторы на данный момент.
Похожие вопросы
- Почему до сих пор не создан математический архиватор?
- Если скачать эту картинку, поменять у сохранённого файла расширение с jpg на rar и открыть архиватором, окажутся файлы.
- Какой архиватор более лучший. winzip.winrar.7-zip.alzip и т. д. очень важно. и где скачать бесплатно?
- Файлы ISO можно только записывать? Или надо архиватором открыть?Вобще как их использовать?Спасибо.
- с помощью какого архиватора можно сжать GTA vice city до 650 мегабайт. (сама игра весит 3 гига)
- Я написал программу-архиватор на Python. Подскажите кому или какой кампании можно продать эту программу.
- Как пользоваться архиватором Winrar??
- Безопасно ли сжимать данные архиваторами типа winRar, 7Zip и проч...
- Если JPEG это контейнер то почему для открытия этих файлов используются не архиваторы?
- Illustrator. Сильное отличие оттенков при переводе из RGB в CMYK! Что делать?