Энтропия - это степень хаотичности системы из n элементов. Для литературы это будет величина разброса в содержинии рассказов. Т. е. один рассказ (история) - это и есть один элемент системы. Далее нужно сравнить насколько велик разброс в этих рассказах по нескольким параметрам. Для литературы, мне кажется, это будет разброс в персонажах (если они повторяются, то энтропия меньше) , разброс во времени (чем больше промежиток времени охватывают разные рассказы, тем энтропия выше) , разброс в пространстве (чем больше различных мест, городов, стран в расказах тем энтропия выше) , разброс в сюжете (чем больше сюжетных поворотов в рассказе, тем его энтропия выше) .
Для точного анализа нужно использовать одинаковое число рассказов как у Пушкина, так и у Толстого.
Про архиваторы забудьте, к теории информации вопрос отношения не имеет.