Сложность задачи в том, что сайт как я понимаю представляет некую оболочку, показывает файлы на стороннем сервере, но когда дело доходит до загрузки при наведении мышкой в строке перехода невидно прямой ссылки на точный путь расположения файла, он скрыт под javascript. Соответственно никакой downloader не подцепит эту ссылку, потому что он и не воспримет это за ссылку. Так же стоит отметить, что ссылка закрытая в javascript не является точным путём, где можно было бы нажать по ней и сразу скачать, это возможно только транзитом и с авторизацией через сайт-оболочку, где собственно и смотришь эти файлы. Иными словами, если после того как разово скачал какой-нибудь файл для примера нажать в браузере скопировать адрес ссылки, то есть путь откуда качался файл, станет ясно, что сначала идёт сайт-оболочка и только потом идёт продолжение пути к файлу на оригинальный сайт, где лежит файл. Откинуть в адресной строке сайт-оболочку и оставить основной сайт и попытаться что-либо скачать не получится, всё только через сайт-оболочку.
Основной вопрос таков, каким образом и чем массово качать файлы с подобного сайта? Можно конечно на каждый нажимать "загрузить" и делать это вручную, но если этих файлов тысяча? Так же я пробовал через IDM или Download Master сделать для них список ссылок в блокноте и передать как задание при этом указав пароль для этого сайта-облочки, ни одна программа не понимает этот сайт и не реагирует на добавленные логин и пароль. Все ссылки слетают с ошибками требуя авторизацию. Но опять же, если я авторизовавшись на сайте в браузере пройдусь по заготовленным списком ссылкам вводя их вручную в адресную строку, все ссылки рабочие, то есть качать можно всё только внутри браузера.
Я впервые вижу подобный сайт, если кто-то понимает каким образом можно массово качать файлы с подобных сайтов, объясните пожалуйста.

Многобукав, мало смысла.
Все что нужно для написания скрипта скачивания/урлтрансформа - это разобраться в том как работают функции downloaduno и addslashes (или, просто вызывать их из контекста документа, если устраивает массовое скачивание через браузер). В этом поможет веб-консоль. Возможно, еще понадобится Postman, если часть логики размещена на сервере.
Ну а если ленишься делать сам, то финансово компенсируешь чужое время, и получаешь готовый результат... Конечно, лучше все-таки самостоятельно разобраться, а то на сайтах иногда бывают изменения (и бесплатная поддержка купленного решения не длится вечно).
Ну, скачать сайт ты полностью не сможешь, ибо например все то, что делает сайт таким, каким он является - не только javascript на клиентской стороне, это ведь еще и серверная сторона, которая отвечает за очень многое. Программы, которые помогут тебе скачать сайт, не смогут скачать например php файл, ибо он выполняется на сервере, а клиенту приходит уже готовое содержимое.
Давным давно, когда у меня был только дорогой мобильный интернет я использовал маленькую программку HTTrack.
В ней можно вводить маски и зеркалировать сайт на локальный диск.
Есть аддоны для браузера типа Greasemonkey, которые позволяют добавлять на страницу свой JavaScript, за счёт чего можно автоматизировать некоторые действия на сайте.
А вообще, нужно смотреть, что это конкретно за сайт - возможно проще написать под него парсер.
обычно браузер позволяет выбрать сохранить или открыть, посмтори внимательнее, или возьми фтп клиент или возьми прямой лоадер оболчки http request