Я программку ищу… Самое плохое что я не знаю как она должна выглядеть. Идея следующая:
У меня домашний раздел гигов на десять, и весь забит каким-то хламом. Ну вы понимаете… Так вот хочется его прочистить, освободить пару-тройку гигов. Но это делать приходиться раз в три месяца, и честно говоря уже достало ползать по всем директориям и искать что-нибудь побольше чтобы удалить. И за раз тоже не получается всё это сделать, тк живём мы в изменяющемся мире… И не предскажешь что может понадобиться в течение ближайшей недели/месяца. Так вот, по-моему процесс поиска можно облегчить, какой-нибудь программкой. Я б сам налабал бы скрипт, для поиска, но с трудом представляю *что конкретно он должен делать*.
Последние комментарии
- OlegL, 17 декабря в 15:00 → Перекличка 21
- REDkiy, 8 июня 2023 года в 9:09 → Как «замокать» файл для юниттеста в Python? 2
- fhunter, 29 ноября 2022 года в 2:09 → Проблема с NO_PUBKEY: как получить GPG-ключ и добавить его в базу apt? 6
- Иванн, 9 апреля 2022 года в 8:31 → Ассоциация РАСПО провела первое учредительное собрание 1
- Kiri11.ADV1, 7 марта 2021 года в 12:01 → Логи catalina.out в TomCat 9 в формате JSON 1
оно? ;)
не совсем. :(
Самую большую проблему вызывает ~/my… Я вот недавно, нашёл там tar.bz2 файлик, размером примерно на 300Mb и рядом директорию с 10000 png файлов одинакового размера ~50Kb (из которых архивчик и был сделан). если воспользоваться приведённой командой, то архив то я найду быстро, а вот директорию с десятком тысяч маленьких файлов искать устану. Как собственно и было, когда я не пользовался такой конструкцией.
У меня есть идеи как поиск можно, хотя бы отчасти возложить на железного друга. Но идеи недозревшие, и по-моему излишне сложные. Все из себя завязанные на подсчёт всяких распределений размеров файлов директорий и поиск оптимального дерева.
Оптимального в смысле: максимальное количество узлов дерева (файлов или директорий) vs наименьшая дисперсия размера этих узлов. Может это даже это неправильная идея… Ну в общем попробую и скажу что из этого может получится.
Не не попробую — я пока недостаточно представляю себе как можно в реальные сроки найти такое дерево.
Собственно, я к тому клоню, что мой способ может быть действительно сложен, и есть более простой? А может этот другой способ уже воплощён в какой-нибудь программке.
ps кстати как узнать суммарный размер файлов директории? Ну при условии, что дерево файлов директорий именно дерево и в нём нету никаких ссылок (hard и soft links).
я вечно делаю find . -type f | ls -l | awk '{sum+=$5} END {print sum}’. Но может проще можно?
а чего, du -sbx /what/ever/to/measure не подойдёт?
Я всегда подозревал, что такая утилита не может не существовать…
вообще же, можно извратнуться так..: