[Linux] solution d' "indexation"

pdga@::1 pdga@::1
Mer 5 Juin 12:51:01 CEST 2019


Salut,

Je cherche en vain une solution "simple" pour juste indexer les fichiers (le contenu n'est pas nécessaire) d'un serveur de fichiers avec plusieurs millions de fichiers.

Ensuite j'aimerais pouvoir faire des recherches de type : fichiers modifiés il y a X ans, taille total et nombre de ces fichiers ; exclure certains types et/ou certaines extensions ça serait pas mal aussi (peut-être le faire au niveau de l'indexation ?)

Pour l'instant je fais un find avec du -mtime Xjours et du printf qui m'affiche la date de modification que je mets dans un fichier texte, puis du wc -l et un awk qui m'aide à additionner les tailles. Bon ça marche mais c'est pas très dynamique, les updates sont pas faciles (on refait tout), ...

J'ai regardé du côté de Solr mais pfff pas facile, y'a beaucoup à faire à la main
Elastic search, pas facile non plus.

Les "desktop file search" (catfish, fsearch, recoll, ...) : je n'arrive pas à sortir ce que je veux, la taille total par exemple. Exporter aussi les résultats non plus.

J'ai testé Ambar, c'est bien mais j'ai pas d'export ni de taille total et il s'arrête à des recherches sur 1 an.

J'ai testé open semantic search, ça marche je sors pas les stats que je voudrais.

Alors je me dis : "suis-je le premier sur la planète à vouloir ça ???" :) ou alors je fais pas les bonnes recherches.

Si vous avez une idée, merci :) !


A+
Pierre-Damien


Plus d'informations sur la liste de diffusion linux