PC SOFT

FOROS PROFESIONALES
WINDEVWEBDEV y WINDEV Mobile

Inicio → WINDEV 2025 → Fichier devient gourmande
Fichier devient gourmande
Iniciado por wi200ae, 05,mar. 2019 11:27 - 9 respuestas
Publicado el 05,marzo 2019 - 11:27
Bonjour

Je souhaite numériser 3 ou 4 documents par véhicule (carte routière, autres papiers).

J'ai donc créé un autre fichier appelé ScanDoc, lié au fichier Véhicule par ID. Le fichier ScaDoc contient 3 éléments (IdScanDoc, PhotosDoc et IdVehcule).
Après 3 mois de travail, la taille de ce fichier (ScanDoc) est devenue gourmande , donc il occupera beaucoup d'espace disque.
Ainsi, le disque va bientôt se remplit, vue la vitesse..

Est ce vous avez une méthode professionnelle ou un conseil

Merci d'avance pour vos aide
Miembro registrado
2.682 mensajes
Publicado el 05,marzo 2019 - 11:39
Bonjour,

Oui une plus grande capacité de disque ???

--
Cordialement,

Philippe SAINT-BERTIN
Publicado el 05,marzo 2019 - 13:08
Merci Philippe SB


Oui une plus grande capacité de disque ???

J'ai pas bien compris ton retour !
Miembro registrado
1.640 mensajes
Publicado el 05,marzo 2019 - 17:03
Hello,

Ce que veut te dire Philippe.. c'est qu'il n'y a pas vraiment de solution a part avoir plus d'espace de stockage..
Sinon, tu peux voir à réduire la taille des documents scannés.
Mais je ne vois pas trop de solution a ton "problème" qui n'en est pas vraiment un.

Quel taille fait ton fichier à présent ?
Miembro registrado
299 mensajes
Publicado el 05,marzo 2019 - 17:17
Il y a 2 possibilités pour effectuer ce genre de stockage.
- soit stocker le scan de chaque document DANS la table WD. J'imagine que c'est une base HFSQL.
- soit stocker les documents A COTE de la table WD et n'enregistrer dans cette table que les identifiants permettant d'établir le lien avec le fichier scanné.

Nous utilisons ici un logiciel de gestion de mail, nous avons un historique d'un peu plus de 20000 mails. La table compte donc autant de lignes mais reste assez peu volumineuse. Les répertoires à côté contiennent les PJ.
Il faudrait faire l'essai suivant :
- prendre le fichier et noter sa taille exacte.
- y inclure n documents et voir l'impact sur la taille
- comparer avec la taille des documents. unitaires.

A noter que cette solution peut permettre de zipper les documents conservés.
Publicado el 05,marzo 2019 - 17:37
Merci MICHEL

Pour l'idée, je vais essayer de l'appliquer
Miembro registrado
299 mensajes
Publicado el 05,marzo 2019 - 22:58
Faites-nous un retour parce que c'est un besoin récurrent et votre test est intéressant.
Pour ma part je pousserai au maximum : zipper le document, stocker ce zip et n'enregistrer dans la base que le nom du zip.
Zip / DeZip fonctionnent bien et assez rapidement sous WD.
Miembro registrado
334 mensajes
Publicado el 06,marzo 2019 - 07:44
J’ai déjà travaillé à ce genre de problématique et j’ai opté pour la solution la plus efficiente qui est celle de « zipper » les documents dans un dossier en générant un nom suivant une réglé perso (pour m’assuser de son unicité) et en le mémorisant dans ma base.

L’archivage peux ainsi facilement passer de son disque à un partage sur un NAS quand le volume devient conséquent...

--
———————————————————————————————————
Ce qui se conçoit bien se code clairement et se débogue facilement...

- Pastiche d’une citation de Nicolas Boileau -
Publicado el 06,marzo 2019 - 11:23
Le 05/03/2019 à 10:27, Wi200 a écrit :
Bonjour

Je souhaite numériser 3 ou 4 documents par véhicule (carte routière,
autres papiers).

J'ai donc créé un autre fichier appelé ScanDoc, lié au fichier Véhicule
par ID. Le fichier ScaDoc contient 3 éléments (IdScanDoc, PhotosDoc et
IdVehcule).
Après 3 mois de travail, la taille de ce fichier (ScanDoc) est devenue
gourmande , donc il occupera beaucoup d'espace disque.
Ainsi, le disque va bientôt se remplit, vue la vitesse..

Est ce vous avez une méthode professionnelle ou un conseil

Merci d'avance pour vos aide

Bonjour je viens un peu dans la conversation
Le problème des mémo binaires ... j'ai mis des Documents des simpes ECG
donc plus ou moins 200 300 KB des fois un peu plus
Le hic et le gros hic... cela seulement depuis 4 ou 5 ans
mais c'est dans un groupe Cardiologique 11 médecins
mon fichiers MMO fait ... 180 .. GIGA !!!
le tout gros problème c'est le backup
On veut le faire en externe mais celui-ci impossible !!!
j'ai été obligé depuis quelques peut quand on s'est apercu de cela de
faire en externe les fichiers et de faire un lien
Faire attention au backup surtout autrement aucun problème d'accès
Bon windev
Publicado el 29,septiembre 2019 - 07:10
Bonjour,
Personnellement, je m'orienterai vers la deduplication.
Le principe, tu as un lecteur mappé dédié (ex:z:\) qui est monté sur la base d'une image (même principe qu'une VM).
La différence par rapport à une VM, c'est que tous les fichiers présents dans le lecteur mappé, sont dedupliqués.
La deduplication fonctionne sur le même principe qu'un Zip, sauf que tu n'a pas besoin de zipper/dezziper pour avoir accès aux fichiers. En bref si tu as 10 dossiers copier/coller de 1gb (10 x 1gb = 10gb) quand tu calculera la taille depuis le lecteur mappé tu vas constater 10gb (classique quoi, lol), par contre si tu affiches la taille de l'image utilisée pour créer le lecteur, tu sera probablement proche de 1gb au total (voir même moins si tu as dans ton dossier des fichiers très similaires)(il y aura une taille croissante en fonctions de la quantité de données en écart entre les différents fichiers/dossiers présents sur le lecteur).
Nota : si tu utilises Windows serveur, cette fonction est intégrée et utilisable non pas pour un lecteur mappé, mais directement sur les HDD de ton serveur. Par expérience la dernière fois que j'ai utilisé, gain d'environ 30% sur le HDD c: qui contenait l'os et la data société (de mémoire plus de 2To a la base)
C'est magique !
Et avec windows serveur c'est carrément transparent.
Il existe plusieurs deduplication, au niveau fichier (cas de deux fichiers identiques), au niveau block (cas de 10000 fichiers Word qui ont une base de construction commune sur plusieurs bits)
++
1er post sur le forum, j'espère que ça aidera, 😉