PC SOFT

FORUMS PROFESSIONNELS
WINDEVWEBDEV et WINDEV Mobile

Accueil → WINDEV 2025 → PCSCloud – Serveur HFSQL arrêté, redémarrage impossible via le Centre de Contrôle
PCSCloud – Serveur HFSQL arrêté, redémarrage impossible via le Centre de Contrôle
Débuté par Gaëtan Loiseau, 20 jan. 2026 09:51 - 1 réponse
Posté le 20 janvier 2026 - 09:51
Bonjour,

Nous rencontrons actuellement un incident sur une plateforme PCSCloud avec un serveur HFSQL de production.

Problème constaté

Le serveur HFSQL est à l’arrêt.

Le redémarrage via le Centre de Contrôle HFSQL (outil PC SOFT) a été tenté, mais n’aboutit pas : le serveur reste à l’état arrêté.

Aucun arrêt volontaire ni maintenance planifiée n’a été effectuée de notre côté.

L’incident est bloquant pour les applications de production (lecture / écriture des données impossibles).

Question à la communauté

Est-ce que d’autres utilisateurs PCSCloud rencontrent actuellement (ou ont récemment rencontré) le même type de problème :

serveur HFSQL arrêté,

redémarrage impossible via le Centre de Contrôle HFSQL,

intervention nécessaire côté PCSCloud ?

Si oui, avez-vous identifié la cause (action automatique, sécurité, surcharge, autre) ou la solution appliquée par PC SOFT ?

Merci par avance pour vos retours et partages d’expérience.

Cordialement,
Gaëtan Loiseau
Posté le 20 janvier 2026 - 11:44
Bonjour,

Pour clôturer le sujet et apporter un retour d’expérience, dans notre cas il ne s’agissait pas d’un dysfonctionnement PCSCloud ni PC SOFT.

Après analyse et échanges avec le support PCSCloud, la cause de l’arrêt du serveur HFSQL était une surcharge mémoire liée à un volume très important de connexions provenant de robots d’indexation (AmazonBot notamment, mais pas uniquement).
Ces robots sollicitaient massivement des pages dynamiques WebDev ainsi que des ressources associées, ce qui a conduit à la saturation de la plateforme.

Actions mises en place :

blocage du robot AmazonBot côté PCSCloud,

mise en place et durcissement des fichiers robots.txt sur les sites concernés afin de :

limiter le crawl aux pages réellement utiles,

exclure les répertoires techniques, assets, uploads et URLs à paramètres,

réduire durablement la charge générée par les robots.

Depuis ces actions, la situation est revenue à la normale.

👉 Conclusion importante :
Sur des sites WebDev hébergés sur PCSCloud, il est essentiel de configurer correctement le fichier robots.txt, en particulier sur des plateformes exposées publiquement, afin d’éviter qu’un crawl agressif externe ne provoque des saturations pouvant impacter le serveur HFSQL.

Merci au support PCSCloud pour l’intervention rapide.

Cordialement,
Gaëtan Loiseau