PC SOFT

FORUMS PROFESSIONNELS
WINDEVWEBDEV et WINDEV Mobile

Accueil → WINDEV 2025 → Champ ChatIA
Champ ChatIA
Débuté par Boris, 15 déc. 2025 15:20 - 2 réponses
Membre enregistré
8 messages
Posté le 15 décembre 2025 - 15:20
Bonjour,

Est-ce que quelqu'un a réussit à faire fonctionner le champ ChatIA en mode Personnalisé ou programmation?

J'ai un serveur Ollama en local, et j'aimerai faire fonctionner le champ ChatIA avec ce serveur, mais sans succès...

En mode fournisseur personnalisé, voici ce que j'ai mis dans la description du champ:
Protocole: OpenAI Chat Completion
Clé d'API: vide, j'ai testé aussi avec "ollama"
Modèle: gpt-oss:20b
URL: http://localhost:11434/v1/chat/completions

Quand je clique sur le bouton "Tester", j'ai bien: "Test réussis !"

Et quand j'utilise le champ ChatIA voici ce qu'il me dit comme erreur:
Erreur lors du chargement du modèle à partir du fichier <http://localhost:11434/v1/chat/completions> : le fichier n'a pas été trouvé sur le disque.

J'ai essayé avec:
Protocole: OpenAI responses
URL: http://localhost:11434/api/chat

Test réussis, mais même erreur quand j'utilise le champ ChatIA:
Erreur lors du chargement du modèle à partir du fichier <http://localhost:11434/api/chat> : le fichier n'a pas été trouvé sur le disque.

Si je ne met pas de clé d'API, j'ai cette erreur:
Aucune information de modèle d'IA n'a été définie pour le champ CHATIA_SansNom2.
Il est nécessaire de préciser :
• un type de fournisseur
• une clé d'API
Exemple :


CHATIA_SansNom2.IAInfoModèle.Fournisseur = iafournisseurOpenAI
CHATIA_SansNom2.IAInfoModèle.Identifiant = cléAPI


Merci beaucoup pour votre aide, si certains sont arriver à le faire fonctionner avec un serveur Ollama

Pour info, en faisant un HTTPEnvoie, comme à l'époque, mon serveur Ollama me répond très bien
Membre enregistré
8 messages
Posté le 15 décembre 2025 - 15:50
Pour info, si je rentre ces infos la dans le compagnon IA, la tout fonctionne correctement...

J'en conclu donc que le champ ChatIA à un problème...
Membre enregistré
2 messages
Posté le 29 décembre 2025 - 10:40
Réponse du support de PC soft sur le champ ChatIA avec un LLM en local sans clé d'API:

//*
Dans la version actuelle, il n’est malheureusement pas possible d’utiliser pour le champ ChatIA un LLM personnalisé sans clé d’API. C’est en cours de traitement et ce sera disponible pour la version Update 1.
*//