|
FORUMS PROFESSIONNELS WINDEV, WEBDEV et WINDEV Mobile |
| | | | | |
| Débuté par Boris, 15 déc. 2025 15:20 - 2 réponses |
| |
| | | |
|
| |
Membre enregistré 8 messages |
|
| Posté le 15 décembre 2025 - 15:20 |
Bonjour,
Est-ce que quelqu'un a réussit à faire fonctionner le champ ChatIA en mode Personnalisé ou programmation?
J'ai un serveur Ollama en local, et j'aimerai faire fonctionner le champ ChatIA avec ce serveur, mais sans succès...
En mode fournisseur personnalisé, voici ce que j'ai mis dans la description du champ: Protocole: OpenAI Chat Completion Clé d'API: vide, j'ai testé aussi avec "ollama" Modèle: gpt-oss:20b URL: http://localhost:11434/v1/chat/completions
Quand je clique sur le bouton "Tester", j'ai bien: "Test réussis !"
Et quand j'utilise le champ ChatIA voici ce qu'il me dit comme erreur: Erreur lors du chargement du modèle à partir du fichier <http://localhost:11434/v1/chat/completions> : le fichier n'a pas été trouvé sur le disque.
J'ai essayé avec: Protocole: OpenAI responses URL: http://localhost:11434/api/chat
Test réussis, mais même erreur quand j'utilise le champ ChatIA: Erreur lors du chargement du modèle à partir du fichier <http://localhost:11434/api/chat> : le fichier n'a pas été trouvé sur le disque.
Si je ne met pas de clé d'API, j'ai cette erreur: Aucune information de modèle d'IA n'a été définie pour le champ CHATIA_SansNom2. Il est nécessaire de préciser : • un type de fournisseur • une clé d'API Exemple : CHATIA_SansNom2.IAInfoModèle.Fournisseur = iafournisseurOpenAI CHATIA_SansNom2.IAInfoModèle.Identifiant = cléAPI
Merci beaucoup pour votre aide, si certains sont arriver à le faire fonctionner avec un serveur Ollama
Pour info, en faisant un HTTPEnvoie, comme à l'époque, mon serveur Ollama me répond très bien |
| |
| |
| | | |
|
| | |
| |
Membre enregistré 8 messages |
|
| Posté le 15 décembre 2025 - 15:50 |
Pour info, si je rentre ces infos la dans le compagnon IA, la tout fonctionne correctement...
J'en conclu donc que le champ ChatIA à un problème... |
| |
| |
| | | |
|
| | |
| |
Membre enregistré 2 messages |
|
| Posté le 29 décembre 2025 - 10:40 |
Réponse du support de PC soft sur le champ ChatIA avec un LLM en local sans clé d'API:
//* Dans la version actuelle, il n’est malheureusement pas possible d’utiliser pour le champ ChatIA un LLM personnalisé sans clé d’API. C’est en cours de traitement et ce sera disponible pour la version Update 1. *// |
| |
| |
| | | |
|
| | | | |
| | |
| | |
| |
|
|
|