|
Webdev / Ollama / Deepseek / Réponse vide |
Débuté par aiky77, 05 fév. 2025 05:56 - 4 réponses |
| |
| | | |
|
| |
Membre enregistré 9 messages |
|
Posté le 05 février 2025 - 05:56 |
Bonjour tout le monde,
J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois. Je ne sais pas trop pourquoi ? merci pour votre aide !!!
Tout en sachant que deepseek marche bien en ligne de commande.

J'ai cette réponse dans webdev:
{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" } Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[
{ "model": "deepseek-r1:7b", "messages": [ { "role": "system", "content": "tu es un scientifique" }, { "role": "user", "content": "%1%" }], "stream": False, "temperature": 0.7, "max_tokens": 1000 } ]
sParam2=ChaîneConstruit(sParam,SAI_PROMPT) reqGPT.Contenu = sParam2 reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse Message modifié, 05 février 2025 - 06:03 |
| |
| |
| | | |
|
| | |
| |
Posté le 12 mars 2025 - 04:30 |
aiky77 a écrit :
Bonjour tout le monde, J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois. Je ne sais pas trop pourquoi ? merci pour votre aide !!! Tout en sachant que deepseek marche bien en ligne de commande.
 https://geometry-dashmeltdown.coJ'ai cette réponse dans webdev: { "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" } Mon code : APIURL est une chaîne = "http://localhost:11434/api/generate"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[
{ "model": "deepseek-r1:7b", "messages": [ { "role": "system", "content": "tu es un scientifique" }, { "role": "user", "content": "%1%" }], "stream": False, "temperature": 0.7, "max_tokens": 1000 } ]
sParam2=ChaîneConstruit(sParam,SAI_PROMPT) reqGPT.Contenu = sParam2 reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse
Thank you bro! |
| |
| |
| | | |
|
| | |
| |
Posté le 27 avril 2025 - 21:47 |
J'ai travaillé sur ton code.
J'ai fait des recherche et pour finir voila le code qui fonctionne
APIURL est une chaîne = "http://localhost:11434/api/chat"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[ { "model": "deepseek-r1:1.5b", // le fichier que tu as choisi comme modèle d'IA "messages": [{ "role": "user", "content": "créer un site en html pour afficher coucou" }], "stream": False }' ]
reqGPT.Contenu = sParam reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse
A toi de l'améliorer.
Je vais essayé de l'installer sur un serveur pour en faire un webservice en Windev.
Il faut juste que j'en trouve l'utilité pour mes clients |
| |
| |
| | | |
|
| | |
| |
Posté le 06 mai 2025 - 17:48 |
aiky77 a écrit :
Bonjour tout le monde, J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois. Je ne sais pas trop pourquoi ? merci pour votre aide !!! Tout en sachant que deepseek marche bien en ligne de commande.

J'ai cette réponse dans webdev: { "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" } Mon code : APIURL est une chaîne = "http://localhost:11434/api/generate"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[
{ "model": "deepseek-r1:7b", "messages": [ { "role": "system", "content": "tu es un scientifique" }, { "role": "user", "content": "%1%" }], "stream": False, "temperature": 0.7, "max_tokens": 1000 } ]
sParam2=ChaîneConstruit(sParam,SAI_PROMPT) reqGPT.Contenu = sParam2 reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse |
| |
| |
| | | |
|
| | |
| |
Posté le 10 mai 2025 - 07:03 |
aiky77 escribío:
Bonjour tout le monde, J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois. Je ne sais pas trop pourquoi ? merci pour votre aide !!! Tout en sachant que deepseek marche bien en ligne de commande. https://www.e-zpassri.comJ'ai cette réponse dans webdev: { "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" } Mon code : APIURL est une chaîne = "http://localhost:11434/api/generate"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[
{ "model": "deepseek-r1:7b", "messages": [ { "role": "system", "content": "tu es un scientifique" }, { "role": "user", "content": "%1%" }], "stream": False, "temperature": 0.7, "max_tokens": 1000 } ]
sParam2=ChaîneConstruit(sParam,SAI_PROMPT) reqGPT.Contenu = sParam2 reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse
like your request might be causing an empty response. Here’s a quick checklist:
Check JSON structure: Test with a simple curl request to ensure the server is working.
Server logs: Check server logs for any errors.
Simplify request: Lower max_tokens, adjust temperature, or simplify the messages to test.
Ensure model is running: Make sure the model is loaded and the server is properly configured. |
| |
| |
| | | |
|
| | | | |
| | |
|