|
Webdev / Ollama / Deepseek / Réponse vide |
Started by aiky77, Feb., 05 2025 5:56 AM - 4 replies |
| |
| | | |
|
| |
Registered member 9 messages |
|
Posted on February, 05 2025 - 5:56 AM |
Bonjour tout le monde,
J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois. Je ne sais pas trop pourquoi ? merci pour votre aide !!!
Tout en sachant que deepseek marche bien en ligne de commande.

J'ai cette réponse dans webdev:
{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" } Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[
{ "model": "deepseek-r1:7b", "messages": [ { "role": "system", "content": "tu es un scientifique" }, { "role": "user", "content": "%1%" }], "stream": False, "temperature": 0.7, "max_tokens": 1000 } ]
sParam2=ChaîneConstruit(sParam,SAI_PROMPT) reqGPT.Contenu = sParam2 reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse Message modified, February, 05 2025 - 6:03 AM |
| |
| |
| | | |
|
| | |
| |
Posted on March, 12 2025 - 4:30 AM |
aiky77 a écrit :
Bonjour tout le monde, J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois. Je ne sais pas trop pourquoi ? merci pour votre aide !!! Tout en sachant que deepseek marche bien en ligne de commande.
 https://geometry-dashmeltdown.coJ'ai cette réponse dans webdev: { "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" } Mon code : APIURL est une chaîne = "http://localhost:11434/api/generate"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[
{ "model": "deepseek-r1:7b", "messages": [ { "role": "system", "content": "tu es un scientifique" }, { "role": "user", "content": "%1%" }], "stream": False, "temperature": 0.7, "max_tokens": 1000 } ]
sParam2=ChaîneConstruit(sParam,SAI_PROMPT) reqGPT.Contenu = sParam2 reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse
Thank you bro! |
| |
| |
| | | |
|
| | |
| |
Posted on April, 27 2025 - 9:47 PM |
J'ai travaillé sur ton code.
J'ai fait des recherche et pour finir voila le code qui fonctionne
APIURL est une chaîne = "http://localhost:11434/api/chat"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[ { "model": "deepseek-r1:1.5b", // le fichier que tu as choisi comme modèle d'IA "messages": [{ "role": "user", "content": "créer un site en html pour afficher coucou" }], "stream": False }' ]
reqGPT.Contenu = sParam reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse
A toi de l'améliorer.
Je vais essayé de l'installer sur un serveur pour en faire un webservice en Windev.
Il faut juste que j'en trouve l'utilité pour mes clients |
| |
| |
| | | |
|
| | |
| |
Posted on May, 06 2025 - 5:48 PM |
aiky77 a écrit :
Bonjour tout le monde, J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois. Je ne sais pas trop pourquoi ? merci pour votre aide !!! Tout en sachant que deepseek marche bien en ligne de commande.

J'ai cette réponse dans webdev: { "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" } Mon code : APIURL est une chaîne = "http://localhost:11434/api/generate"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[
{ "model": "deepseek-r1:7b", "messages": [ { "role": "system", "content": "tu es un scientifique" }, { "role": "user", "content": "%1%" }], "stream": False, "temperature": 0.7, "max_tokens": 1000 } ]
sParam2=ChaîneConstruit(sParam,SAI_PROMPT) reqGPT.Contenu = sParam2 reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse |
| |
| |
| | | |
|
| | |
| |
Posted on May, 10 2025 - 7:03 AM |
aiky77 escribío:
Bonjour tout le monde, J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois. Je ne sais pas trop pourquoi ? merci pour votre aide !!! Tout en sachant que deepseek marche bien en ligne de commande. https://www.e-zpassri.comJ'ai cette réponse dans webdev: { "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" } Mon code : APIURL est une chaîne = "http://localhost:11434/api/generate"
reqGPT est un httpRequête reqGPT.URL = APIURL reqGPT.ContentType = "application/json"
sParam est une chaîne sParam2 est un JSON
sParam=[
{ "model": "deepseek-r1:7b", "messages": [ { "role": "system", "content": "tu es un scientifique" }, { "role": "user", "content": "%1%" }], "stream": False, "temperature": 0.7, "max_tokens": 1000 } ]
sParam2=ChaîneConstruit(sParam,SAI_PROMPT) reqGPT.Contenu = sParam2 reqGPT.Méthode = httpPost RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse
like your request might be causing an empty response. Here’s a quick checklist:
Check JSON structure: Test with a simple curl request to ensure the server is working.
Server logs: Check server logs for any errors.
Simplify request: Lower max_tokens, adjust temperature, or simplify the messages to test.
Ensure model is running: Make sure the model is loaded and the server is properly configured. |
| |
| |
| | | |
|
| | | | |
| | |
|