PC SOFT

PROFESSIONAL NEWSGROUPS
WINDEVWEBDEV and WINDEV Mobile

Home → WEBDEV 2025 → Webdev / Ollama / Deepseek / Réponse vide
Webdev / Ollama / Deepseek / Réponse vide
Started by aiky77, Feb., 05 2025 5:56 AM - 4 replies
Registered member
9 messages
Posted on February, 05 2025 - 5:56 AM
Bonjour tout le monde,

J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!

Tout en sachant que deepseek marche bien en ligne de commande.







J'ai cette réponse dans webdev:

{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }

Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": False,
"temperature": 0.7,
"max_tokens": 1000
}
]

// Info(sParam2)
sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse
Message modified, February, 05 2025 - 6:03 AM
Posted on March, 12 2025 - 4:30 AM
aiky77 a écrit :
Bonjour tout le monde,

J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!

Tout en sachant que deepseek marche bien en ligne de commande.




https://geometry-dashmeltdown.co


J'ai cette réponse dans webdev:

{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }

Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": False,
"temperature": 0.7,
"max_tokens": 1000
}
]

// Info(sParam2)
sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse


Thank you bro!
Posted on April, 27 2025 - 9:47 PM
J'ai travaillé sur ton code.

J'ai fait des recherche et pour finir voila le code qui fonctionne

APIURL est une chaîne = "http://localhost:11434/api/chat"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:1.5b", // le fichier que tu as choisi comme modèle d'IA
"messages": [{ "role": "user", "content": "créer un site en html pour afficher coucou" }],
"stream": False
}'
]

//sParam2 = ChaîneConstruit(sParam,SAI_xml)
reqGPT.Contenu = sParam
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse



A toi de l'améliorer.

Je vais essayé de l'installer sur un serveur pour en faire un webservice en Windev.

Il faut juste que j'en trouve l'utilité pour mes clients
Posted on May, 06 2025 - 5:48 PM
aiky77 a écrit :
Bonjour tout le monde,

J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!

Tout en sachant que deepseek marche bien en ligne de commande.







J'ai cette réponse dans webdev:

{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }

Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": False,
"temperature": 0.7,
"max_tokens": 1000
}
]

// Info(sParam2)
sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse
Posted on May, 10 2025 - 7:03 AM
aiky77 escribío:
Bonjour tout le monde,

J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!

Tout en sachant que deepseek marche bien en ligne de commande. https://www.e-zpassri.com





J'ai cette réponse dans webdev:

{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }

Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": False,
"temperature": 0.7,
"max_tokens": 1000
}
]

// Info(sParam2)
sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse


like your request might be causing an empty response. Here’s a quick checklist:

Check JSON structure: Test with a simple curl request to ensure the server is working.

Server logs: Check server logs for any errors.

Simplify request: Lower max_tokens, adjust temperature, or simplify the messages to test.

Ensure model is running: Make sure the model is loaded and the server is properly configured.