PC SOFT

FORUMS PROFESSIONNELS
WINDEVWEBDEV et WINDEV Mobile

Accueil → WEBDEV 2025 → Webdev / Ollama / Deepseek / Réponse vide
Webdev / Ollama / Deepseek / Réponse vide
Débuté par aiky77, 05 fév. 2025 05:56 - 4 réponses
Membre enregistré
9 messages
Posté le 05 février 2025 - 05:56
Bonjour tout le monde,

J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!

Tout en sachant que deepseek marche bien en ligne de commande.







J'ai cette réponse dans webdev:

{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }

Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": False,
"temperature": 0.7,
"max_tokens": 1000
}
]

// Info(sParam2)
sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse
Message modifié, 05 février 2025 - 06:03
Posté le 12 mars 2025 - 04:30
aiky77 a écrit :
Bonjour tout le monde,

J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!

Tout en sachant que deepseek marche bien en ligne de commande.




https://geometry-dashmeltdown.co


J'ai cette réponse dans webdev:

{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }

Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": False,
"temperature": 0.7,
"max_tokens": 1000
}
]

// Info(sParam2)
sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse


Thank you bro!
Posté le 27 avril 2025 - 21:47
J'ai travaillé sur ton code.

J'ai fait des recherche et pour finir voila le code qui fonctionne

APIURL est une chaîne = "http://localhost:11434/api/chat"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:1.5b", // le fichier que tu as choisi comme modèle d'IA
"messages": [{ "role": "user", "content": "créer un site en html pour afficher coucou" }],
"stream": False
}'
]

//sParam2 = ChaîneConstruit(sParam,SAI_xml)
reqGPT.Contenu = sParam
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse



A toi de l'améliorer.

Je vais essayé de l'installer sur un serveur pour en faire un webservice en Windev.

Il faut juste que j'en trouve l'utilité pour mes clients
Posté le 06 mai 2025 - 17:48
aiky77 a écrit :
Bonjour tout le monde,

J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!

Tout en sachant que deepseek marche bien en ligne de commande.







J'ai cette réponse dans webdev:

{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }

Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": False,
"temperature": 0.7,
"max_tokens": 1000
}
]

// Info(sParam2)
sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse
Posté le 10 mai 2025 - 07:03
aiky77 escribío:
Bonjour tout le monde,

J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!

Tout en sachant que deepseek marche bien en ligne de commande. https://www.e-zpassri.com





J'ai cette réponse dans webdev:

{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }

Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": False,
"temperature": 0.7,
"max_tokens": 1000
}
]

// Info(sParam2)
sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse


like your request might be causing an empty response. Here’s a quick checklist:

Check JSON structure: Test with a simple curl request to ensure the server is working.

Server logs: Check server logs for any errors.

Simplify request: Lower max_tokens, adjust temperature, or simplify the messages to test.

Ensure model is running: Make sure the model is loaded and the server is properly configured.