Istoricul angajamentelor

Autor SHA1 Permisiunea de a trimite mesaje. Dacă este dezactivată, utilizatorul nu va putea trimite nici un fel de mesaj Data
  Olivier Chafik 8b576b6c55 Tool call support (generic + native for Llama, Functionary, Hermes, Mistral, Firefunction, DeepSeek) w/ lazy grammars (#9639) 11 luni în urmă
  Daniel Bevenius 4314e56c4f server : use lambda instead of std::bind (#11507) 11 luni în urmă
  Nigel Bosch eb7cf15a80 server : add /apply-template endpoint for additional use cases of Minja functionality (#11489) 11 luni în urmă
  Daniel Bevenius e51c47b401 server : update auto gen files comments [no ci] (#11484) 11 luni în urmă
  Xuan Son Nguyen 49b0e3cec4 server : fix cleaning up stream task (#11418) 11 luni în urmă
  Xuan Son Nguyen 5845661640 server : add more clean up when cancel_tasks is called (#11340) 11 luni în urmă
  Diego Devesa 12c2bdf2de server : fix draft context not being released (#11354) 1 an în urmă
  Jiří Podivín 96f4053934 Adding logprobs to /v1/completions (#11344) 1 an în urmă
  Olivier Chafik 6171c9d258 Add Jinja template support (#11016) 1 an în urmă
  Georgi Gerganov 80d0d6b4b7 common : add -hfd option for the draft model (#11318) 1 an în urmă
  Xuan Son Nguyen f30f099228 server : implement cancellable request (#11285) 1 an în urmă
  Georgi Gerganov afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) 1 an în urmă
  Georgi Gerganov e6e7c75d94 server : fix extra BOS in infill endpoint (#11106) 1 an în urmă
  Georgi Gerganov f66f582927 llama : refactor `src/llama.cpp` (#10902) 1 an în urmă
  Xuan Son Nguyen 0da5d86026 server : allow using LoRA adapters per-request (#10994) 1 an în urmă
  Xuan Son Nguyen 45095a61bf server : clean up built-in template detection (#11026) 1 an în urmă
  Xuan Son Nguyen 5896c65232 server : add OAI compat for /v1/completions (#10974) 1 an în urmă
  Alexey Parfenov 16cdce7b68 server : fix token duplication when streaming with stop strings (#10997) 1 an în urmă
  Reza Kakhki 9ba399dfa7 server : add support for "encoding_format": "base64" to the */embeddings endpoints (#10967) 1 an în urmă
  NeverLucky 09fe2e7613 server: allow filtering llama server response fields (#10940) 1 an în urmă
  Xuan Son Nguyen 14b699ecde server : fix missing model id in /model endpoint (#10957) 1 an în urmă
  Xuan Son Nguyen 485dc01214 server : add system_fingerprint to chat/completion (#10917) 1 an în urmă
  Xuan Son Nguyen 57bb2c40cd server : fix logprobs, make it OAI-compatible (#10783) 1 an în urmă
  Georgi Gerganov 152610eda9 server : output embeddings for all tokens when pooling = none (#10861) 1 an în urmă
  Georgi Gerganov 0e70ba686e server : add "tokens" output (#10853) 1 an în urmă
  Xuan Son Nguyen 46828872c3 server : (embeddings) using same format for "input" and "content" (#10872) 1 an în urmă
  krystiancha 05c3a444b8 server : fill usage info in embeddings and rerank responses (#10852) 1 an în urmă
  Georgi Gerganov 644fd71b44 sampling : refactor + optimize penalties sampler (#10803) 1 an în urmă
  Vinesh Janarthanan 5478bbcd17 server: (UI) add syntax highlighting and latex math rendering (#10808) 1 an în urmă
  Michelle Tan 89d604f2c8 server: Fix `has_next_line` in JSON response (#10818) 1 an în urmă