Historie revizí

Autor SHA1 Zpráva Datum
  Olivier Chafik 6171c9d258 Add Jinja template support (#11016) před 1 rokem
  Radoslav Gerganov 667d72846c rpc : early register backend devices (#11262) před 1 rokem
  David Renshaw 960ec65273 llama : fix deprecation message: vocabable -> vocab (#11269) před 1 rokem
  Xuan Son Nguyen 681149ced2 llama : add `llama_model_load_from_splits` (#11255) před 1 rokem
  Georgi Gerganov 08f10f69c3 llama : remove notion of CLS token (#11064) před 1 rokem
  Georgi Gerganov afa8a9ec9b llama : add `llama_vocab`, functions -> methods, naming (#11110) před 1 rokem
  Georgi Gerganov 47182dd03f llama : update llama_model API names (#11063) před 1 rokem
  Georgi Gerganov 727368c60f llama : use LLAMA_TOKEN_NULL (#11062) před 1 rokem
  fairydreaming 9394bbd484 llama : Add support for DeepSeek V3 (#11049) před 1 rokem
  Georgi Gerganov f66f582927 llama : refactor `src/llama.cpp` (#10902) před 1 rokem
  Georgi Gerganov 0bf2d10c55 tts : add OuteTTS support (#10784) před 1 rokem
  Georgi Gerganov 644fd71b44 sampling : refactor + optimize penalties sampler (#10803) před 1 rokem
  HimariO ba1cb19cdd llama : add Qwen2VL support + multimodal RoPE (#10361) před 1 rokem
  kallewoof 484d2f31ae bug-fix: snprintf prints NULL in place of the last character (#10419) před 1 rokem
  Djip007 19d8762ab6 ggml : refactor online repacking (#10446) před 1 rokem
  Riccardo Orlando 6fe6247831 llama : add Minerva 7B model support (#10673) před 1 rokem
  JFLFY2255 8d0cfd554a llama: Support MiniCPM-1B (with & w/o longrope) (#10559) před 1 rokem
  Xuan Son Nguyen 3b4f2e33e2 llama : add missing LLAMA_API for llama_chat_builtin_templates (#10636) před 1 rokem
  Xuan Son Nguyen 642330ac7c llama : add enum for built-in chat templates (#10623) před 1 rokem
  Diego Devesa 10bce0450f llama : accept a list of devices to use to offload a model (#10497) před 1 rokem
  Georgi Gerganov 8e752a777b llama : add check for KV cache shifts (#10401) před 1 rokem
  Johannes Gäßler 4e54be0ec6 llama/ex: remove --logdir argument (#10339) před 1 rokem
  Michael Podvitskiy fb4a0ec083 llama : propagate the results of `graph_compute` (#9525) před 1 rokem
  Diego Devesa 9f40989351 ggml : move CPU backend to a separate file (#10144) před 1 rokem
  Diego Devesa c5b0f4b5d9 llama : refactor model loader with backend registry (#10026) před 1 rokem
  Georgi Gerganov 8d8ff71536 llama : remove Tail-Free sampling (#10071) před 1 rokem
  wwoodsTM ff252ea48e llama : add DRY sampler (#9702) před 1 rokem
  Georgi Gerganov 55e47786e3 llama : default sampling changes + greedy update (#9897) před 1 rokem
  Xuan Son Nguyen cda0e4b648 llama : remove all_pos_0, all_pos_1, all_seq_id from llama_batch (#9745) před 1 rokem
  Georgi Gerganov 99bd4ac28c llama : infill sampling handle very long tokens (#9924) před 1 rokem