Histórico de Commits

Autor SHA1 Mensagem Data
  Georgi Gerganov f3f65429c4 llama : reorganize source code + improve CMake (#8006) há 1 ano atrás
  Isaac McFadyen 8854044561 Clarify default MMQ for CUDA and LLAMA_CUDA_FORCE_MMQ flag (#8115) há 1 ano atrás
  Johannes Gäßler c8771ab5f8 CUDA: fix misaligned shared memory read (#8123) há 1 ano atrás
  Eddie-Wang 494165f3b6 llama : extend llm_build_ffn() to support _scale tensors (#8103) há 1 ano atrás
  Olivier Chafik 9b2f16f805 `json`: better support for "type" unions (e.g. nullable arrays w/ typed items) (#7863) há 1 ano atrás
  Olivier Chafik 6777c544bd `json`: fix additionalProperties, allow space after enum/const (#7840) há 1 ano atrás
  jukofyork 163d50adaf fixes #7999 (adds control vectors to all `build_XXX()` functions in `llama.cpp` [needs testing] (#8060) há 1 ano atrás
  fairydreaming 6fcbf68235 llama : implement Unigram tokenizer needed by T5 and FLAN-T5 model families (#5763) há 1 ano atrás
  Daniel Bevenius e6bf007744 llama : return nullptr from llama_grammar_init (#8093) há 1 ano atrás
  Olivier Chafik 84631fe150 `json`: support integer minimum, maximum, exclusiveMinimum, exclusiveMaximum (#7797) há 1 ano atrás
  slaren dd047b476c disable docker CI on pull requests (#8110) há 1 ano atrás
  joecryptotoo 925c30956d Add healthchecks to llama-server containers (#8081) há 1 ano atrás
  Brian c8ad35955a Gguf dump start data offset via --data-offset and some extra refactor (#8054) há 1 ano atrás
  Xuan Son Nguyen 49c03c79cd cvector: better prompt handling, add "mean vector" method (#8069) há 1 ano atrás
  Xuan Son Nguyen 48e6b92cc3 Add chat template support for llama-cli (#8068) há 1 ano atrás
  HanishKVC 3791ad2193 SimpleChat v3.1: Boolean chat request options in Settings UI, cache_prompt (#7950) há 1 ano atrás
  HatsuneMikuUwU33 f702a90e24 Update control vector help (#8104) há 1 ano atrás
  Meng, Hengyu 083bacce14 [SYCL] Re-enabled mul_mat_batched_sycl (#8095) há 1 ano atrás
  Johannes Gäßler 2df373ac40 CUDA: fix matrix multiplication algorithm choice (#8102) há 1 ano atrás
  Johannes Gäßler 3b099bcd9c CUDA: fix MMQ writeback for int8 tensor cores (#8100) há 1 ano atrás
  Johannes Gäßler a818f3028d CUDA: use MMQ instead of cuBLAS by default (#8075) há 1 ano atrás
  fairydreaming d62e4aaa02 gguf-py : fix tensor groups for encoder-decoder models in gguf-dump.py (#8090) há 1 ano atrás
  Johannes Gäßler 9a590c8226 CUDA: optimize MMQ int8 tensor core performance (#8062) há 1 ano atrás
  Christian Zhou-Zheng 52fc8705a0 Option to split during conversion (#6942) há 1 ano atrás
  slaren 8cb508d0d5 disable publishing the full-rocm docker image (#8083) há 1 ano atrás
  Yann Follet 646ef4a9cf embedding : more cli arguments (#7458) há 1 ano atrás
  fairydreaming de0d6a68ac gguf-py, convert-hf : model conversion support for T5 and FLAN-T5 model variants (#5763) há 1 ano atrás
  slaren 95f57bb5d5 ggml : remove ggml_task_type and GGML_PERF (#8017) há 1 ano atrás
  Eddie-Wang e112b610a1 llama : add support for BitnetForCausalLM (#7931) há 1 ano atrás
  Aarni Koskela 6a2f298bd7 server : fix JSON-Scheme typo (#7975) há 1 ano atrás