История коммитов

Автор SHA1 Сообщение Дата
  Xuan Son Nguyen 41cd47caab examples : export-lora : fix issue with quantized base models (#8687) 1 год назад
  DavidKorczynski 49ce0ab6d4 ggml: handle ggml_init failure to fix NULL pointer deref (#8692) 1 год назад
  Georgi Gerganov 4226a8d10e llama : fix build + fix fabs compile warnings (#8683) 1 год назад
  Andreas (Andi) Kunar bf5a81df37 ggml : fix build on Windows with Snapdragon X (#8531) 1 год назад
  Georgi Gerganov 88954f7fbd tests : fix printfs (#8068) 1 год назад
  Chen Xi ed67bcb24f [SYCL] fix multi-gpu issue on sycl (#8554) 1 год назад
  Georgi Gerganov eddcb5238b ggml : add and use ggml_cpu_has_llamafile() (#8664) 1 год назад
  Xuan Son Nguyen be6d7c0791 examples : remove `finetune` and `train-text-from-scratch` (#8669) 1 год назад
  Ujjawal Panchal 4b0eff3df5 docs : Quantum -> Quantized (#8666) 1 год назад
  Fan Shupei 8a4bad50a8 llama: use sliding window for phi3 (#8627) 1 год назад
  MorganRO8 68504f0970 readme : update games list (#8673) 1 год назад
  Joe Todd f19bf99c01 Build Llama SYCL Intel with static libs (#8668) 1 год назад
  Thorsten Sommer 3a7ac5300a readme : update UI list [no ci] (#8505) 1 год назад
  Xuan Son Nguyen 96952e7181 llama : fix `llama_chat_format_single` for mistral (#8657) 1 год назад
  Joe Todd 79167d9e49 Re-add erroneously removed -fsycl from GGML_EXTRA_LIBS (#8667) 1 год назад
  Xuan Son Nguyen b115105f05 add llama_lora_adapter_clear (#8653) 1 год назад
  Xuan Son Nguyen de280085e7 examples : Fix `llama-export-lora` example (#8607) 1 год назад
  Vali Malinoiu b841d07408 server : fix URL.parse in the UI (#8646) 1 год назад
  Joe Todd 64cf50a0ed sycl : Add support for non-release DPC++ & oneMKL (#8644) 1 год назад
  Georgi Gerganov 938943cdbf llama : move vocab, grammar and sampling into separate files (#8508) 1 год назад
  0cc4m 751fcfc6c3 Vulkan IQ4_NL Support (#8613) 1 год назад
  Jeroen Mostert 46e47417aa Allow all RDNA2 archs to use sdot4 intrinsic (#8629) 1 год назад
  Georgi Gerganov e7e6487ba0 contrib : clarify PR squashing + module names (#8630) 1 год назад
  luoyu-intel 063d99ad11 [SYCL] fix scratch size of softmax (#8642) 1 год назад
  Keke Han 081fe431aa llama : fix codeshell support (#8599) 1 год назад
  Jason Stillerman d94c6e0ccb llama : add support for SmolLm pre-tokenizer (#8609) 1 год назад
  Jiří Podivín 566daa5a5b *.py: Stylistic adjustments for python (#8233) 1 год назад
  Georgi Gerganov 6f11a83e4e llama : allow overrides for tokenizer flags (#8614) 1 год назад
  Georgi Gerganov e093dd2382 tests : re-enable tokenizer tests (#8611) 1 год назад
  Douglas Hanley 50e05353e8 llama : add Mistral Nemo inference support (#8604) 1 год назад