История коммитов

Автор SHA1 Сообщение Дата
  Georgi Gerganov 04814e718e readme : update hot topics 2 лет назад
  Georgi Gerganov af19d35734 server : OAI API compatibility (#4198) 2 лет назад
  slaren e9c13ff781 llama : set metal log callback correctly (#4204) 2 лет назад
  slaren 8a052c131e ggml-cuda : support stablelm rope (#4156) 2 лет назад
  Galunid 189d68446e convert : fix tensors using grad in some models (#4173) 2 лет назад
  eastriver 2568a4bf54 main.swift : fix eos checking (#4197) 2 лет назад
  Aaryaman Vasishta b35f3d0def readme : use PATH for Windows ROCm (#4195) 2 лет назад
  Haohui Mai 55978ce09b Fix incorrect format strings and uninitialized variables. (#4133) 2 лет назад
  Georgi Gerganov 6b0a7420d0 llama : KV cache view API + better KV cache management (#4170) 2 лет назад
  Georgi Gerganov d103d935c0 readme : update hot topics 2 лет назад
  Daniel Bevenius 9d5949f04b examples : fix typo in parallel example doc comment (#4181) 2 лет назад
  Georgi Gerganov ff8238f71d docs : add llama-star arch idea 2 лет назад
  Galunid 8e672efe63 stablelm : simplify + speedup generation (#4153) 2 лет назад
  Galunid 0b871f1a04 finetune - update readme to mention llama support only (#4148) 2 лет назад
  Aaryaman Vasishta dfc7cd48b1 readme : update ROCm Windows instructions (#4122) 2 лет назад
  Seb C 881800d1f0 main : Add ChatML functionality to main example (#4046) 2 лет назад
  Galunid f23c0359a3 ci : add flake8 to github actions (python linting) (#4129) 2 лет назад
  Branden Butler 40a34fe8d0 speculative : fix prompt tokenization in speculative example (#4025) 2 лет назад
  Georgi Gerganov dae06c06e5 Revert "finetune : add --n-gpu-layers flag info to --help (#4128)" 2 лет назад
  Clark Saben 05e8301e45 finetune : add --n-gpu-layers flag info to --help (#4128) 2 лет назад
  SoftwareRenderer 936c79b227 server : relay error messages (#4131) 2 лет назад
  kchro3 262005ad9d common : comma should be semicolon (#4137) 2 лет назад
  Georgi Gerganov 35985acffa gitignore : tokenize 2 лет назад
  slaren e937066420 gguf-py : export chat templates (#4125) 2 лет назад
  Kerfuffle 28a2e6e7d4 tokenize example: Respect normal add BOS token behavior (#4126) 2 лет назад
  Galunid 0b5c3b0457 scripts : Remove missed baichuan convert script (#4127) 2 лет назад
  Kerfuffle 2923f17f6f Clean up ggml-cuda.cu warnings when compiling with clang (for ROCM) (#4124) 2 лет назад
  slaren bbecf3f415 llama : increase max nodes (#4115) 2 лет назад
  Roger Meier 8e9361089d build : support ppc64le build for make and CMake (#3963) 2 лет назад
  Georgi Gerganov 5ad387e994 tokenize : fix trailing whitespace 2 лет назад