Историја ревизија

Аутор SHA1 Порука Датум
  Clark Saben 05e8301e45 finetune : add --n-gpu-layers flag info to --help (#4128) пре 2 година
  SoftwareRenderer 936c79b227 server : relay error messages (#4131) пре 2 година
  kchro3 262005ad9d common : comma should be semicolon (#4137) пре 2 година
  Georgi Gerganov 35985acffa gitignore : tokenize пре 2 година
  slaren e937066420 gguf-py : export chat templates (#4125) пре 2 година
  Kerfuffle 28a2e6e7d4 tokenize example: Respect normal add BOS token behavior (#4126) пре 2 година
  Galunid 0b5c3b0457 scripts : Remove missed baichuan convert script (#4127) пре 2 година
  Kerfuffle 2923f17f6f Clean up ggml-cuda.cu warnings when compiling with clang (for ROCM) (#4124) пре 2 година
  slaren bbecf3f415 llama : increase max nodes (#4115) пре 2 година
  Roger Meier 8e9361089d build : support ppc64le build for make and CMake (#3963) пре 2 година
  Georgi Gerganov 5ad387e994 tokenize : fix trailing whitespace пре 2 година
  zakkor 2fa02b4b3d examples : add tokenize (#4039) пре 2 година
  Don Mahurin 2ab0707acb convert : use 'model' value if it exists. This allows karpathy/tinyllamas to load (#4089) пре 2 година
  John 11173c92d6 py : Falcon HF compatibility (#4104) пре 2 година
  Jannis Schönleber 9e87ef60e1 common : improve yaml log escaping (#4080) пре 2 година
  Huawei Lin c7cce1246e llava : fix compilation warning that fread return value is not used (#4069) пре 2 година
  Jiří Podivín f7d5e97542 py : remove superfluous import statements (#4076) пре 2 година
  Jiří Podivín ba4cf5c0bf train : move number of gpu layers argument parsing to common/train.cpp (#4074) пре 2 година
  slaren e85bb1a8e7 llama : add functions to get the model's metadata (#4013) пре 2 година
  gwjr 3e916a07ac finetune : speed-up ggml_compute_forward_out_prod_f32 via BLAS (#4079) пре 2 година
  Andrew Godfrey 947f64f163 finetune : zero the loraB initial vectors (#4082) пре 2 година
  Andrew Godfrey b83e149ec6 cuda : get_row_rounding F32 (#4095) пре 2 година
  Georgi Gerganov 4f447a4833 llama : fix data units (#4101) пре 2 година
  Kerfuffle 91f6499393 Respect tokenizer.ggml.add_bos_token value when tokenizing (#4040) пре 2 година
  texmex76 8da46278e1 gguf : fix potential infinite loops while parsing (#4100) пре 2 година
  Jared Van Bortel a6fc554e26 llama : restore prefix space in llama tokenizer (#4081) пре 2 година
  slaren 1cf2850d52 ggml-cuda : increase max graph size (#4084) пре 2 година
  Michael Potter 6bb4908a17 Fix MacOS Sonoma model quantization (#4052) пре 2 година
  Galunid 36eed0c42c stablelm : StableLM support (#3586) пре 2 година
  afrideva b46d12f86d convert.py: also look for plain model.safetensors (#4043) пре 2 година