Commit History

Автор SHA1 Съобщение Дата
  Branden Butler 40a34fe8d0 speculative : fix prompt tokenization in speculative example (#4025) преди 2 години
  Georgi Gerganov dae06c06e5 Revert "finetune : add --n-gpu-layers flag info to --help (#4128)" преди 2 години
  Clark Saben 05e8301e45 finetune : add --n-gpu-layers flag info to --help (#4128) преди 2 години
  SoftwareRenderer 936c79b227 server : relay error messages (#4131) преди 2 години
  kchro3 262005ad9d common : comma should be semicolon (#4137) преди 2 години
  Georgi Gerganov 35985acffa gitignore : tokenize преди 2 години
  slaren e937066420 gguf-py : export chat templates (#4125) преди 2 години
  Kerfuffle 28a2e6e7d4 tokenize example: Respect normal add BOS token behavior (#4126) преди 2 години
  Galunid 0b5c3b0457 scripts : Remove missed baichuan convert script (#4127) преди 2 години
  Kerfuffle 2923f17f6f Clean up ggml-cuda.cu warnings when compiling with clang (for ROCM) (#4124) преди 2 години
  slaren bbecf3f415 llama : increase max nodes (#4115) преди 2 години
  Roger Meier 8e9361089d build : support ppc64le build for make and CMake (#3963) преди 2 години
  Georgi Gerganov 5ad387e994 tokenize : fix trailing whitespace преди 2 години
  zakkor 2fa02b4b3d examples : add tokenize (#4039) преди 2 години
  Don Mahurin 2ab0707acb convert : use 'model' value if it exists. This allows karpathy/tinyllamas to load (#4089) преди 2 години
  John 11173c92d6 py : Falcon HF compatibility (#4104) преди 2 години
  Jannis Schönleber 9e87ef60e1 common : improve yaml log escaping (#4080) преди 2 години
  Huawei Lin c7cce1246e llava : fix compilation warning that fread return value is not used (#4069) преди 2 години
  Jiří Podivín f7d5e97542 py : remove superfluous import statements (#4076) преди 2 години
  Jiří Podivín ba4cf5c0bf train : move number of gpu layers argument parsing to common/train.cpp (#4074) преди 2 години
  slaren e85bb1a8e7 llama : add functions to get the model's metadata (#4013) преди 2 години
  gwjr 3e916a07ac finetune : speed-up ggml_compute_forward_out_prod_f32 via BLAS (#4079) преди 2 години
  Andrew Godfrey 947f64f163 finetune : zero the loraB initial vectors (#4082) преди 2 години
  Andrew Godfrey b83e149ec6 cuda : get_row_rounding F32 (#4095) преди 2 години
  Georgi Gerganov 4f447a4833 llama : fix data units (#4101) преди 2 години
  Kerfuffle 91f6499393 Respect tokenizer.ggml.add_bos_token value when tokenizing (#4040) преди 2 години
  texmex76 8da46278e1 gguf : fix potential infinite loops while parsing (#4100) преди 2 години
  Jared Van Bortel a6fc554e26 llama : restore prefix space in llama tokenizer (#4081) преди 2 години
  slaren 1cf2850d52 ggml-cuda : increase max graph size (#4084) преди 2 години
  Michael Potter 6bb4908a17 Fix MacOS Sonoma model quantization (#4052) преди 2 години