Galunid f23c0359a3 ci : add flake8 to github actions (python linting) (#4129) 2 ani în urmă
..
CMakeLists.txt 36eed0c42c stablelm : StableLM support (#3586) 2 ani în urmă
test-c.c 849408957c tests : add a C compliance test (#2848) 2 ani în urmă
test-double-float.cpp 207b51900e ggml : move FP16 <-> FP32 code to ggml-impl.h (#3861) 2 ani în urmă
test-grad0.cpp 4760e7cc0b sync : ggml (backend v2) (#3912) 2 ani în urmă
test-grammar-parser.cpp 6381d4e110 gguf : new file format with flexible meta data (beta) (#2398) 2 ani în urmă
test-llama-grammar.cpp 6381d4e110 gguf : new file format with flexible meta data (beta) (#2398) 2 ani în urmă
test-opt.cpp 4760e7cc0b sync : ggml (backend v2) (#3912) 2 ani în urmă
test-quantize-fns.cpp 207b51900e ggml : move FP16 <-> FP32 code to ggml-impl.h (#3861) 2 ani în urmă
test-quantize-perf.cpp f93af02488 sync : ggml (conv 1d + 2d updates, UB fixes) (#3468) 2 ani în urmă
test-rope.cpp ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) 2 ani în urmă
test-sampling.cpp d1031cf49c sampling : refactor init to use llama_sampling_params (#3696) 2 ani în urmă
test-tokenizer-0-falcon.cpp 233fc1c69f Minor improvements in GPT2 tokenizer (#3567) 2 ani în urmă
test-tokenizer-0-falcon.py f23c0359a3 ci : add flake8 to github actions (python linting) (#4129) 2 ani în urmă
test-tokenizer-0-llama.cpp 233fc1c69f Minor improvements in GPT2 tokenizer (#3567) 2 ani în urmă
test-tokenizer-0-llama.py f23c0359a3 ci : add flake8 to github actions (python linting) (#4129) 2 ani în urmă
test-tokenizer-1-bpe.cpp daab3d7f45 Add more tokenizer tests (#3742) 2 ani în urmă
test-tokenizer-1-llama.cpp ff5a3f0c09 Work on the BPE tokenizer (#3252) 2 ani în urmă