Olivier Chafik
|
cb0b06a8a6
`json`: update grammars/README w/ examples & note about additionalProperties (#8132)
|
1 год назад |
loonerin
|
558f44bf83
CI: fix release build (Ubuntu+Mac) (#8170)
|
1 год назад |
slaren
|
8172ee9da9
cmake : fix deprecated option names not working (#8171)
|
1 год назад |
Xuan Son Nguyen
|
16791b8f0b
Add chatml fallback for cpp `llama_chat_apply_template` (#8160)
|
1 год назад |
Georgi Gerganov
|
ab3679112d
flake.lock: Update (#8071)
|
1 год назад |
jukofyork
|
97877eb10b
Control vector loading fixes (#8137)
|
1 год назад |
Raj Hammeer Singh Hada
|
387952651a
Delete examples/llama.android/llama/CMakeLists.txt (#8165)
|
1 год назад |
Sigbjørn Skjæret
|
6030c61281
Add Qwen2MoE 57B-A14B model identifier (#8158)
|
1 год назад |
Johannes Gäßler
|
85a267daaa
CUDA: fix MMQ stream-k for --split-mode row (#8167)
|
1 год назад |
kustaaya
|
f675b20a3b
Added support for Viking pre-tokenizer (#8135)
|
1 год назад |
Sigbjørn Skjæret
|
911e35bb8b
llama : fix CodeLlama FIM token checks (#8144)
|
1 год назад |
Raj Hammeer Singh Hada
|
ac146628e4
Fix llama-android.cpp for error - "common/common.h not found" (#8145)
|
1 год назад |
Daniel Bevenius
|
9b31a40c6d
clip : suppress unused variable warnings (#8105)
|
1 год назад |
Georgi Gerganov
|
c70d117c37
scripts : fix filename sync
|
1 год назад |
slaren
|
ae5d0f4b89
ci : publish new docker images only when the files change (#8142)
|
1 год назад |
slaren
|
31ec3993f6
ggml : add GGML_CUDA_USE_GRAPHS option, restore GGML_CUDA_FORCE_CUBLAS (cmake) (#8140)
|
1 год назад |
slaren
|
c7ab7b612c
make : fix missing -O3 (#8143)
|
1 год назад |
Georgi Gerganov
|
f2d48fffde
sync : ggml
|
1 год назад |
Georgi Gerganov
|
4713bf3093
authors : regen
|
1 год назад |
Georgi Gerganov
|
0e814dfc42
devops : remove clblast + LLAMA_CUDA -> GGML_CUDA (#8139)
|
1 год назад |
Georgi Gerganov
|
a95631ee97
readme : update API notes
|
1 год назад |
Georgi Gerganov
|
f3f65429c4
llama : reorganize source code + improve CMake (#8006)
|
1 год назад |
Isaac McFadyen
|
8854044561
Clarify default MMQ for CUDA and LLAMA_CUDA_FORCE_MMQ flag (#8115)
|
1 год назад |
Johannes Gäßler
|
c8771ab5f8
CUDA: fix misaligned shared memory read (#8123)
|
1 год назад |
Eddie-Wang
|
494165f3b6
llama : extend llm_build_ffn() to support _scale tensors (#8103)
|
1 год назад |
Olivier Chafik
|
9b2f16f805
`json`: better support for "type" unions (e.g. nullable arrays w/ typed items) (#7863)
|
1 год назад |
Olivier Chafik
|
6777c544bd
`json`: fix additionalProperties, allow space after enum/const (#7840)
|
1 год назад |
jukofyork
|
163d50adaf
fixes #7999 (adds control vectors to all `build_XXX()` functions in `llama.cpp` [needs testing] (#8060)
|
1 год назад |
fairydreaming
|
6fcbf68235
llama : implement Unigram tokenizer needed by T5 and FLAN-T5 model families (#5763)
|
1 год назад |
Daniel Bevenius
|
e6bf007744
llama : return nullptr from llama_grammar_init (#8093)
|
1 год назад |