llama-chat.h 1.5 KB

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253
  1. #pragma once
  2. #include <string>
  3. #include <vector>
  4. #include <cstdint>
  5. enum llm_chat_template {
  6. LLM_CHAT_TEMPLATE_CHATML,
  7. LLM_CHAT_TEMPLATE_LLAMA_2,
  8. LLM_CHAT_TEMPLATE_LLAMA_2_SYS,
  9. LLM_CHAT_TEMPLATE_LLAMA_2_SYS_BOS,
  10. LLM_CHAT_TEMPLATE_LLAMA_2_SYS_STRIP,
  11. LLM_CHAT_TEMPLATE_MISTRAL_V1,
  12. LLM_CHAT_TEMPLATE_MISTRAL_V3,
  13. LLM_CHAT_TEMPLATE_MISTRAL_V3_TEKKEN,
  14. LLM_CHAT_TEMPLATE_MISTRAL_V7,
  15. LLM_CHAT_TEMPLATE_PHI_3,
  16. LLM_CHAT_TEMPLATE_PHI_4,
  17. LLM_CHAT_TEMPLATE_FALCON_3,
  18. LLM_CHAT_TEMPLATE_ZEPHYR,
  19. LLM_CHAT_TEMPLATE_MONARCH,
  20. LLM_CHAT_TEMPLATE_GEMMA,
  21. LLM_CHAT_TEMPLATE_ORION,
  22. LLM_CHAT_TEMPLATE_OPENCHAT,
  23. LLM_CHAT_TEMPLATE_VICUNA,
  24. LLM_CHAT_TEMPLATE_VICUNA_ORCA,
  25. LLM_CHAT_TEMPLATE_DEEPSEEK,
  26. LLM_CHAT_TEMPLATE_DEEPSEEK_2,
  27. LLM_CHAT_TEMPLATE_DEEPSEEK_3,
  28. LLM_CHAT_TEMPLATE_COMMAND_R,
  29. LLM_CHAT_TEMPLATE_LLAMA_3,
  30. LLM_CHAT_TEMPLATE_CHATGML_3,
  31. LLM_CHAT_TEMPLATE_CHATGML_4,
  32. LLM_CHAT_TEMPLATE_GLMEDGE,
  33. LLM_CHAT_TEMPLATE_MINICPM,
  34. LLM_CHAT_TEMPLATE_EXAONE_3,
  35. LLM_CHAT_TEMPLATE_RWKV_WORLD,
  36. LLM_CHAT_TEMPLATE_GRANITE,
  37. LLM_CHAT_TEMPLATE_GIGACHAT,
  38. LLM_CHAT_TEMPLATE_MEGREZ,
  39. LLM_CHAT_TEMPLATE_UNKNOWN,
  40. };
  41. struct llama_chat_message;
  42. llm_chat_template llm_chat_template_from_str(const std::string & name);
  43. llm_chat_template llm_chat_detect_template(const std::string & tmpl);
  44. int32_t llm_chat_apply_template(
  45. llm_chat_template tmpl,
  46. const std::vector<const llama_chat_message *> & chat,
  47. std::string & dest, bool add_ass);