222
222
# LLAMA_VOCAB_PRE_TYPE_EXAONE = 25,
223
223
# LLAMA_VOCAB_PRE_TYPE_CHAMELEON = 26,
224
224
# LLAMA_VOCAB_PRE_TYPE_MINERVA = 27,
225
+ # LLAMA_VOCAB_PRE_TYPE_DEEPSEEK3_LLM = 28,
225
226
# };
226
227
LLAMA_VOCAB_PRE_TYPE_DEFAULT = 0
227
228
LLAMA_VOCAB_PRE_TYPE_LLAMA3 = 1
251
252
LLAMA_VOCAB_PRE_TYPE_EXAONE = 25
252
253
LLAMA_VOCAB_PRE_TYPE_CHAMELEON = 26
253
254
LLAMA_VOCAB_PRE_TYPE_MINERVA = 27
255
+ LLAMA_VOCAB_PRE_TYPE_DEEPSEEK3_LLM = 28
254
256
255
257
256
258
# // note: these values should be synchronized with ggml_rope
@@ -1090,9 +1092,10 @@ def llama_backend_free():
1090
1092
...
1091
1093
1092
1094
1093
- # LLAMA_API struct llama_model * llama_load_model_from_file(
1095
+ # DEPRECATED( LLAMA_API struct llama_model * llama_load_model_from_file(
1094
1096
# const char * path_model,
1095
- # struct llama_model_params params);
1097
+ # struct llama_model_params params),
1098
+ # "use llama_model_load_from_file instead");
1096
1099
@ctypes_function (
1097
1100
"llama_load_model_from_file" ,
1098
1101
[ctypes .c_char_p , llama_model_params ],
@@ -1104,6 +1107,20 @@ def llama_load_model_from_file(
1104
1107
...
1105
1108
1106
1109
1110
+ # LLAMA_API struct llama_model * llama_model_load_from_file(
1111
+ # const char * path_model,
1112
+ # struct llama_model_params params);
1113
+ @ctypes_function (
1114
+ "llama_model_load_from_file" ,
1115
+ [ctypes .c_char_p , llama_model_params ],
1116
+ llama_model_p_ctypes ,
1117
+ )
1118
+ def llama_model_load_from_file (
1119
+ path_model : bytes , params : llama_model_params , /
1120
+ ) -> Optional [llama_model_p ]:
1121
+ ...
1122
+
1123
+
1107
1124
# LLAMA_API void llama_free_model(struct llama_model * model);
1108
1125
@ctypes_function (
1109
1126
"llama_free_model" ,
@@ -1114,6 +1131,16 @@ def llama_free_model(model: llama_model_p, /):
1114
1131
...
1115
1132
1116
1133
1134
+ # LLAMA_API void llama_model_free(struct llama_model * model);
1135
+ @ctypes_function (
1136
+ "llama_model_free" ,
1137
+ [llama_model_p_ctypes ],
1138
+ None ,
1139
+ )
1140
+ def llama_model_free (model : llama_model_p , / ):
1141
+ ...
1142
+
1143
+
1117
1144
# LLAMA_API struct llama_context * llama_new_context_with_model(
1118
1145
# struct llama_model * model,
1119
1146
# struct llama_context_params params);
0 commit comments