ci: llama-mockを更新

This commit is contained in:
fkunn1326
2025-03-08 19:59:17 +09:00
parent 79b5a6a785
commit b5765163fe

View File

@@ -16,12 +16,13 @@ package struct llama_context_params {
package func llama_context_default_params() -> llama_context_params { unimplemented() }
package typealias llama_context = OpaquePointer
package func llama_new_context_with_model(_ model: llama_model, _ ctx_params: llama_context_params) -> llama_context? { unimplemented() }
package func llama_init_from_model(_ model: llama_model, _ ctx_params: llama_context_params) -> llama_context? { unimplemented() }
package func llama_free(_ context: llama_context) {}
package typealias llama_model = OpaquePointer
package typealias llama_vocab = OpaquePointer
package func llama_free_model(_ model: llama_model) {}
package func llama_model_free(_ model: llama_model) {}
package func llama_backend_init() {}
package func llama_backend_free() {}
@@ -31,7 +32,7 @@ package struct llama_model_params {
}
package func llama_model_default_params() -> llama_model_params { unimplemented() }
package func llama_load_model_from_file(_ path: String, _ model_params: llama_model_params) -> llama_model? { unimplemented() }
package func llama_model_load_from_file(_ path: String, _ model_params: llama_model_params) -> llama_model? { unimplemented() }
package func llama_kv_cache_seq_rm(_ ctx: llama_context, _ seq_id: llama_seq_id, _ p0: llama_pos, _ p1: llama_pos) {}
package func llama_kv_cache_seq_pos_max(_ ctx: llama_context, _ seq_id: llama_seq_id) -> Int { unimplemented() }
@@ -48,12 +49,12 @@ package struct llama_batch {
package func llama_batch_init(_ n_tokens: Int, _ embd: Int, _ n_seq_max: Int) -> llama_batch { unimplemented() }
package func llama_n_ctx(_ ctx: llama_context) -> Int { unimplemented() }
package func llama_n_vocab(_ model: llama_model) -> Int { unimplemented() }
package func llama_vocab_n_tokens(_ vocab: llama_vocab) -> Int { unimplemented() }
package func llama_tokenize(_ model: llama_model, _ text: String, _ text_len: Int32, _ tokens: UnsafeMutablePointer<llama_token>, _ n_tokens_max: Int32, _ add_special: Bool, _ parse_special: Bool) -> Int { unimplemented() }
package func llama_token_bos(_ model: llama_model) -> llama_token { unimplemented() }
package func llama_token_eos(_ model: llama_model) -> llama_token { unimplemented() }
package func llama_token_to_piece(_ model: llama_model, _ token: llama_token, _ buf: UnsafeMutablePointer<Int8>, _ length: Int32, _ special: Bool) -> Int32 { unimplemented() }
package func llama_vocab_eos(_ vocab: llama_vocab) -> llama_token { unimplemented() }
package func llama_vocab_bos(_ vocab: llama_vocab) -> llama_token { unimplemented() }
package func llama_token_to_piece(_ vocab: llama_vocab, _ token: llama_token, _ buf: UnsafeMutablePointer<Int8>, _ length: Int32, _ lstrip: Int32, _ special: Bool) -> Int32 { unimplemented() }
package func llama_decode(_ ctx: llama_context, _ batch: llama_batch) -> Int { unimplemented() }
package func llama_get_logits(_ ctx: llama_context) -> UnsafeMutablePointer<Float>? { unimplemented() }