ci: llama-mockの抜けを修正

This commit is contained in:
fkunn1326
2025-03-08 20:10:58 +09:00
parent b5765163fe
commit a164294c19

View File

@@ -9,8 +9,8 @@ package typealias llama_seq_id = Int32
package struct llama_context_params {
package var seed: Int
package var n_ctx: Int
package var n_threads: UInt32
package var n_threads_batch: UInt32
package var n_threads: Int32
package var n_threads_batch: Int32
package var n_batch: Int
}
package func llama_context_default_params() -> llama_context_params { unimplemented() }
@@ -32,6 +32,8 @@ package struct llama_model_params {
}
package func llama_model_default_params() -> llama_model_params { unimplemented() }
package func llama_model_get_vocab(_ model: llama_model) -> llama_vocab? { unimplemented() }
package func llama_model_load_from_file(_ path: String, _ model_params: llama_model_params) -> llama_model? { unimplemented() }
package func llama_kv_cache_seq_rm(_ ctx: llama_context, _ seq_id: llama_seq_id, _ p0: llama_pos, _ p1: llama_pos) {}