Edit model card

Malaysian Gemma 2B 16k instructions - GGUF

Pengenalan

Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python.

Prompt template: Gemma

<start_of_turn>user
kwsp tu apa?<end_of_turn>
<start_of_turn>model
Kumpulan wang simpanan pekerja<end_of_turn>
<start_of_turn>user
kumpulan tu buat apa?<end_of_turn>
<start_of_turn>model

Fail yang diberikan

Sila rujuk Files and versions

Penghargaan

Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!

Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.


Downloads last month
69
GGUF
Model size
2.51B params
Architecture
gemma

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

16-bit

32-bit

Inference Examples
Inference API (serverless) is not available, repository is disabled.

Model tree for prsyahmi/malaysian-gemma-2B-16k-instructions-GGUF

Quantized
this model