🚀 Tema_Q-R3.1

🔥 モデル概要

Tema_Q-R3.1(天馬求) は、Googleが開発した高性能なオープンモデル Gemma 2 9B を基盤にした、日本語、英語、中国語向けの改良版大規模言語モデル(LLM)です。

通常のGemma 2では回答が難しいプロンプトに対しても、より自由で有用な応答を生成できるよう設計されています。クリエイティブな執筆、複雑なプログラミングタスク、ディープな知識探求など、あらゆる分野でAIの可能性を最大限に引き出したいユーザーに最適です。

Tema_Q-R3.1 is an improved Large Language Model (LLM) tailored for Japanese, English, and Chinese, built upon Gemma 2 9B, a high-performance open model developed by Google.

It is designed to generate more flexible and useful responses, even for prompts that the standard Gemma 2 might find challenging to answer. It is ideal for users who wish to maximize the potential of AI in all fields, including creative writing, complex programming tasks, and deep knowledge exploration.

GGUFファイルは以下より入手できます。 https://huggingface.co/kawasumi/Tema_Q-R3.1-GGUF

項目 詳細
ベースモデル Google Gemma 2 9B
モデル名 Tema_Q-R3.1
対応言語 日本語 (JA), 英語 (EN), 中国語 (ZH)
モデルサイズ 9 Billion Parameters
ライセンス Gemma 2のライセンスに準拠
開発 KY, TY, HY, KK

🛡️ 責任あるAI利用と学習データの安全性

⚠️ 責任ある利用の徹底

  • ユーザーの責任: モデルの利用者は、生成されたコンテンツが、適用される法律、規制、およびHugging Faceの利用規約/コンテンツポリシーに準拠することを全面的に保証する必要があります。
  • 禁止事項: このモデルを、いかなる差別、ハラスメント、暴力、違法行為、および有害な目的のために利用することを固く禁じます

💻 Colabで動かす

以下のコードをGoogle Colaboratoryにコピペするだけで、Tema_Q-R3.1 の強力な推論を体験できます。

推奨環境: Google ColabのT4 GPUまたはそれ以上のVRAMを持つ環境

※GGUFからアクセスした方が高速かつ安定した推論が可能です。GGUFモデル配布ページに迂回してください。

# 必要なライブラリをインストールします
!pip install -qU transformers accelerate bitsandbytes

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig

# モデルID
model_id = "kawasumi/Tema_Q-R3.1"

# 4-bit 量子化設定 (ColabでのVRAM節約に最適)
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=torch.bfloat16 # Gemma 2に推奨される計算データ型
)

# モデルとトークナイザーのロード
# device_map="auto" で、VRAMに自動で分散配置されます
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    quantization_config=bnb_config,
    device_map="auto"
)

# 対話履歴
# 日本語のプロンプト例
messages = [
    {"role": "user", "content": "生成AIについて日本語で200字以内で教えてください。"}
]

# 📝 変更点: トークナイズとテンプレート適用を同時に行う
# **tokenizer() 関数に直接 messages リストを渡します**
input_ids = tokenizer.apply_chat_template(
    messages, 
    tokenize=True,             # トークナイズを実行
    add_generation_prompt=True,
    return_tensors="pt"        # PyTorchテンソルを返す
).to(model.device)

# ---------------------------------------------------------------------------------

print("--- 推論中 ---")

outputs = model.generate(
    input_ids=input_ids, # 修正後の input_ids を使用
    max_new_tokens=512, 
    do_sample=True, 
    temperature=0.6, 
    top_p=0.9
)

# 結果の表示
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)

# 応答全体から、プロンプト部分を除去して表示
response_start = generated_text.find("<model>") + len("<model>")
clean_response = generated_text[response_start:].strip()

print("\n[生成された応答]\n")
print(clean_response)
Downloads last month
110
Safetensors
Model size
9B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for kawasumi/Tema_Q-R3.1

Base model

google/gemma-2-9b
Finetuned
(378)
this model
Quantizations
3 models