
2025/07/22(火)
SmolLM3とは、Hugging Faceが公開した3B小型言語モデルです。「Smol(小さい)」という名前とは裏腹に、わずか30億パラメータでありながら3〜4Bクラスのモデルと競合する性能を発揮する驚異的なモデルです。
この記事では、SmolLM3の特徴から具体的な使い方まで、初心者にも分かりやすく解説していきます。
✨ こんな方におすすめの記事です!
目次
SmolLM3は11.2兆トークンという膨大なデータで学習されています。この学習データは以下のような多様な内容で構成されています。
さらに重要なのは、多くのモデルが省略するミッドトレーニング(中間学習)を実施している点です。推論専用に1,400億トークンを追加学習し、その後教師ありファインチューニングとAPO(Anchored Preference Optimization:アンカー付き選好最適化)で調整を行いました。
💡 単純にパターンを記憶するのではなく、論理的な思考プロセスを身につけ、複数ステップの問題解決が可能になっています。
11.2兆トークンとかミッドトレーニングとか、専門用語が多くてよく分からないのですが、要するに何がすごいんですか?
簡単に言うと「めちゃくちゃ大量のデータで、段階的に賢く学習させた」ということです。11.2兆トークンは本で例えると約2,240万冊分に相当する膨大な量です。さらに普通のAIは一度の学習で終わりますが、SmolLM3は基本学習→推論特化学習→人間の好み調整と3段階で学習しています。
SmolLM3には「思考モード」という特別な機能があります。これをオンにすると、モデルが段階的に推論を行い、答えに至るプロセスを明示してくれます。
使い分けのポイント:
数学問題や大学院レベルのQ&Aでは、思考モードによってパフォーマンスが大幅に向上することが確認されています。
完全対応言語(6言語):
部分対応言語:
⚠️ 注意点: 多くのモデルが単純な「トークン整列」で多言語対応を謳う中、SmolLM3は各言語の実際のデータで学習している点が大きな差別化要素です。
SmolLM3は64,000トークンをネイティブで処理可能です。さらにYaRN外挿法により、128,000トークンまで拡張できます。
具体的な活用例:
他モデルとの比較: 同じ3Bクラスの他モデルと比較して、長文コンテキスト処理で優位性を発揮しています。
SmolLM3はツール連携が可能です。JSON形式またはコード形式でツールを定義でき、以下が可能です。
実用的な活用シーン:
サードパーティのラッパーや接続コードが不要な点が大きなメリットです。
ツール呼び出し機能って聞くと、なんだか難しそうですが、実際にはどんなことができるんですか?
とても実用的で、AIが「他のシステムを使ってくれる」機能です。例えば「明日の東京の天気を調べて」と頼むと、SmolLM3が天気APIを自動で呼び出して結果を教えてくれます。他にも「カレンダーに会議を登録して」「この計算をしてExcelに保存して」「在庫データベースを検索して」といった指示を出すだけで、AIが適切なツールを選んで実行してくれます。従来なら複雑なプログラミングが必要だった作業が、日本語での指示だけで完結するのが大きなメリットです。
SmolLM3は各種ベンチマークで、自身の2倍のサイズのモデルを上回る結果を記録しています。
ベンチマーク | スコア | 説明 |
---|---|---|
GSM-Plus(数学) | 83.4 | 数学的推論能力 |
GPQA(大学院レベル推論) | 41.7 | 高度な論理的思考 |
Tool Calling Benchmark | 88.8 | ツール連携性能 |
Global MMLU(多言語QA) | 64.1 | 主要言語での質問応答 |
LiveCodeBench v4(プログラミング) | 30.0 | コーディング能力 |
AIME 2025(数学オリンピック) | 36.7 | 思考モード使用時 |
💡 これらの数値は、思考モード有効時の一例であり、Qwen 4BやLlama3 8Bと同等以上の性能を示しています。
思考モードって具体的にどう便利なんですか?普通のAIと何が違うんでしょうか?
思考モードは「AIが考える過程を見せてくれる」機能です。例えば数学問題を解くとき、普通のAIなら「答えは42です」とだけ答えますが、思考モードなら「まず式を整理して→次に代入して→計算すると42になります」と途中経過を示してくれます。これによって間違いを見つけやすくなりますし、AIの判断根拠を確認できるのでビジネスの重要な判断でも安心して使えます。
SmolLM3は以下の環境・フレームワークで動作します。
量子化バージョンもHugging Face上のコレクションで提供されているため、さらなる軽量化も可能です。
🎯 エージェント開発者
📄 大規模文書処理
💻 コード関連タスク
🏢 リソース制約のある環境
🚫 以下のような方には推奨しません
SmolLM3はオープンソースとしてHugging Faceで公開されています。
🔗 公式リポジトリ: HuggingFaceTB/SmolLM3-3B
⚠️ 注意点: SmolLM3を使用するには、transformers v4.53.0以上が必要です。
pip install -U transformers
以下のPythonコードで簡単に始められます。
from transformers import AutoModelForCausalLM, AutoTokenizer
# モデルの指定
checkpoint = "HuggingFaceTB/SmolLM3-3B"
# トークナイザーとモデルの読み込み
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForCausalLM.from_pretrained(checkpoint)
# ツール定義の例(天気情報取得)
tools = [
{
"name": "get_weather",
"description": "指定された都市の天気を取得します",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "天気を調べたい都市名"
}
}
}
}
]
# メッセージの準備
messages = [
{
"role": "user",
"content": "こんにちは!今日のコペンハーゲンの天気はどうですか?"
}
]
# チャットテンプレートの適用
inputs = tokenizer.apply_chat_template(
messages,
enable_thinking=False, # 思考モード: True/False で切り替え可能
xml_tools=tools,
add_generation_prompt=True,
tokenize=True,
return_tensors="pt"
)
# 回答の生成
outputs = model.generate(inputs)
print(tokenizer.decode(outputs[0]))
🧠 思考モードを有効にする場合
enable_thinking=True # この設定で段階的推論が可能
活用シーン:
SmolLM3は「小さくても本物」の代表例と言えるモデルです。以下の特徴により、多くの実用的なシーンで活躍が期待できます。
SmolLM3の価値
次のステップ: 限られたリソースで実際に成果を出したい方、コスト効率を重視する開発プロジェクト、エッジ環境での展開を検討している方は、ぜひSmolLM3を試してみてください。
🚀 今すぐ始めよう! Hugging Faceのリポジトリから今すぐダウンロードして、あなたのプロジェクトでの活用可能性を探ってみましょう。きっと期待以上の結果に驚かれるはずです!
DBS銀行のデータサイエンティスト。生成AIの実務活用や教育に精通し、情報発信も積極的に行う。
Mehul Gupta(メフル・グプタ)は、DBS銀行のデータサイエンティストであり、 著書『LangChain in Your Pocket』の著者としても知られています。 AIや機械学習の知見を発信するプラットフォーム「Data Science In Your Pocket」を主宰し、 Mediumでは350本以上の技術記事を執筆するトップライターとして活躍中です。 過去にはTata 1mgにて医療データのデジタル化にも取り組みました。 趣味はギター演奏とAI教育への貢献です。
この記事は著者の許可を得て公開しています。
元記事:SmolLM3 : The best small LLM for everything
Workstyle Evolution代表。18万人超YouTuber&著書『ChatGPT最強の仕事術』は4万部突破。
株式会社Workstyle Evolution代表取締役。YouTubeチャンネル「いけともch(チャンネル)」では、 AIエージェント時代の必須ノウハウ・スキルや、最新AIツールの活用法を独自のビジネス視点から解説し、 チャンネル登録数は18万人超(2025年7月時点)。