talk_script_cache: 4
This data as json
| id | image_hash | params_hash | slide_count | result_json | model | created_at |
|---|---|---|---|---|---|---|
| 4 | cac438180f326f5e5542d37ef35b50cb | 6100ea82dc35f81d59c8fc63875a99b4 | 13 | [{"slide_number": 1, "script": "本日は「ローカルLLMでファインチューニング」と題しまして、LLMのカスタマイズ手法についてお話しします。機械学習の社会実装勉強会、第48回となります。発表者の西岡賢一郎です。よろしくお願いいたします。"}, {"slide_number": 2, "script": "本日のアジェンダです。まずは基礎としてファインチューニングの概念とOllamaに関する誤解を解きます。次に実践としてワークフローとデモを解説し、最後に戦略としてリソースと導入の考え方をお伝えします。"}, {"slide_number": 3, "script": "まず、プロンプトとファインチューニングの違いを比較します。プロンプトエンジニアリングは既存知識を活用する低コストな手段ですが、ファインチューニングは新しい知識や形式を学習させ、動作を根本から変えるための手法です。"}, {"slide_number": 4, "script": "なぜOllamaで直接ファインチューニングができないのか。理由は設計思想、技術的制限、そしてリソースの違いにあります。Ollamaは推論用であり、訓練にはPyTorch形式と、GPUメモリが必要です。"}, {"slide_number": 5, "script": "Ollamaでできることとできないことを整理します。プロンプト設定やパラメータ調整は可能ですが、モデルの重みの更新や、新しい知識の追加学習といった根本的な改善は、Ollama単体では行えません。"}, {"slide_number": 6, "script": "こちらがファインチューニングのワークフローです。データの準備から始まり、訓練実行、マージ、GGUF形式への変換を経て、最後にOllamaで実行します。PyTorchやHugging Faceといったツールが鍵となります。"}, {"slide_number": 7, "script": "TinyLlamaを用いた検証デモの結果です。ベースモデルでは曖昧だった回答が、ファインチューニング後は具体的かつ構造化されました。ただし、データ量が少ないと特定の数値を正確に記憶させるには限界があります。"}, {"slide_number": 8, "script": "Ollamaにモデルを登録する手順です。学習後のモデルをマージし、GGUF変換と量子化を行い、Modelfileを作成します。本番環境ではバランスの良いQ4_K_M形式が推奨されます。"}, {"slide_number": 9, "script": "モデルごとの性能比較です。検証レベルから実用レベルまでを分類しました。パラメータ数3B程度とデータ数100件以上の組み合わせが、実用化の分岐点になると考えています。"}, {"slide_number": 10, "script": "リソースと実用化の現実です。実験なら無料枠で十分ですが、業務利用にはクラウドGPUが必要です。本格的なプロダクション用途にはA100やH100が推奨されます。数百サンプルなら30分で学習可能です。"}, {"slide_number": 11, "script": "実践的なアプローチとして、まずはプロンプト、次にFew-shot、それでも難しい場合にファインチューニングを推奨します。一貫したフォーマットや専門知識が必要な場面で、初めて検討すべき手法です。"}, {"slide_number": 12, "script": "まとめです。ファインチューニングは魔法ではなく、データ品質が重要です。Ollamaとの連携には変換プロセスの理解が不可欠であり、コストと効果のバランスを見ながら段階的に導入してください。ご清聴ありがとうございました。"}, {"slide_number": 13, "script": "最後に、本プレゼンテーションで使用した画像の出典を記載しております。ご参照ください。"}] | gemini-3.1-flash-lite | 2026-05-10T14:25:14.877282 |