talk_script_cache: 5
This data as json
| id | image_hash | params_hash | slide_count | result_json | model | created_at |
|---|---|---|---|---|---|---|
| 5 | cac438180f326f5e5542d37ef35b50cb | ab04d133752830e2d008fc6df75c9517 | 13 | [{"slide_number": 1, "script": "皆様、こんにちは。本日は「ローカルLLMでファインチューニング」と題しまして、機械学習の社会実装勉強会第48回、発表させていただきます。西岡賢一郎と申します。"}, {"slide_number": 2, "script": "本日のアジェンダです。まずはファインチューニングの基礎とOllamaに関する誤解を解いた上で、実際のワークフローを解説します。最後に、検証結果を踏まえた導入戦略についてお話しします。"}, {"slide_number": 3, "script": "まずプロンプトエンジニアリングとファインチューニングの比較です。プロンプトは既存知識の活用に留まりますが、ファインチューニングは新しい知識や形式を学習させ、根本的な動作変更が可能です。"}, {"slide_number": 4, "script": "では、なぜOllama単体ではファインチューニングできないのか。それは設計思想や形式の違い、そして何より訓練には大量のビデオメモリを持つGPUが必須だからです。"}, {"slide_number": 5, "script": "Ollamaでできることとできないことを整理します。システムプロンプトの設定やAPI連携は可能ですが、モデルの重みの更新や知識の追加学習、動作パターンの改善は対象外となります。"}, {"slide_number": 6, "script": "続いて、実際のファインチューニングのワークフローです。データ準備から訓練、マージ、GGUF変換を経て、最終的にOllamaで実行します。各工程で適切なツール選定が重要です。"}, {"slide_number": 7, "script": "TinyLlamaを用いた検証結果です。左がベースモデルですが、右のファインチューニング後では、配送コストについて具体的かつ構造化された回答を得られるよう改善されました。"}, {"slide_number": 8, "script": "Ollamaに登録するまでの具体的な手順です。学習モデルの出力からマージ、変換、量子化を行い、最後にModelfileを作成します。本番環境ではQ4_K_Mの量子化が推奨されます。"}, {"slide_number": 9, "script": "モデルごとの性能比較です。検証用から実用レベルまで段階がありますが、パラメータ数3B程度とデータ数100件以上の組み合わせが実用化の重要な分岐点となります。"}, {"slide_number": 10, "script": "リソースと実用化の現実についてです。実験なら無料枠で十分ですが、業務利用にはA10等のクラウドGPUが適しており、数百サンプルであれば30分以内で学習が完了します。"}, {"slide_number": 11, "script": "実践的アプローチとして、まずはプロンプトやFew-shotを試すことを推奨します。それらで解決できない一貫したフォーマットや専門知識が必要な場合に、ファインチューニングを検討してください。"}, {"slide_number": 12, "script": "まとめです。ファインチューニングは魔法ではありません。Ollamaとの関係を理解し、コストと効果のバランスを見ながら段階的に導入を進めていきましょう。ご清聴ありがとうございました。"}, {"slide_number": 13, "script": "本プレゼンテーションで使用した画像の出典元です。詳細についてはこちらをご参照ください。それでは、これより質疑応答に移らせていただきます。"}] | gemini-3.1-flash-lite | 2026-05-10T14:28:58.714825 |