talk_script_cache: 3
This data as json
| id | image_hash | params_hash | slide_count | result_json | model | created_at |
|---|---|---|---|---|---|---|
| 3 | 9ec634a193169d8aee7552637ad1ff8b | ec5e3faf4e24a418314d59e057538ec7 | 12 | [{"slide_number": 1, "script": "本日は「ローカルLLMでファインチューニング」と題し、大規模言語モデルの微調整手法について解説します。機械学習の社会実装勉強会、第48回へようこそ。"}, {"slide_number": 2, "script": "本日のアジェンダです。ファインチューニングの基礎から、Ollamaとの関係、具体的な手順、そして実運用のリアルな課題まで網羅的に見ていきます。"}, {"slide_number": 3, "script": "まずはファインチューニングとは何か。プロンプトエンジニアリングが既存知識の活用であるのに対し、ファインチューニングは新しい知識の習得を可能にします。"}, {"slide_number": 4, "script": "次に、よくある誤解を解きます。Ollamaはモデルを「動かす」ための実行ツールであり、モデルを「訓練する」プロセスであるファインチューニングとは目的が異なります。"}, {"slide_number": 5, "script": "Ollamaではモデルの重み更新は行えません。あくまで実行環境ですので、学習には別途PyTorchなどの専用環境が必要であることを押さえておきましょう。"}, {"slide_number": 6, "script": "ファインチューニングのワークフローを整理します。データ準備から学習、変換を経て、最後にOllamaで実行する流れです。特にデータの質が重要となります。"}, {"slide_number": 7, "script": "実演デモではTinyLlamaを用いました。結果、回答構造は改善しましたが、詳細な数値情報の習得には、より多くのデータ量が必要だと分かりました。"}, {"slide_number": 8, "script": "Ollamaで使うまでの具体的な手順です。PyTorchで学習後、GGUF形式へ変換し、量子化を経てモデル登録を行います。本番環境にはQ4_K_Mが推奨です。"}, {"slide_number": 9, "script": "検証結果の分析です。モデルの規模とデータ量の双方が重要です。Qwen2.5で100サンプル以上を学習させることで、実用レベルに到達できることが確認できました。"}, {"slide_number": 10, "script": "リソースの現実についてです。まずはGoogle Colabで小規模に検証し、業務利用へ段階的に拡大していくアプローチが、投資対効果を最大化する鍵となります。"}, {"slide_number": 11, "script": "実践的なアプローチとして、まずはプロンプトで試し、限界を感じたらファインチューニングへ移行する段階的なステップを強く推奨いたします。"}, {"slide_number": 12, "script": "まとめです。ファインチューニングは強力ですが魔法ではありません。まずは基礎的な手法から着実に進めていきましょう。以上で本日の発表を終了します。"}] | gemini-3.1-flash-lite | 2026-05-10T07:05:10.578212 |