home / api_requests / talk_script_cache

talk_script_cache: 7

This data as json

id image_hash params_hash slide_count result_json model created_at
7 cac438180f326f5e5542d37ef35b50cb 0696e9b45e935b517764ef6e12d4645a 13 [{"slide_number": 1, "script": "本日は「ローカルLLMでファインチューニング」と題しまして、機械学習の社会実装勉強会第48回、発表させていただきます。西岡賢一郎と申します。どうぞよろしくお願いいたします。"}, {"slide_number": 2, "script": "本日のアジェンダです。まずはファインチューニングの基礎とOllamaの役割を整理し、続いて具体的なワークフローと検証結果を解説します。最後に、実務への導入戦略をお話しします。"}, {"slide_number": 3, "script": "まずは基礎として、プロンプトエンジニアリングとファインチューニングの違いを比較します。プロンプトは既存知識の活用ですが、ファインチューニングは新しい知識や形式の学習に有効です。"}, {"slide_number": 4, "script": "では、なぜOllamaで直接ファインチューニングができないのでしょうか。それはOllamaが推論専用のツールであり、訓練にはPyTorch形式が必要なこと、そして大量のVRAMを要するからです。"}, {"slide_number": 5, "script": "Ollamaでできること、できないことを整理します。システムプロンプト設定やパラメータ調整は可能ですが、モデルの重みの更新や、根本的な知識の追加学習には対応しておりません。"}, {"slide_number": 6, "script": "そこで、Ollamaを活用するためのワークフローを紹介します。データ準備から訓練実行、マージ、GGUF形式への変換を経て、最終的にModelfileを作成する手順が鍵となります。"}, {"slide_number": 7, "script": "実際の検証結果をご覧ください。TinyLlamaを用いた例では、ベースモデルに比べ、配送量についての回答が構造化され、非常に具体的かつ正確なものへと劇的に改善しました。"}, {"slide_number": 8, "script": "具体的な登録手順はご覧の通りです。学習済みモデルをマージし、GGUF変換と量子化を経て、最後にModelfileを作成します。本番環境ではQ4_K_Mの量子化が推奨されます。"}, {"slide_number": 9, "script": "各モデルの性能比較です。検証を重ねた結果、パラメータ数3B程度とデータ数100件以上の組み合わせが、実用化の分かれ目になることが分かりました。"}, {"slide_number": 10, "script": "リソースと実用化の現実についてです。実験なら無料環境で十分ですが、業務利用にはクラウドGPUが必要です。A10等のGPUがあれば、数百件の学習は30分以内に完了します。"}, {"slide_number": 11, "script": "実践的なアプローチとして、まずはプロンプトやFew-shotを試すことを推奨します。それでも解決できない一貫したフォーマットや専門知識が必要な場合に、ファインチューニングを実行してください。"}, {"slide_number": 12, "script": "最後にまとめです。ファインチューニングは魔法ではなくデータ品質が命です。プロセスを理解し、段階的に導入を進めましょう。ご清聴ありがとうございました。質問をお受けします。"}, {"slide_number": 13, "script": "本日のプレゼンテーションで使用した画像ソースです。各出典元には感謝いたします。以上で発表を終了いたします。"}] gemini-3.1-flash-lite 2026-05-11T00:09:28.642131
Powered by Datasette · Queries took 0.56ms