home / api_requests

talk_script_cache

7 rows

✎ View and edit SQL

This data as json, CSV (advanced)

Suggested facets: image_hash, params_hash, slide_count, created_at (date)

id ▼ image_hash params_hash slide_count result_json model created_at
1 19ededf81adbdfe67a51689ee967fd59 8a6a0055f5697e913d74a873215d18ec 1 [{"slide_number": 1, "script": "最後に、本システム導入による期待効果をまとめます。日々のメモが組織の学習素材となり、追加負担なく知識が蓄積されます。また、暗黙知の資産化やリスクの早期発見も可能です。メモという文化を、組織を成長させる強力な仕組みへと進化させていきましょう。"}] gemini-3.1-flash-lite 2026-05-10T05:50:39.203193
2 55de96ae32bcaa4a6dd69d3e9f5a3d54 4dda05aac4fee823ea987be8106b075c 10 [{"slide_number": 1, "script": "本日は、SYNKA memoの新機能「ナレッジ昇格支援機能」をご紹介します。現場の負荷を最小限に抑えつつ、日々のメモを組織の重要な判断資産へと進化させる仕組みについて解説いたします。"}, {"slide_number": 2, "script": "本機能の概要として、こちらの4つの論点に沿ってお話しします。なぜメモが記録止まりになるのかという課題から、AIを活用した仕組み、ユーザー体験、そして導入による期待効果まで順を追ってご説明します。"}, {"slide_number": 3, "script": "まず課題です。現場のメモは個人の備忘録にとどまりがちです。判断の理由や適用条件といった文脈が欠けているため、せっかくの気づきも他現場や次世代に引き継がれず、組織の資産として活かされていないのが現状です。"}, {"slide_number": 4, "script": "そこで本機能が目指すのは、他者の判断の質を高める「知見」の蓄積です。現場にはこれまで通りの記録フローを維持しつつ、AIが不足要素を補完する質問を1問だけ投げることで、高い密度でナレッジ化を促進します。"}, {"slide_number": 5, "script": "SYNKA memoでは、メモを「ただのメモ」「ナレッジ候補」「ナレッジ認定」の3種類に分類します。不足している文脈を補い、認定へと引き上げる一連のプロセスを「ナレッジ昇格」と定義しています。"}, {"slide_number": 6, "script": "仕組みの全体像です。保存から共有まで、AIによる2段階の判定フローを並行して実行します。重大なリスクはスコアに関わらず即座に検知し、数秒で判定が完了するストレスのない設計となっています。"}, {"slide_number": 7, "script": "判定ロジックの詳細です。一次判定でナレッジの可能性を足切りし、二次判定で再利用性を担保する2段階のスコアリングを行います。評価軸やしきい値は組織のニーズに合わせて柔軟にカスタマイズが可能です。"}, {"slide_number": 8, "script": "ユーザー体験については、迷いや負担を徹底的に排除しました。不足要素がわかるスコアカード表示や、回答を1問に限定する工夫により、忙しい現場でも自然とナレッジ作成に参加できる環境を整えています。"}, {"slide_number": 9, "script": "さらに、認定されたナレッジには自動でタグが付与されるため、後からの検索も容易です。また、判定プロンプトや軸の定義も組織ごとに変更できるため、各現場の文化に合わせた最適な運用が実現できます。"}, {"slide_number": 10, "script": "まとめです。SYNKA memoは、日常のメモを組織を強くする学習素材へと変えます。現場の負荷をかけずに暗黙知を資産化し、重要なリスクも見逃さない。メモの文化を組織の成長エンジンへと昇華させましょう。"}] gemini-3.1-flash-lite 2026-05-10T05:56:35.861196
3 9ec634a193169d8aee7552637ad1ff8b ec5e3faf4e24a418314d59e057538ec7 12 [{"slide_number": 1, "script": "本日は「ローカルLLMでファインチューニング」と題し、大規模言語モデルの微調整手法について解説します。機械学習の社会実装勉強会、第48回へようこそ。"}, {"slide_number": 2, "script": "本日のアジェンダです。ファインチューニングの基礎から、Ollamaとの関係、具体的な手順、そして実運用のリアルな課題まで網羅的に見ていきます。"}, {"slide_number": 3, "script": "まずはファインチューニングとは何か。プロンプトエンジニアリングが既存知識の活用であるのに対し、ファインチューニングは新しい知識の習得を可能にします。"}, {"slide_number": 4, "script": "次に、よくある誤解を解きます。Ollamaはモデルを「動かす」ための実行ツールであり、モデルを「訓練する」プロセスであるファインチューニングとは目的が異なります。"}, {"slide_number": 5, "script": "Ollamaではモデルの重み更新は行えません。あくまで実行環境ですので、学習には別途PyTorchなどの専用環境が必要であることを押さえておきましょう。"}, {"slide_number": 6, "script": "ファインチューニングのワークフローを整理します。データ準備から学習、変換を経て、最後にOllamaで実行する流れです。特にデータの質が重要となります。"}, {"slide_number": 7, "script": "実演デモではTinyLlamaを用いました。結果、回答構造は改善しましたが、詳細な数値情報の習得には、より多くのデータ量が必要だと分かりました。"}, {"slide_number": 8, "script": "Ollamaで使うまでの具体的な手順です。PyTorchで学習後、GGUF形式へ変換し、量子化を経てモデル登録を行います。本番環境にはQ4_K_Mが推奨です。"}, {"slide_number": 9, "script": "検証結果の分析です。モデルの規模とデータ量の双方が重要です。Qwen2.5で100サンプル以上を学習させることで、実用レベルに到達できることが確認できました。"}, {"slide_number": 10, "script": "リソースの現実についてです。まずはGoogle Colabで小規模に検証し、業務利用へ段階的に拡大していくアプローチが、投資対効果を最大化する鍵となります。"}, {"slide_number": 11, "script": "実践的なアプローチとして、まずはプロンプトで試し、限界を感じたらファインチューニングへ移行する段階的なステップを強く推奨いたします。"}, {"slide_number": 12, "script": "まとめです。ファインチューニングは強力ですが魔法ではありません。まずは基礎的な手法から着実に進めていきましょう。以上で本日の発表を終了します。"}] gemini-3.1-flash-lite 2026-05-10T07:05:10.578212
4 cac438180f326f5e5542d37ef35b50cb 6100ea82dc35f81d59c8fc63875a99b4 13 [{"slide_number": 1, "script": "本日は「ローカルLLMでファインチューニング」と題しまして、LLMのカスタマイズ手法についてお話しします。機械学習の社会実装勉強会、第48回となります。発表者の西岡賢一郎です。よろしくお願いいたします。"}, {"slide_number": 2, "script": "本日のアジェンダです。まずは基礎としてファインチューニングの概念とOllamaに関する誤解を解きます。次に実践としてワークフローとデモを解説し、最後に戦略としてリソースと導入の考え方をお伝えします。"}, {"slide_number": 3, "script": "まず、プロンプトとファインチューニングの違いを比較します。プロンプトエンジニアリングは既存知識を活用する低コストな手段ですが、ファインチューニングは新しい知識や形式を学習させ、動作を根本から変えるための手法です。"}, {"slide_number": 4, "script": "なぜOllamaで直接ファインチューニングができないのか。理由は設計思想、技術的制限、そしてリソースの違いにあります。Ollamaは推論用であり、訓練にはPyTorch形式と、GPUメモリが必要です。"}, {"slide_number": 5, "script": "Ollamaでできることとできないことを整理します。プロンプト設定やパラメータ調整は可能ですが、モデルの重みの更新や、新しい知識の追加学習といった根本的な改善は、Ollama単体では行えません。"}, {"slide_number": 6, "script": "こちらがファインチューニングのワークフローです。データの準備から始まり、訓練実行、マージ、GGUF形式への変換を経て、最後にOllamaで実行します。PyTorchやHugging Faceといったツールが鍵となります。"}, {"slide_number": 7, "script": "TinyLlamaを用いた検証デモの結果です。ベースモデルでは曖昧だった回答が、ファインチューニング後は具体的かつ構造化されました。ただし、データ量が少ないと特定の数値を正確に記憶させるには限界があります。"}, {"slide_number": 8, "script": "Ollamaにモデルを登録する手順です。学習後のモデルをマージし、GGUF変換と量子化を行い、Modelfileを作成します。本番環境ではバランスの良いQ4_K_M形式が推奨されます。"}, {"slide_number": 9, "script": "モデルごとの性能比較です。検証レベルから実用レベルまでを分類しました。パラメータ数3B程度とデータ数100件以上の組み合わせが、実用化の分岐点になると考えています。"}, {"slide_number": 10, "script": "リソースと実用化の現実です。実験なら無料枠で十分ですが、業務利用にはクラウドGPUが必要です。本格的なプロダクション用途にはA100やH100が推奨されます。数百サンプルなら30分で学習可能です。"}, {"slide_number": 11, "script": "実践的なアプローチとして、まずはプロンプト、次にFew-shot、それでも難しい場合にファインチューニングを推奨します。一貫したフォーマットや専門知識が必要な場面で、初めて検討すべき手法です。"}, {"slide_number": 12, "script": "まとめです。ファインチューニングは魔法ではなく、データ品質が重要です。Ollamaとの連携には変換プロセスの理解が不可欠であり、コストと効果のバランスを見ながら段階的に導入してください。ご清聴ありがとうございました。"}, {"slide_number": 13, "script": "最後に、本プレゼンテーションで使用した画像の出典を記載しております。ご参照ください。"}] gemini-3.1-flash-lite 2026-05-10T14:25:14.877282
5 cac438180f326f5e5542d37ef35b50cb ab04d133752830e2d008fc6df75c9517 13 [{"slide_number": 1, "script": "皆様、こんにちは。本日は「ローカルLLMでファインチューニング」と題しまして、機械学習の社会実装勉強会第48回、発表させていただきます。西岡賢一郎と申します。"}, {"slide_number": 2, "script": "本日のアジェンダです。まずはファインチューニングの基礎とOllamaに関する誤解を解いた上で、実際のワークフローを解説します。最後に、検証結果を踏まえた導入戦略についてお話しします。"}, {"slide_number": 3, "script": "まずプロンプトエンジニアリングとファインチューニングの比較です。プロンプトは既存知識の活用に留まりますが、ファインチューニングは新しい知識や形式を学習させ、根本的な動作変更が可能です。"}, {"slide_number": 4, "script": "では、なぜOllama単体ではファインチューニングできないのか。それは設計思想や形式の違い、そして何より訓練には大量のビデオメモリを持つGPUが必須だからです。"}, {"slide_number": 5, "script": "Ollamaでできることとできないことを整理します。システムプロンプトの設定やAPI連携は可能ですが、モデルの重みの更新や知識の追加学習、動作パターンの改善は対象外となります。"}, {"slide_number": 6, "script": "続いて、実際のファインチューニングのワークフローです。データ準備から訓練、マージ、GGUF変換を経て、最終的にOllamaで実行します。各工程で適切なツール選定が重要です。"}, {"slide_number": 7, "script": "TinyLlamaを用いた検証結果です。左がベースモデルですが、右のファインチューニング後では、配送コストについて具体的かつ構造化された回答を得られるよう改善されました。"}, {"slide_number": 8, "script": "Ollamaに登録するまでの具体的な手順です。学習モデルの出力からマージ、変換、量子化を行い、最後にModelfileを作成します。本番環境ではQ4_K_Mの量子化が推奨されます。"}, {"slide_number": 9, "script": "モデルごとの性能比較です。検証用から実用レベルまで段階がありますが、パラメータ数3B程度とデータ数100件以上の組み合わせが実用化の重要な分岐点となります。"}, {"slide_number": 10, "script": "リソースと実用化の現実についてです。実験なら無料枠で十分ですが、業務利用にはA10等のクラウドGPUが適しており、数百サンプルであれば30分以内で学習が完了します。"}, {"slide_number": 11, "script": "実践的アプローチとして、まずはプロンプトやFew-shotを試すことを推奨します。それらで解決できない一貫したフォーマットや専門知識が必要な場合に、ファインチューニングを検討してください。"}, {"slide_number": 12, "script": "まとめです。ファインチューニングは魔法ではありません。Ollamaとの関係を理解し、コストと効果のバランスを見ながら段階的に導入を進めていきましょう。ご清聴ありがとうございました。"}, {"slide_number": 13, "script": "本プレゼンテーションで使用した画像の出典元です。詳細についてはこちらをご参照ください。それでは、これより質疑応答に移らせていただきます。"}] gemini-3.1-flash-lite 2026-05-10T14:28:58.714825
6 556e5389d53099810800ffe517420844 ab04d133752830e2d008fc6df75c9517 13 [{"slide_number": 1, "script": "本日は「変革脳のつくり方」と題しまして、私自身の思考習慣やインプット、アウトプット、そして日々の行動についてお話しします。変化の激しい時代を生き抜くためのヒントとしてお聞きください。"}, {"slide_number": 2, "script": "それではまず、なぜ今「変革脳」が必要なのかについてお話しします。かつてのように正解を待ってから動くやり方では、もはや時代のスピードに間に合いません。自ら変化を創り出す姿勢が不可欠なのです。"}, {"slide_number": 3, "script": "では、変革脳とは何でしょうか。これは特別な才能や知識のことではありません。違和感を見逃さず、問いを持ち続け、小さく試す。それらを日常的に繰り返す「習慣の積み重ね」こそが、変革脳の正体なのです。"}, {"slide_number": 4, "script": "変革を支える土台となる考え方をご紹介します。完璧な計画を待たず仮説から動くこと、既存の制約の中で一歩前進する道を探ること、そして仲間と共創すること。DXとは、まさにこの仲間集めのプロセスです。"}, {"slide_number": 5, "script": "次に、日常のインプットと材料集めについてお話しします。ニュースなどを活用して時代の流れを掴み、技術そのものより「なぜそれが起きているのか」という背景を意識し、多様な視点が繋がることを信じます。"}, {"slide_number": 6, "script": "多角的な視点を持つために、私は本やデザインの知見を大切にしています。変革の本質は「人」にあります。UX、つまり使う人の体験を深掘りし、テクノロジーの性能ではなく体験の質で成否が決まると理解します。"}, {"slide_number": 7, "script": "視点を広げるには、業界の外や現場の深淵へ足を運ぶことも重要です。肩書きを外して交流し、客観的な立ち位置を確認しましょう。また、資料ではなく現場の「不満」の中にこそ、真の課題が隠されています。"}, {"slide_number": 8, "script": "テクノロジーとの付き合い方についてです。まずは面白がって触れることが大切です。プライベートで遊び感覚で使うことで、自然と仕事への活用アイデアが湧いてきます。日常を実験の場に変えていきましょう。"}, {"slide_number": 9, "script": "アウトプットで脳を育てることも忘れてはなりません。週末の散歩や家族との対話など、五感を刺激する時間は思考を整理します。自由な「妄想」を膨らませることこそが、最高のアイデアを生むアウトプットになります。"}, {"slide_number": 10, "script": "これらの一連の流れを「変革脳の循環モデル」として整理しました。インプットから始まり、違和感を経て妄想し、アウトプットして小さく行動する。このサイクルを回すことで、経験が確かな学びに変わっていきます。"}, {"slide_number": 11, "script": "それでは、明日からできるアクションをまとめました。業界外のニュースに触れる、現場の不満を聞きに行く、新しいツールで遊ぶ、そして誰かに妄想を話す。これら小さな一歩から始めてみてください。"}, {"slide_number": 12, "script": "最後に、変革脳は特別な誰かの仕事ではなく、日々の積み重ねで誰にでも育てられる「生き方」に近いものです。未来を先に考え、今日の行動を少し変えてみませんか。ご清聴ありがとうございました。"}, {"slide_number": 13, "script": "なお、本プレゼンテーションで使用した画像素材のソースはこちらにまとめております。ご参照ください。"}] gemini-3.1-flash-lite 2026-05-10T15:16:45.550494
7 cac438180f326f5e5542d37ef35b50cb 0696e9b45e935b517764ef6e12d4645a 13 [{"slide_number": 1, "script": "本日は「ローカルLLMでファインチューニング」と題しまして、機械学習の社会実装勉強会第48回、発表させていただきます。西岡賢一郎と申します。どうぞよろしくお願いいたします。"}, {"slide_number": 2, "script": "本日のアジェンダです。まずはファインチューニングの基礎とOllamaの役割を整理し、続いて具体的なワークフローと検証結果を解説します。最後に、実務への導入戦略をお話しします。"}, {"slide_number": 3, "script": "まずは基礎として、プロンプトエンジニアリングとファインチューニングの違いを比較します。プロンプトは既存知識の活用ですが、ファインチューニングは新しい知識や形式の学習に有効です。"}, {"slide_number": 4, "script": "では、なぜOllamaで直接ファインチューニングができないのでしょうか。それはOllamaが推論専用のツールであり、訓練にはPyTorch形式が必要なこと、そして大量のVRAMを要するからです。"}, {"slide_number": 5, "script": "Ollamaでできること、できないことを整理します。システムプロンプト設定やパラメータ調整は可能ですが、モデルの重みの更新や、根本的な知識の追加学習には対応しておりません。"}, {"slide_number": 6, "script": "そこで、Ollamaを活用するためのワークフローを紹介します。データ準備から訓練実行、マージ、GGUF形式への変換を経て、最終的にModelfileを作成する手順が鍵となります。"}, {"slide_number": 7, "script": "実際の検証結果をご覧ください。TinyLlamaを用いた例では、ベースモデルに比べ、配送量についての回答が構造化され、非常に具体的かつ正確なものへと劇的に改善しました。"}, {"slide_number": 8, "script": "具体的な登録手順はご覧の通りです。学習済みモデルをマージし、GGUF変換と量子化を経て、最後にModelfileを作成します。本番環境ではQ4_K_Mの量子化が推奨されます。"}, {"slide_number": 9, "script": "各モデルの性能比較です。検証を重ねた結果、パラメータ数3B程度とデータ数100件以上の組み合わせが、実用化の分かれ目になることが分かりました。"}, {"slide_number": 10, "script": "リソースと実用化の現実についてです。実験なら無料環境で十分ですが、業務利用にはクラウドGPUが必要です。A10等のGPUがあれば、数百件の学習は30分以内に完了します。"}, {"slide_number": 11, "script": "実践的なアプローチとして、まずはプロンプトやFew-shotを試すことを推奨します。それでも解決できない一貫したフォーマットや専門知識が必要な場合に、ファインチューニングを実行してください。"}, {"slide_number": 12, "script": "最後にまとめです。ファインチューニングは魔法ではなくデータ品質が命です。プロセスを理解し、段階的に導入を進めましょう。ご清聴ありがとうございました。質問をお受けします。"}, {"slide_number": 13, "script": "本日のプレゼンテーションで使用した画像ソースです。各出典元には感謝いたします。以上で発表を終了いたします。"}] gemini-3.1-flash-lite 2026-05-11T00:09:28.642131

Advanced export

JSON shape: default, array, newline-delimited, object

CSV options:

CREATE TABLE talk_script_cache (
                id INTEGER PRIMARY KEY AUTOINCREMENT,
                image_hash TEXT NOT NULL,
                params_hash TEXT NOT NULL,
                slide_count INTEGER NOT NULL,
                result_json TEXT NOT NULL,
                model TEXT,
                created_at TEXT NOT NULL,
                UNIQUE(image_hash, params_hash)
            );
Powered by Datasette · Queries took 7.445ms