KarpathyがLLMを用いた個人知識ベース構築のワークフローを共有:トークンの大部分はコードを書くことではなく、知識の操作に使われる

BlockBeatNews

1M AIニュースのモニタリングによると、OpenAI共同創設者のAndrej KarpathyがX上で、最近の発見を共有しました。それは、LLMで個人用ナレッジベースを構築することは、コードを書くよりも価値が高いということです。彼の現在の大半のtoken消費は、コード操作から知識操作へと移っています。

完全なワークフローは5つのステップで構成されています:

  1. データ取り込み:記事、論文、コードリポジトリ、データセット、画像などのソースドキュメントをraw/ディレクトリにインデックスし、LLMによるインクリメンタルな「コンパイル」によって、要約、バックリンク、概念の分類、記事の相互リンクを含むmarkdown wikiを作成します
  2. ブラウズUI:Obsidianをフロントエンドとして使い、生のデータ、コンパイル済みのwiki、派生した可視化を閲覧します。wikiの内容は完全にLLMがメンテナンスし、人はほとんど直接編集しません
  3. 質問・照会:wikiが一定規模まで蓄積されると(彼の研究分野の1つでは、すでに約100本の論文、40万語)、LLMに複雑な質問を投げられます。LLMが自らwikiの内容を検索して回答します。彼はRAGが必要だと思っていましたが、この規模ではLLMが自動的に維持するインデックスファイルと要約だけで十分だと分かりました
  4. 出力のリフロー:照会結果はmarkdown、Marpスライド、またはmatplotlibのグラフ形式で生成されます。Obsidianで確認した後、wikiへアーカイブして、個人的な探索が継続的に蓄積されるようにします
  5. 品質の巡回点検:LLMを使って、定期的にwikiに「ヘルスチェック」を行い、データの不整合を見つけ、不足情報を補完し、概念間の関連を掘り起こして、データの完全性をインクリメンタルに高めます

Karpathyは、さらにいくつかのツールも追加で開発したと述べています。たとえば、簡易なwiki検索エンジンで、これは自分でWebの画面上で使うこともできれば、コマンドラインツールとしてLLMに渡して、より大きなクエリを処理させることもできます。彼は、この一連のワークフローは現時点ではまだ「一連のスクリプトの寄せ集め」にすぎないと考えていますが、その裏には「信じがたい新プロダクト」のチャンスが隠れているとのことです。さらに遠い構想としては、最前線のモデルに対して投げたあらゆる質問について、LLMの一群が自動的に一時的なwikiを構築し、品質の巡回点検を行い、数ラウンド反復して、最終的に完全なレポートを出力する——それは「1回の.decode()をはるかに超える」ものになるというものです。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし