技術 2026年5月2日(土) 約22分 FastAPI・Chroma・Open WebUI・Ollamaでマルチモーダル日本語RAGをM1 Maxで組んだ DEV記事のPDF RAGをM1 Max 64GBで実装し、CLIPで画像、bge-m3 + Qwen3.6 35Bで日本語まで通した実験ログ。モダリティギャップ、推論サーバー並走クラッシュ、LLM-jp 4-8Bの指示追従失敗まで実機の挙動を記録。 AI LLM RAG ローカルLLM FastAPI llama.cpp Chroma Python Apple Silicon Ollama 日本語LLM 実験
技術 2026年5月2日(土) 更新 約11分 FastAPI・llama.cpp・Chroma・Open WebUIでPDF用ローカルRAGを組む記事を読んだ DEV Communityの記事をもとに、FastAPIでOpenAI互換RAG APIを作り、llama.cpp、Chroma、Open WebUIをつなぐ構成の位置づけと実装上の落とし穴を整理する。 AI LLM RAG ローカルLLM FastAPI llama.cpp Chroma Python Docker
技術 2026年4月4日(土) 約14分 MintlifyがRAGを捨てて仮想ファイルシステムに切り替えた話 RAGの基礎とベクトルDBの仕組みから解説し、MintlifyがRAGを捨ててUNIXコマンドをChromaDBクエリに変換する仮想ファイルシステムChromaFsに切り替えた設計と実装を掘り下げる。 RAG Chroma AI TypeScript ドキュメンテーション
技術 2026年3月27日(金) 約7分 Chroma Context-1、フロンティアLLMと同等の検索性能を20Bパラメータで実現 Chromaが公開した20Bパラメータの自己編集型検索エージェント。コンテキストを動的にプルーニングしながらマルチホップ検索を行い、フロンティアモデルの1/10コスト・最大10倍速のレイテンシで同等以上の精度を示す。重みはApache 2.0で公開。 Chroma 検索エージェント 強化学習 RAG LLM