技術 2026年5月7日(木) 約10分 エージェントメモリは記憶ではなくメモという論文を読んだ arXiv:2604.27707の主張を、CTXやOCR-Memoryのような検索系メモリと並べて読む。RAG、vector store、scratchpadは便利な検索棚だが、経験からルールを重みに畳み込む学習とは別物だ。 AI AIエージェント RAG トークン管理 AIセーフティ 論文
技術 2026年5月7日(木) 約9分 人間とLLMの共著テキスト境界を変化点検出で切るarXiv論文を読んで最小実装を試した arXiv:2605.03723の人間・LLM共著テキスト分割手法をM1 MaxとQwen3-8B-Baseで動かした。重み付きCUSUMは標準Pythonで動くが、生log-likelihoodだと人間文単独でも境界が量産される。 AI LLM AIセーフティ 論文 Python 実験 Qwen
技術 2026年5月4日(月) 約12分 ファインチューニングでLLMの著作物丸暗記が再発火するというarXiv論文 GPT-4o、Gemini 2.5 Pro、DeepSeek-V3.1を対象に、要約から全文展開するファインチューニングで著作権書籍の逐語再現が増えると報告したarXiv論文を読んだ。 AI LLM 著作権 OpenAI Gemini DeepSeek ファインチューニング 論文
技術 2026年5月2日(土) 約13分 OCR-Memoryはエージェントの履歴を画像として思い出す arXiv:2604.26622のOCR-Memoryを読んだ。エージェントの長い実行履歴を画像化し、Set-of-Markで該当箇所だけ選ばせ、元ログから逐語テキストを戻すメモリ方式だ。 AI AIエージェント OCR VLM RAG トークン管理 論文
技術 2026年4月24日(金) 約8分 TRACERはLLM分類APIのログから代理モデルを学習してparity gateで置き換える arXivに出たTRACERは、LLM分類エンドポイントの入出力ログをそのまま訓練データに転用し、parity gateで合格した領域だけ軽量な代理モデルに差し替えて推論コストを下げる仕組みだ。77クラスの意図分類で83〜100%、150クラスでは100%のトラフィックを代理モデルが吸収できることを示した一方、NLIタスクでは「配備不可」と正しく拒否した挙動が面白い。 AI LLM 機械学習 論文 推論最適化
技術 2026年4月14日(火) 更新 約13分 exp(x) - ln(y) だけで全初等関数を表現するEML演算子 exp(x) - ln(y) という1つの二項演算子と定数1だけで、四則演算・三角関数・対数・円周率まで表現できるという論文を読んだ。NANDゲートの連続数学版という触れ込みだが、実際どこまで使えるのか調べた。 数学 論文 研究 実験 JavaScript Python PHP Go Rust
技術 2026年2月4日(水) 約2分 Attention SinksとResidual Sinksの統一的理解 ― LLMの「外れ値」は訓練安定化の仕組みだった Transformerの謎の挙動「特定トークンへの注意集中」と「特定次元での大きな活性化」が、実は同じ機構だったという論文の解説。 LLM Transformer 論文