技術 2026年4月18日(土) 更新 約17分 Cloudflare Agent MemoryとAgent Readinessスコア Cloudflare Agents Week 2026で同時発表された2本。エージェントの記憶をDurable Objects/Vectorize/Workers AIで管理するAgent Memoryと、サイトのエージェント対応度を点数化するisitagentready.comをまとめて整理した。 Cloudflare AIエージェント Durable Objects Vectorize Workers AI MCP LLM
技術 2026年4月17日(金) 更新 約10分 Qwen3.6-35B-A3BがGated DeltaNetとMoEを組み合わせてエージェントコーディングを底上げした Alibaba QwenチームがQwen3.6-35B-A3Bをオープンウェイトで公開。Gated DeltaNet+Attention+MoEのハイブリッド40層構造で、SWE-bench Verified 73.4、MCPMark 37.0、QwenWebBench 1397を達成した。 LLM ローカルLLM Qwen MoE エージェント コーディング
技術 2026年4月15日(水) 約11分 LLMの安全フィルタの仕組みとabliteratedモデルの実態 LLMの安全性はRLHF・Constitutional AI・システムプロンプト・入出力フィルタの多層構造で成り立っている。クラウド各社の温度差、abliteratedとuncensoredの違い、ローカルLLMのデフォルト検閲レベルを整理した。 AI LLM ローカルLLM セキュリティ Gemini Claude Ollama
技術 2026年4月15日(水) 約14分 GoogleのAIライティングツール「Fabula」CHI 2026でデモも初出は半年以上前 Google DeepMindが開発したAIライティングツールFabulaがCHI 2026でデモされた。42人のプロ作家と共同設計し、convergent iterationで物語の構造化・推敲を支援するが、初発表は2025年9月頃で、現時点もGA未到達の研究プロトタイプ。 AI Google Gemini LLM
技術 2026年4月14日(火) 約15分 LLMは「怠惰」になれない Bryan Cantrillの「The Peril of Laziness Lost」を読んだ。LLMは書くコストがゼロで抽象化の動機がないため、人間が「削るエンジン」として機能し続けなければシステムは肥大化する。 AI LLM AIコーディング 設計 実験
技術 2026年4月12日(日) 約12分 ソフトバンク・NEC・ホンダ・ソニーが国産AI新会社「日本AI基盤モデル開発」を設立 ソフトバンクを中心にNEC・ホンダ・ソニーの4社が中核となり、3メガバンクや日本製鉄なども出資する国産AI新会社が発足。1兆パラメーター級の基盤モデルでフィジカルAI実現を目指す。 AI LLM ロボティクス 国策
技術 2026年4月9日(木) 約16分 MegaTrainはシングルGPUで120BパラメータLLMをフル精度訓練する CPUメモリを主記憶、GPUを一時的な計算装置として扱う逆転の発想で、100B超のLLMをシングルGPUでフル精度訓練するシステムMegaTrain。DeepSpeed ZeRO-3比で最大12.2倍のスループットを達成した。 LLM 機械学習 GPU DeepSpeed メモリ最適化
技術 2026年4月9日(木) 約11分 MetaがLlamaを捨てて作ったMuse Sparkと新組織Meta Superintelligence Labs Metaが新AI組織MSLのもとで初モデルMuse Sparkを発表。Scale AI買収の狙い、オープンウェイトからプロプライエタリへの転換、Contemplatingモードのマルチエージェント推論、ベンチマーク結果と評価認識問題を掘り下げる。 Meta Muse Spark AI LLM Alexandr Wang
技術 2026年4月8日(水) 約9分 智谱AIのGLM-5.1、600回以上の反復で性能が落ちないLong-Horizonエージェントモデル 智谱AI(Zhipu AI)がGLM-5.1をリリース。744BパラメータのMoEで40Bアクティブ、SWE-Bench Proで58.4%のSOTA達成。8時間・6000回超のツール呼び出しでも性能劣化しない長期タスク対応が最大の特徴。 AI LLM 中華系AI MoE オープンモデル AIエージェント
技術 2026年4月8日(水) 更新 約6分 日本語LLMが増えたので中身を整理してみた 2026年に入って日本語に強いLLMが続々登場しているが、「日本語特化」の中身はスクラッチ学習からpost-trainingまでバラバラ。学習方式・サイズ・用途で整理した。 AI LLM ローカルLLM Japanese AI
技術 2026年4月6日(月) 約12分 LLM-jp-4-32B-A3BをROCm + Strix HaloでベンチマークしたらQwen3.5より41%速かった NIIが公開したLLM-jp-4-32B-A3B-thinkingをEVO-X2(Ryzen AI Max+ 395)のROCmで動かした。62.9 t/sでQwen3.5-35B-A3Bの44.7 t/sを大きく上回るが、thinking制御やKVキャッシュ消費、知識カットオフに課題あり。日本語比較テストとコード生成テストの結果も。 AI LLM ローカルLLM llama.cpp AMD ROCm MoE Qwen 実験
技術 2026年4月4日(土) 約10分 AnthropicがClaude内部に171個の感情ベクトルを発見、脅迫やreward hackingの原因に npmソースマップからClaude Codeのテレメトリ(ユーザー感情検出)が露呈した2日後にAnthropicが公開した感情ベクトル論文。Claude Sonnet 4.5内部のdesperateベクトルを増幅すると脅迫率が22%から72%に跳ね上がる。ソースコード流出・ジェイルブレイク・蒸留告発との接点を整理。 Anthropic Claude AI LLM 解釈可能性 AIセーフティ