技術 2026年4月6日(月) 約12分 LLM-jp-4-32B-A3BをROCm + Strix HaloでベンチマークしたらQwen3.5より41%速かった NIIが公開したLLM-jp-4-32B-A3B-thinkingをEVO-X2(Ryzen AI Max+ 395)のROCmで動かした。62.9 t/sでQwen3.5-35B-A3Bの44.7 t/sを大きく上回るが、thinking制御やKVキャッシュ消費、知識カットオフに課題あり。日本語比較テストとコード生成テストの結果も。 AI LLM ローカルLLM llama.cpp AMD ROCm MoE Qwen 実験
技術 2026年4月5日(日) 約8分 Linuxカーネル7.0のPREEMPT_NONE廃止でPostgreSQLスループット半減、カーネル開発者はリバート拒否 Linuxカーネル7.0-rcでPREEMPT_NONEが廃止され、PostgreSQLのスループットが約49%低下する深刻なリグレッションが発生。Ubuntu 26.04 LTSに搭載予定のカーネルで、スケジューラメンテナはリバートを拒否しPostgreSQL側にRSEQ対応を求めている。 Linux PostgreSQL カーネル AWS
技術 2026年4月5日(日) 約8分 AnthropicがClaude Codeのサブスクからサードパーティハーネスを締め出した Claude CodeのサブスクリプションでOpenClawなどサードパーティツールが利用不可に。ログイントークン問題との違い、「使い方が荒い」の基準の曖昧さ、Anthropicだけがエコシステムを閉じる理由を掘り下げる。 Claude Code Anthropic OpenClaw AI Coding APIプライシング
技術 2026年4月3日(金) 約8分 LemonadeをStrix Halo (EVO-X2) で動かしたらVulkanの共有メモリ漏れとROCmの安定性が見えた AMD Lemonade v10.0.1をRyzen AI Max+ 395環境で検証。LLM・画像生成・音声認識・音声合成の4モデル同時起動、NPU Hybrid実行、Vulkan vs ROCmの実測比較と共有メモリ漏れの発見まで。 AMD ローカルLLM Vulkan ROCm NPU llama.cpp GPU 推論最適化 ベンチマーク 実験
技術 2026年4月1日(水) 更新 約13分 See-throughでアニメ立ち絵を23レイヤーに自動分解してPSD出力した 単一のアニメイラストから前髪・後ろ髪・服などを自動分解、隠れた部分をインペイント補完。LayerDiff + Marigoldベースの実装を試す。 実験 AI アニメ 画像生成 Live2D RunPod SDXL ComfyUI
技術 2026年3月31日(火) 約8分 Qwen3.5-35B-A3Bでctx-sizeを4096→65536にしたらVRAM 800MB増で速度も変わらなかった Qwen3.5-35B-A3BはSSM+Attentionハイブリッドで40層中10層しかKVキャッシュを使わない。llama-serverでctx-sizeを4096→65536に拡張してもVRAM増加は800MB、速度低下ゼロ。q8_0 KV量子化の実測とTurboQuantの現状も。 LLM ローカルLLM llama.cpp AMD Vulkan KVキャッシュ Qwen 実験