技術 2026年4月2日(木) 約11分 SwiftLMはTurboQuantとSSDストリーミングをMetalシェーダーに統合したSwift製LLM推論サーバー Apple Silicon専用のMLX推論サーバーSwiftLMが、TurboQuant V2+V3ハイブリッドKVキャッシュ圧縮とNVMe SSDエキスパートストリーミングをネイティブMetal実装で提供する。 Apple Silicon LLM MLX ローカルLLM 推論最適化 KVキャッシュ MoE Swift
技術 2026年4月2日(木) 約6分 Chrome 146のDawnにuse-after-free、2026年4件目のゼロデイが実環境悪用 WebGPU実装DawnのUAF脆弱性CVE-2026-5281がin-the-wildで悪用確認。Chrome 146.0.7680.177/178へのアップデートが必要。 Chrome セキュリティ ゼロデイ WebGPU CVE
技術 2026年4月1日(水) 約10分 TRL v1.0がメジャーリリース、LLMポストトレーニングの安定基盤へ HuggingFaceのLLMポストトレーニングライブラリTRLがv1.0に到達。Stable/Experimental二層モデルの導入、GRPO・DPO・SFTなど主要手法の安定化、非同期GRPOのロードマップが示された。 AI 機械学習 強化学習 LLM HuggingFace
技術 2026年4月1日(水) 更新 約13分 See-throughでアニメ立ち絵を23レイヤーに自動分解してPSD出力した 単一のアニメイラストから前髪・後ろ髪・服などを自動分解、隠れた部分をインペイント補完。LayerDiff + Marigoldベースの実装を試す。 実験 AI アニメ 画像生成 Live2D RunPod SDXL ComfyUI
技術 2026年3月31日(火) 約8分 Qwen3.5-35B-A3Bでctx-sizeを4096→65536にしたらVRAM 800MB増で速度も変わらなかった Qwen3.5-35B-A3BはSSM+Attentionハイブリッドで40層中10層しかKVキャッシュを使わない。llama-serverでctx-sizeを4096→65536に拡張してもVRAM増加は800MB、速度低下ゼロ。q8_0 KV量子化の実測とTurboQuantの現状も。 LLM ローカルLLM llama.cpp AMD Vulkan KVキャッシュ Qwen 実験
技術 2026年3月28日(土) 更新 約15分 Radeon 8060S (gfx1151) のVulkanがAMDドライバ更新後に壊れた GMKtec EVO-X2 (Ryzen AI Max+ 395) 環境でAMD Software 26.3.1更新後、Vulkanバックエンドがデバイスメモリを正常に確保できなくなりCPUフォールバックする問題の調査と解決記録。BIOS VRAM配分を32GB/32GBに変更することで解決。 AMD Vulkan GPU llama.cpp LLM 実験