技術 2026年4月1日(水) 約10分 TRL v1.0がメジャーリリース、LLMポストトレーニングの安定基盤へ HuggingFaceのLLMポストトレーニングライブラリTRLがv1.0に到達。Stable/Experimental二層モデルの導入、GRPO・DPO・SFTなど主要手法の安定化、非同期GRPOのロードマップが示された。 AI 機械学習 強化学習 LLM HuggingFace
技術 2026年4月1日(水) 約13分 See-throughでアニメ立ち絵を23レイヤーに自動分解してPSD出力した 単一のアニメイラストから前髪・後ろ髪・服などを自動分解、隠れた部分をインペイント補完。LayerDiff + Marigoldベースの実装を試す。 実験 AI アニメ 画像生成 Live2D RunPod SDXL ComfyUI
技術 2026年4月1日(水) 約9分 Adobe Creative Cloudがhostsファイルを勝手に書き換えている Adobe CCのWAMコンポーネントがWindowsのhostsファイルにdetect-ccd.creativecloud.adobe.comのエントリを無断で追加し、ブラウザからインストール検出を行っている。仕組みの解析と、大手ソフトがOSの主導権を奪うパターンの整理。 Adobe Windows セキュリティ
技術 2026年3月31日(火) 約8分 Qwen3.5-35B-A3Bでctx-sizeを4096→65536にしたらVRAM 800MB増で速度も変わらなかった Qwen3.5-35B-A3BはSSM+Attentionハイブリッドで40層中10層しかKVキャッシュを使わない。llama-serverでctx-sizeを4096→65536に拡張してもVRAM増加は800MB、速度低下ゼロ。q8_0 KV量子化の実測とTurboQuantの現状も。 LLM ローカルLLM llama.cpp AMD Vulkan KVキャッシュ Qwen 実験
技術 2026年3月28日(土) 更新 約15分 Radeon 8060S (gfx1151) のVulkanがAMDドライバ更新後に壊れた GMKtec EVO-X2 (Ryzen AI Max+ 395) 環境でAMD Software 26.3.1更新後、Vulkanバックエンドがデバイスメモリを正常に確保できなくなりCPUフォールバックする問題の調査と解決記録。BIOS VRAM配分を32GB/32GBに変更することで解決。 AMD Vulkan GPU llama.cpp LLM 実験
技術 2026年3月26日(木) 約10分 ComfyUIアプデ後にQwen Image Editが10分かかるようになった原因を特定した MPSのBF16演算がFP16の2倍遅い問題と、FP16 Attentionバグが重なって発生した速度劣化の原因と対策 ComfyUI Qwen Apple Silicon MPS PyTorch 実験