技術 2026年4月9日(木) 約16分 MegaTrainはシングルGPUで120BパラメータLLMをフル精度訓練する CPUメモリを主記憶、GPUを一時的な計算装置として扱う逆転の発想で、100B超のLLMをシングルGPUでフル精度訓練するシステムMegaTrain。DeepSpeed ZeRO-3比で最大12.2倍のスループットを達成した。 LLM 機械学習 GPU DeepSpeed メモリ最適化
技術 2026年2月15日(日) 更新 約5分 Strix HaloのVRAM・メモリ配分を攻略する GMKtec EVO-X2(Strix Halo)でローカルLLMを動かす際のVRAM/メインメモリ配分問題と解決策。VRAM 8GBでも29.6GBモデルが動いた実証付き。 AI LLM メモリ最適化 AMD LM Studio 実験
技術 2026年2月14日(土) 約5分 画像生成AIのVAEはなぜ重い? Qwen-ImageとHunyuanImageのアーキテクチャ比較 Qwen-Image-EditのVAE推論が重い理由と、HunyuanImage 2.1が採用した32x高圧縮VAEの設計思想の違いを解説。Kohya氏によるVAEメモリ最適化の動向も追う。 AI 画像生成 VAE Qwen HunyuanImage メモリ最適化