技術 2026年3月10日(火) 約7分 インドが全工程を自前で作った初のオープンソースLLM Sarvam 30B/105B Sarvam AIがインド国内のインフラだけで事前学習からRLまで完結させた30Bと105Bのモデルを公開。22のインド指定言語対応と推論最適化が特徴。 LLM OpenSource AI MachineLearning
技術 2026年3月10日(火) 約7分 KarpathyのAutoresearchは寝てる間にAIがML実験を100回回してくれるシステム Andrej KarpathyがAutoresearchを公開。AIエージェントがGPUの上で機械学習の実験を自律実行し、寝ている間に100パターン試してくれる。ML知識ゼロでも分かるように仕組みと設計思想を解説。 AI MachineLearning LLM Agent OpenSource
技術 2026年3月7日(土) 約8分 AIによるコード脆弱性解析の実績が出始めた AnthropicがClaudeでFirefoxのJSエンジンから22件のCVEを発見、GitHub Security LabはAI駆動のOSSフレームワーク「Taskflow Agent」で80件以上の脆弱性を検出。AIがセキュリティ研究の現場ツールになりつつある。 Security AI Firefox GitHub Anthropic Claude
技術 2026年3月7日(土) 約5分 WAN 2.2をRTX 4060(VRAM 8GB)のComfyUIで動かす RTX 4060 VRAM 8GBのWindows環境でWAN 2.2のI2V動画生成を試した。5B fp8は品質が厳しく、14B Rapid蒸留モデルのlowvramオフロードが現実的な解だった。 AI 動画生成 Wan ComfyUI Windows CUDA 実験
技術 2026年3月2日(月) 約11分 JPEG-XL復活とPQC移行のMerkle Tree Certificates、Chrome 145〜146の変更点 Chrome 145でのJPEG-XL復活とcjxlの使い方、RSA→楕円曲線→PQCの暗号変遷とMerkle Tree Certificates、WebMCPの実装例、Chromeゼロデイの動向、カスタマイズ可能なselect要素まで。 Chrome Security AI Web
技術 2026年3月1日(日) 約11分 Qwen 3.5がRadeon 8060Sで全滅した原因はAMDドライバだった Qwen 3.5がROCm/Vulkanで動かない原因をCPU推論・llama-server・LM Studioで切り分けた結果、AMDドライバの更新で全て解決した。 AI LLM ローカルLLM AMD llama.cpp Ollama LM Studio 実験
技術 2026年3月1日(日) 約13分 LTX-2とWan 2.2をM1 Max 64GBで動かせるのか調べて動かした LTX-2とWan 2.2をM1 Max 64GBで動かした。FP8はMetal非対応、GGUF形式で回避。Wan 2.2は2秒に82分。LTX-2は公式パイプラインがMPSでNaNを出し、KSampler代替でも品質が実用に達しない。 AI 動画生成 LTX-2 Wan Apple Silicon 実験
技術 2026年2月28日(土) 更新 約11分 abliteratedモデルをOllamaで動かそうとして全滅した話と、結局公式版で済んだ話 huihui-aiのQwen 3.5 abliteratedは全バリアントでゴミトークンを吐いて全滅。GLM-4.7-Flash abliteratedもテンプレート崩壊で使い物にならず、最終的に公式版+thinking無効が正解だった。 AI LLM Ollama ローカルLLM AMD LM Studio Vulkan ROCm 実験
技術 2026年2月28日(土) 約4分 Seedance 2.0がハリウッドに著作権で詰められてAPI無期限停止になった Seedance 2.0のリリース直後にハリウッドのIP侵害が大量発生。Disney・Netflix・Paramountらがcease-and-desistを送付し、API公開は無期限延期、顔クローンや人物リファレンス機能も停止された。 AI 動画生成 Seedance 著作権
技術 2026年2月26日(木) 約7分 1100万時間の動画で学習したFDM-1と50倍効率のビデオエンコーダ Standard Intelligenceがスクリーンビデオ1100万時間で訓練した汎用コンピュータアクション基盤モデル。LLMではなくビデオとアクショントークンを直接操作するアーキテクチャで、独自エンコーダにより既存VLMの50〜100倍の圧縮効率を実現する。 AI Computer Use Foundation Model
技術 2026年2月25日(水) 約7分 CloudflareがAIで1週間でNext.jsをVite上に再実装、vinextが本番稼働 1人のエンジニアとAIが$1,100のトークンコストでNext.jsをVite上に再実装。ビルド4.4倍速、バンドル57%削減を達成したvinextが公開初週に本番稼働した。 Next.js Vite Cloudflare Workers AI JavaScript