技術 2026年2月18日(水) 約3分 GitHub Copilot SDKが公開、自前のAIエージェントをPython・TypeScript・Go・.NETで構築可能に GitHubがCopilot SDKをテクニカルプレビューとして公開。Copilot CLIのエージェントランタイムをプログラマブルに利用でき、カスタムツール定義やMCPサーバー接続にも対応する。 GitHub Copilot SDK AIエージェント
技術 2026年2月18日(水) 約4分 Cloudflare Workersでリアルタイム分析基盤を構築した話 - エッジファーストなアーキテクチャの実践 Cloudflare Workers、Hono.js、Supabaseを組み合わせてリアルタイム分析プラットフォームを構築した事例。P95で47msのグローバルイベント取り込み、Cookie不使用のセッション管理など、エッジコンピューティングの実践的なアーキテクチャ解説。 Cloudflare Workers Edge Computing Analytics Web Architecture
技術 2026年2月18日(水) 約3分 Claude Sonnet 4.6リリース - コーディング性能でOpus 4.5を超える場面も Anthropicが中間サイズモデルClaude Sonnet 4.6を発表。Claude Codeでの評価ではユーザーの70%がSonnet 4.5より選好し、Opus 4.5との比較でも59%が選好するという結果が出ている。価格は据え置き。 Claude Anthropic LLM Claude Code
技術 2026年2月18日(水) 約2分 Rustのasync/awaitがGPU上で動作 - VectorWareが初の実装を発表 VectorWareが、RustのFutureトレイトとasync/awaitをGPU上で実行する初の実装を発表した。Embassyエグゼキューターを適応させ、GPU上での構造化された並行処理を実現している。 Rust GPU async Programming
技術 2026年2月18日(水) 約5分 AliSQL 8.0 - MySQLにDuckDBカラムナエンジンとベクトルサーチを統合したアリババのOSS アリババがMySQL互換のOLTP、DuckDBベースの高速OLAP、HNSWベクトルサーチを1つのデータベースに統合した「AliSQL 8.0」をオープンソースで公開した。MySQLの停滞とPostgreSQLの躍進の中で、この動きが持つ意味を考える。 MySQL DuckDB Database Vector Search PostgreSQL
技術 2026年2月18日(水) 約4分 AIエージェント開発ツール最新動向 - AGENTS.md検証、CI統合、セッション永続化、サンドボックス AGENTS.mdは逆効果という研究結果、Continue.devのCI統合AIチェック、AWS Strands Agentsのセッション永続化、Docker Shell Sandboxによるエージェント隔離実行。AIエージェント開発周辺のツールとプラクティスをまとめた。 AI Agent Development CI Docker AWS
技術 2026年2月17日(火) 約2分 Google が Developer Knowledge API と MCP Server を発表 ― 生成 AI から公式ドキュメントを直接参照できるように Google Cloud、Android、Firebase など Google テクノロジーの公式ドキュメントを生成 AI から参照できる Developer Knowledge API と MCP Server がパブリックプレビューとして公開された。 Google MCP AI 開発ツール
技術 2026年2月16日(月) 約2分 AI がオープンソースを壊しつつある ― メンテナーへの負荷増大と対策の現状 Jeff Geerling の記事を起点に、AI 生成の低品質コントリビューションがオープンソースメンテナーに与えている影響と、curl や GitHub の対応を整理した。 AI オープンソース GitHub
技術 2026年2月15日(日) 約5分 ローカルLLMをVPN経由で外部API化する Tailscale VPNとConoHa VPSを使って、ローカルLLMをインターネットからAPI経由で呼び出せるようにした構成と手順。 AI LLM Tailscale VPN VPS 実験
技術 2026年2月15日(日) 更新 約5分 Strix HaloのVRAM・メモリ配分を攻略する GMKtec EVO-X2(Strix Halo)でローカルLLMを動かす際のVRAM/メインメモリ配分問題と解決策。VRAM 8GBでも29.6GBモデルが動いた実証付き。 AI LLM メモリ最適化 AMD LM Studio 実験
技術 2026年2月15日(日) 更新 約5分 EVO-X2でローカルLLM環境を構築した GMKtec EVO-X2(Strix Halo)でNSFW対応のローカルLLMを構築した記録。LM StudioとMS3.2-24B-Magnum-Diamondで約11 tokens/sのGPU推論を実現するまで。 AI LLM ローカルLLM LM Studio AMD 実験
技術 2026年2月14日(土) 約5分 画像生成AIのVAEはなぜ重い? Qwen-ImageとHunyuanImageのアーキテクチャ比較 Qwen-Image-EditのVAE推論が重い理由と、HunyuanImage 2.1が採用した32x高圧縮VAEの設計思想の違いを解説。Kohya氏によるVAEメモリ最適化の動向も追う。 AI 画像生成 VAE Qwen HunyuanImage メモリ最適化