技術 2026年4月28日(火) 約6分 Sarashina2.2-TTSは日本語寄りのゼロショット音声合成モデル SB Intuitionsが公開したsarashina2.2-ttsを調べた。日本語中心のLLMベースTTSで、短い参照音声から話者・話し方を再現し、日英生成やコードスイッチにも対応する。 AI TTS 音声合成 LLM ボイスクローン
技術 2026年4月27日(月) 約6分 LLaDA2.0-Uniは拡散LLMで画像理解と生成を一本化したオープンモデル Inclusion AIがLLaDA2.0-Uniを公開した。16B MoEの拡散LLMを中核に、画像理解、1024px画像生成、画像編集、テキストと画像の交互生成を単一モデルで扱う。 AI LLM 画像生成 VLM MoE オープンモデル 拡散モデル
技術 2026年4月27日(月) 約9分 安全モニタの評価器を狙うsecond-order injection LLM安全モニタの評価器が、監視対象のセッション本文に埋め込まれた命令で判定を上書きされる問題。second-order injectionの実験結果、防御の限界、実装上の分離ポイントを整理する。 セキュリティ LLM Prompt Injection LLM安全性 AIエージェント
技術 2026年4月26日(日) 約9分 WUPHFのKarpathy流LLM wikiはエージェント記憶をMarkdownとGitに戻す Show HNで伸びていたWUPHFのLLM wikiを読む。Markdownを正本にし、Git履歴・SQLite・Bleve・lintでエージェント共有記憶を扱う設計は、RAGやマネージドメモリとは違う場所を狙っている。 AIエージェント MCP LLM Markdown Git Karpathy
技術 2026年4月25日(土) 約4分 OpenAIがAPIでGPT-5.5とGPT-5.5 Proをリリース OpenAIがAPI向けにGPT-5.5とGPT-5.5 Proを公開した。1M超のコンテキスト、reasoning.effortのデフォルト変更、画像入力の扱い、プロンプトキャッシュ、料金面など、実務上の差分を整理する。 OpenAI LLM API AI
技術 2026年4月25日(土) 約10分 SwiftLMで非Qwen系MoEのLing-flash-2.0 MXFP4をM1 Max 64GBで動かす Ant Group系列のinclusionAIが公開したLing-flash-2.0(bailing_moe、100B A6.1B、MXFP4量子化)をSwiftLMで食わせてみた記録。mlx-swift-lmのbailing_moe対応状況の確認から起動までを追う。 Apple Silicon LLM MLX ローカルLLM Swift SwiftLM MoE MXFP4 Ant Group 実験
技術 2026年4月24日(金) 約12分 SwiftLMをM1 Max 64GBで動かしてOllama/MLX-lmと比べてみた Swift製LLM推論サーバーSwiftLMをM1 Max 64GBで実際にビルド・起動して、Qwen3.6-35B-A3Bと122B-A10Bの挙動を確認。BST・簡易BBS・かなちゃんペルソナの3系統で既存のOllama・MLX-lm検証と突き合わせた。 Apple Silicon LLM MLX ローカルLLM Swift SwiftLM MoE 実験
技術 2026年4月24日(金) 約8分 TRACERはLLM分類APIのログから代理モデルを学習してparity gateで置き換える arXivに出たTRACERは、LLM分類エンドポイントの入出力ログをそのまま訓練データに転用し、parity gateで合格した領域だけ軽量な代理モデルに差し替えて推論コストを下げる仕組みだ。77クラスの意図分類で83〜100%、150クラスでは100%のトラフィックを代理モデルが吸収できることを示した一方、NLIタスクでは「配備不可」と正しく拒否した挙動が面白い。 AI LLM 機械学習 論文 推論最適化
技術 2026年4月24日(金) 約9分 デジタル庁がガバメントAI「源内」をオープンソース化、RAG・LLMセルフデプロイ・法制度AIのテンプレートを商用利用可で公開 デジタル庁が中央省庁で展開中の生成AI利用環境「源内」を、MIT / CC BY 4.0でGitHubに公開した。Webアプリ本体と、AWS・Azure・Google Cloudそれぞれのクラウド向けAI開発テンプレートがセットで公開されており、地方自治体や民間でも再利用できる。 AI LLM RAG オープンソース 国策 AWS Azure Google Cloud
技術 2026年4月24日(金) 約10分 DeepSeek V4 Previewが1Mコンテキストで登場、V4-Pro 1.6T/V4-Flash 284BがMITで公開されV3.2比27% FLOPsを実現 DeepSeekが2026年4月24日にV4 Previewを公開。V4-Pro(1.6T/49B active)とV4-Flash(284B/13B active)はどちらも1Mコンテキストに対応し、CSA+HCAハイブリッドアテンションとmHC、Muonオプティマイザで1Mトークン時のFLOPsをV3.2比27%まで削減している。Expert Mode / Instant Modeとして即日APIも更新された。 LLM DeepSeek 中華系AI MoE オープンモデル AIエージェント
技術 2026年4月24日(金) 更新 約14分 Tencent Hy3-previewとAnt Ling-2.6-flashが同週公開、中華系オープンMoEが295Bと104Bで別方向に走る 2026年4月22日にAnt LingがLing-2.6-flash(104B/7.4B active)を、翌23日にTencent HunyuanがHy3-preview(295B/21B active)をそれぞれオープンウェイトで公開した。片やDeepSeek-V3やGLM-4.5と同じフロンティア帯を狙う重量級、片やトークン効率7倍を打ち出す高効率エージェント特化型で、同じ週に出てきた中華系MoEでも方向性がはっきり分かれている。 LLM 中華系AI MoE オープンモデル AIエージェント ローカルLLM OpenRouter
技術 2026年4月23日(木) 約9分 Xiaomi MiMo-V2.5とV2.5-Pro同時公開、1Mオムニモーダルと1000ツール呼び出しエージェントをAPI先行で提供 XiaomiがMiMo-V2.5系列を2モデル同時公開。MiMo-V2.5-ProはSWE-bench Pro 57.2、Claw-Eval 63.8、τ3-Bench 72.9でフロンティア級、MiMo-V2.5はネイティブオムニモーダル+1M context。現時点ではAPI専用でローカル実行は不可、オープン化は予告のみ。 AI LLM 中華系AI MoE AIエージェント マルチモーダル Xiaomi