技術 2026年3月1日(日) 約13分 LTX-2とWan 2.2をM1 Max 64GBで動かせるのか調べた LTX-2とWan 2.2をM1 Max 64GBで動かした。FP8はMetal非対応、GGUF形式で回避。Wan 2.2は2秒に82分。LTX-2は公式パイプラインがMPSでNaNを出し、KSampler代替でも品質が実用に達しない。 AI 動画生成 LTX-2 Wan Apple Silicon 実験
技術 2026年2月28日(土) 更新 約11分 abliteratedモデルをOllamaで動かそうとして全滅した話と、結局公式版で済んだ話 huihui-aiのQwen 3.5 abliteratedは全バリアントでゴミトークンを吐いて全滅。GLM-4.7-Flash abliteratedもテンプレート崩壊で使い物にならず、最終的に公式版+thinking無効が正解だった。 AI LLM Ollama ローカルLLM AMD LM Studio Vulkan ROCm 実験
技術 2026年2月28日(土) 約9分 macOSアプデ後にcronのClaude CLIが認証切れで死んでた話 macOSアップデート後、cron経由のtmuxセッションからKeychainにアクセスできなくなり、Claude CLIのバッチ処理が静かに死んでいた。原因の特定と対処法、そしてこれがClaude CLI固有の問題ではなくmacOS Keychainの構造的な問題である話。 macOS Claude Code トラブルシューティング 実験
技術 2026年2月27日(金) 約8分 ScanSnap+NDLOCR-Liteで機密文書をローカルOCRするホットフォルダを作った ScanSnapで読み込んだ画像をフォルダ監視スクリプトで自動OCRし、LLM校正まで試した記録。エアギャップ環境でのセキュリティ設計も含む。 OCR NDLOCR-Lite ScanSnap Python Mac ローカルLLM 実験
技術 2026年2月27日(金) 約7分 NDLOCRを3か月やった記録と周辺の実装いろいろ Docker版で地獄を見てからLite+LLM校正まで。自分の試行錯誤と、NDLOCR-LiteをブラウザOCRにした人の実装を紹介する。 OCR NDLOCR NDLOCR-Lite Python Docker ローカルLLM ONNX WebAssembly 実験
技術 2026年2月26日(木) 更新 約13分 NDLOCR-Liteの読み取り結果をQwen3.5とSwallowで校正比較した NDLOCR-LiteのCLI版をApple Silicon Macにセットアップし、Qwen 3.5やSwallowでOCR結果を校正してみた記録。画像直読みやアンカリング効果など、いろいろ試した。 OCR Python NDLOCR-Lite Mac Qwen Swallow ollama ローカルLLM 実験
技術 2026年2月26日(木) 約5分 RTX 4060 Laptop(8GB)でComfyUI + WAI-Illustriousを動かす ComfyUI + WAI-Illustrious v16.0をRTX 4060 Laptop(VRAM 8GB)で動かした。LoRA併用含めlowvram不要で1024x1024が15秒。 ComfyUI Stable Diffusion 画像生成AI GPU 実験
技術 2026年2月25日(水) 更新 約8分 国立国会図書館が作ったOCR「NDLOCR-Lite」をWindowsで動かしてみた 国立国会図書館が公開したGPU不要の軽量OCR「NDLOCR-Lite」をWindows 11にインストールしてCLI・GUIの両方で試した記録。 OCR Python NDLOCR-Lite 実験
技術 2026年2月24日(火) 約6分 かなチャットの技術アーキテクチャ 正規CLIをラップしてAIエージェントを動かす個人向けチャットシステム「かなチャット」の設計と実装。tmuxブリッジ、コンテキスト分離、ツール承認ゲートなど、自分の環境で安全に動かすための仕組みを解説する。 AIエージェント Claude Code Codex OpenClaw Gemini tmux FastAPI 自作ツール 実験
技術 2026年2月15日(日) 約5分 ローカルLLMをVPN経由で外部API化する Tailscale VPNとConoHa VPSを使って、ローカルLLMをインターネットからAPI経由で呼び出せるようにした構成と手順。 AI LLM Tailscale VPN VPS 実験
技術 2026年2月15日(日) 約4分 Strix HaloのVRAM・メモリ配分を攻略する GMKtec EVO-X2(Strix Halo)でローカルLLMを動かす際のVRAM/メインメモリ配分問題と解決策。VRAM 8GBでも29.6GBモデルが動いた実証付き。 AI LLM メモリ最適化 AMD LM Studio 実験
技術 2026年2月15日(日) 約5分 EVO-X2でローカルLLM環境を構築した GMKtec EVO-X2(Strix Halo)でNSFW対応のローカルLLMを構築した記録。LM StudioとMS3.2-24B-Magnum-Diamondで約11 tokens/sのGPU推論を実現するまで。 AI LLM ローカルLLM LM Studio AMD 実験