
Apex B. OpenClaw, Local Embeddings.
Local Embeddings para Private Memory Search Por default, el memory search de OpenClaw envía texto a un embedding API externo (típicamente Anthropic u OpenAI) para generar vector embeddings para semantic search. Esto funciona bien, pero tiene dos downsides: cuesta dinero por query, y tu memory content sale de tu máquina. Si quieres memory search completamente local, gratis y privado, puedes configurar OpenClaw para usar local embeddings vía node-llama-cpp con un embedding model GGUF pequeño. Esto corre totalmente en tu Mac Mini — sin API calls, sin data saliendo de la máquina. Setup # Enable memory search openclaw config set memory.search.enable true # Set the embedding provider to local openclaw config set memory.search.provider local # Restart the gateway to apply openclaw gateway restart OpenClaw descargará automáticamente un lightweight GGUF embedding model y empezará a indexar tus memory files. Con 16GB de RAM en la Mac Mini base, esto corre cómodamente — los embedding models son t
Continue reading on Dev.to
Opens in a new tab




