Tutoriales técnicos para montar tu stack de IA local desde cero.
Guía completa para instalar Ollama en Raspberry Pi 5, correr tu primer LLM local y exponerlo como API para otros dispositivos de tu red.
Monta un pipeline STT completo en tu máquina o SBC: captura de audio, transcripción con faster-whisper, y salida de texto lista para conectar a tu agente.