compute intermediate

El mini PC de 89€ con NPU integrada que nadie esperaba en 2026

Radxa X4 con Intel N100 y NPU de 4 TOPS. Whisper large-v3 en tiempo real con la CPU al 12%. La alternativa seria al Raspberry Pi para inferencia local.

ver producto ~89€

En el blog de Radxa apareció una entrada con benchmarks de Whisper large-v3 corriendo en tiempo real en la Radxa X4 — con la CPU al 12%. El truco: la NPU integrada de 4 TOPS que Intel incluyó en el N100 y que casi nadie había aprovechado todavía para inferencia de audio.

Qué es exactamente

La Radxa X4 es un SBC de factor de forma Raspberry Pi compatible que usa el Intel N100 en lugar del habitual ARM. Esto cambia bastante las cosas: x86_64 nativo, soporte completo de Docker sin emulación, y acceso a los drivers Intel para la NPU integrada vía OpenVINO.

Specs relevantes para builders:

  • Intel N100 — 4 núcleos E-core, TDP 6W, soporte AVX-512
  • NPU Intel — 4 TOPS, integrada en el SoC, accesible vía OpenVINO
  • 16GB DDR5 en la versión que nos interesa (la de 8GB se queda corta para LLMs)
  • Factor de forma HAT+ — compatible con algunos accesorios de Raspberry Pi
  • M.2 NVMe — arranque desde SSD, no desde microSD

Por qué nos interesa

El N100 tiene el mejor ratio inferencia/watt de x86 en 2026 para modelos de menos de 7B parámetros. El acceso a la NPU vía OpenVINO permite descargar capas enteras de Whisper sin tocar la CPU, liberándola para el resto del pipeline.

Para un agente de voz que necesita STT continuo mientras ejecuta otras tareas, esto es relevante:

from openvino.runtime import Core
import whisper

# Compilar el modelo Whisper para la NPU del N100
core = Core()
model_path = "whisper-large-v3-openvino/whisper_encoder.xml"
compiled = core.compile_model(model_path, device_name="NPU")

# A partir de aquí, la inferencia del encoder corre en NPU
# La CPU queda libre para el decoder y el resto del pipeline

Cómo empezar

La instalación más directa es Ubuntu 24.04 (hay imagen oficial de Radxa). Una vez instalado OpenVINO:

pip install openvino optimum[openvino]
# Exportar Whisper a formato OpenVINO
optimum-cli export openvino --model openai/whisper-large-v3 whisper-large-v3-openvino

Lo que no te van a contar

La NPU del N100 no es milagrosa — 4 TOPS es suficiente para Whisper pero no para modelos más grandes. Para LLMs puros, el cuello de botella sigue siendo la memoria unificada y el ancho de banda: la X4 con 16GB DDR5 puede correr Llama 3.2 8B en Q4 a unos 8-10 tokens/s, que es usable pero no rápido. También: la compatibilidad HAT+ es parcial — no todos los HATs funcionan porque el pinout del N100 no es idéntico al del BCM2712.

Veredicto

Si tu pipeline de IA local necesita x86_64 nativo, Docker sin fricciones y algo más de potencia que una Raspberry Pi, la Radxa X4 es la opción más equilibrada de 2026 en ese rango de precio. Para LLMs grandes o GPU workloads, mira otros lados.