Veredicto del Editor
Memcached es una de esas herramientas que no necesita nuevas versiones ni nuevas features porque ya hace exactamente lo que tiene que hacer. La estabilidad del proyecto es una señal de madurez, no de abandono.
Para equipos con necesidades de cache simple de objetos a alta velocidad, Memcached sigue siendo la opción mejor. Si necesitas estructuras de datos avanzadas, persistencia o publish/subscribe, Redis es la elección correcta.
Veredicto: Recomendado específicamente para cache de sesiones y objetos en aplicaciones PHP, WordPress o stacks multicore con alto volumen de lecturas repetidas.
Sistema de cache distribuido en memoria, open source BSD, con arquitectura multihilo. Rinde más de 200k ops/seg con latencia menor de 1ms. Ideal para cache de objetos en aplicaciones web de alto tráfico. Gratuito.
Puntuación detallada
Precios y Planes de Memcached
Software Open Source — Gratuito: licencia BSD revisada, libre para uso comercial sin restricciones.
Coste real en producción: el precio de Memcached es el hardware o la instancia necesaria para ejecutarlo. En AWS, una instancia cache.t3.micro (1 GB) cuesta aprox. 13 USD/mes. ElastiCache for Memcached disponible en AWS permite clústeres multinodo con autoscaling desde 30 USD/mes.
Alternativas gestionadas: Upstash ofrece Memcached compatible desde 0 USD/mes (con límites de peticiones). Google Cloud Memorystore for Memcached es otra opción enterprise.
Pros y Contras
5 ventajas · 5 desventajas
✅ Ventajas
- Rendimiento extremo: menos de 1ms de latencia y más de 200 mil ops/seg sobre hardware normal
- Simplicidad radical: hace solo una cosa, cache en memoria, y la hace perfectamente
- Multihilo: aprovecha todos los núcleos de CPU, superior a Redis en entornos multicore
- 100% open source BSD: sin licencias comerciales, sin vendor lock-in, sin planes de pago
- Batalla-testeado: usado por Facebook, Wikipedia y YouTube a escala mundial durante años
❌ Desventajas
- Solo strings: no almacena hashes, listas ni estructuras complejas (más limitado que Redis)
- Sin persistencia: los datos se pierden al reiniciar el servicio o saturar la memoria
- Sin replicación nativa: no hay clúster master-replica integrado como en Redis
- Sin autenticación por defecto: requiere firewall y configuración propia para asegurar el acceso
- Ecosistema reducido: menos tooling y dashboards nativos que Redis
Análisis de Memcached
Cuándo elegir Memcached sobre Redis
El debate Memcached vs. Redis no tiene una respuesta universal. Memcached gana en escenarios donde la prioridad es máximo throughput de cache simple, el objeto a cachear es un string o serializado, el entorno es multicore y se quiere scaling horizontal sin complejas operaciones de consistencia.
En qué excele Memcached realmente
La arquitectura multihilo es su ventaja más subestimada. En servidores modernos con 16-32 cores de CPU, Memcached puede aprovechar toda la capacidad de procesamiento mientras que Redis por defecto corre en un solo hilo. En benchmarks de cache pura paralelo, Memcached puede superar a Redis entre un 20% y un 60% en servidores multicore.
Integración con WordPress
Memcached es una de las opciones más rápidas para cachear objetos de WordPress. El plugin W3 Total Cache y WP Object Cache soportan Memcached nativamente. En entornos con alto tráfico, la combinación WordPress + Memcached reduce las consultas a MySQL entre un 60% y un 80%.
Limitaciones que debes conocer
Memcached no incluye persistencia ni replicación incorporadas. Si el servidor reinicia, todo el cache se pierde. Tampoco hay autenticación nativa, lo que obliga a asegurar la red a nivel de firewall. Estos no son fallos: son decisiones de diseño deliberadas para mantener la simplicidad y el rendimiento máximos.
Memcached: qué es y por qué sigue siendo relevante
Memcached es un sistema de cache distribuido en memoria diseñado por Danga Akerin en 2003 para resolver el problema de carga de base de datos en LiveJournal. Cuatro décadas después, sigue siendo una de las herramientas más desplegadas en infraestructuras web de alta demanda. La razón es simple: hace una sola cosa y la hace extremadamente bien.
Arquitectura interna
Memcached almacena pares clave-valor directamente en RAM. Utiliza un algoritmo LRU (Least Recently Used) para gestionar la evicción cuando la memoria está llena. La arquitectura multihilo permite aprovechar todos los núcleos de CPU disponibles, lo que lo diferencia de Redis (un solo hilo por defecto). El protocolo es sumamente simple: TCP y UDP-sockets con comandos ascii directos sin overhead de serialización.
Tests de rendimiento
En producción, Memcached es capaz de gestionar más de 200.000 operaciones por segundo sobre hardware modesto. La latencia típica está por debajo de 1 milisegundo para la mayoría de operaciones. Facebook llegó a mantener servidores Memcached con más de 53 TB de datos en memoria y procesando billones de requests diarios. Wikipedia y YouTube también recurrieron a Memcached durante años como capa de cache principal.
Memcached vs. Redis: la comparación que siempre se hace
Redis ofrece estructuras de datos ricas (hashes, listas, sets, streams), persistencia en disco, replicación nativa y scripting Lua. Memcached no tiene nada de eso. Pero en escenarios de cache pura de objetos simples, Memcached suele ser más eficiente: menor huella de memoria por objeto, mejor aprovechamiento de CPU en entornos multicore y scaling horizontal más sencillo.
Casos de uso ideales
Caching de consultas BD costosas (GET artículos, catálogo de productos), caching de sesiones de usuario en aplicaciones web, reducción de latencia en APIs read-heavy, y cache de resultados de computaciones costosas. NO es adecuado para: storage persistente, message queues, session store con requisitos de durabilidad o leaderboards.
Características Principales
- Cache en memoria RAM: pares clave-valor con expiración configurable (TTL)
- Arquitectura multihilo: aprovecha todos los cores de CPU disponibles
- Protocolo TCP/UDP: simple y universalmente soportado en todos los lenguajes
- Algoritmo LRU: evicta automáticamente los datos más antiguos cuando la memoria está llena
- Distribución horizontal: escala añadiendo nodos independientes sin coordinación centralizada
- Clientes para todos los lenguajes: PHP, Python, Java, Node.js, Ruby, Go, Rust, etc.
- ElastiCache AWS: servicio gestionado para Memcached con autoscaling
Se integra con 20 herramientas
Alternativas
Cache con estructuras de datos avanzadas (hashes, sets, streams), persistencia, pub/sub y scripting Lua. Más versátil pero single-threaded...
Drop-in replacement multi-hilo compatible con Redis/Memcached que promete 25x más throughput. Ideal para migrar sin cambiar código.
Fork de Redis con soporte multi-hilo y compatibilidad total con el protocolo Redis. Mejor rendimiento en hardware multi-core.
Data grid distribuido para Java con cache, computación distribuida y messaging. Más funcionalidades enterprise pero mayor complejidad.
Cache distribuido con soporte SQL completo, persistencia nativa y computación in-memory. Para aplicaciones Java con queries complejas.