Buscar
Cierra este cuadro de búsqueda.

Scale Anywhere™ sin volver a migrar nunca más

Escrito por:

Hace poco más de una década, levantar un clúster de 100 terabytes parecía un gran problema. Y en ese momento, lo era, considerando lo que se necesitaba para administrar tanto almacenamiento en ese entonces. Hoy, 100 terabytes pueden sentirse como una gota en el océano. Muchos de ustedes ahora están operando a una escala de varios petabytes y buscan cada vez más expandir sus implementaciones no solo en sus centros de datos centrales, sino también en múltiples nubes y en el perímetro. Con las nuevas innovaciones surgiendo más rápido de lo que puede planificar, y un flujo constante de nuevos datos que le llegan todo el tiempo, simplemente tratar de mantenerse al día a veces puede parecer desalentador.

Es probable que las nuevas aplicaciones, cargas de trabajo y modelos operativos lleven sus datos a nuevos entornos, a mayor escala. La implementación, el escalado y el movimiento de datos ahora deben simplificarse en cualquier entorno, para cualquier flujo de trabajo, desde cualquier dispositivo. Después de todo, ¿de qué sirven todas estas nuevas innovaciones si está demasiado ocupado apagando incendios como para siquiera usarlas? Bueno, para eso estamos aquí.

Actualizar hardware sin migración

Una de nuestras capacidades más nuevas puede ayudarlo a respirar un gran suspiro de alivio. Diga adiós a esas migraciones dolorosas, tediosas y costosas que vienen con cada nueva actualización de hardware. La nueva capacidad de actualización de plataforma transparente (TPR) de Qumulo ahora le permite cambiar el hardware antiguo por uno nuevo, sin que los usuarios finales se den cuenta. Ahora, finalmente puede retirar esos nodos al final de su vida útil y actualizar su plataforma con un hardware nuevo y brillante sin el dolor de cabeza de migrar datos.

Las actualizaciones de la plataforma con Qumulo ahora son tan simples como: establecer un plan, agregar nuevos nodos, eliminar nodos antiguos, ¡y listo! Sus datos se "deslizan" sin esfuerzo hasta sus nuevos dispositivos. Puede optar por actualizar todos sus nodos a la vez, o algunos a la vez. También puede cambiar entre nodos de diferentes clases de rendimiento y diferentes proveedores para abordar cualquier cambio reciente en el rendimiento de la carga de trabajo o los requisitos de densidad de datos. Toda esta operación es imperceptible para los usuarios finales, por lo que no es necesario programar tiempos de inactividad ni sacrificar el fin de semana por el proyecto.

Recupere almacenamiento a medida que escala

Otra capacidad que lanzamos recientemente lo ayudará a maximizar aún más su inversión en almacenamiento al ayudarlo a recuperar espacio utilizable a medida que agrega más nodos. Si bien Qumulo siempre ha utilizado borradura codificación Para proteger sus datos contra fallas de disco o nodo, anteriormente no podía ajustar la configuración EC existente de su clúster a medida que aumentaba la capacidad. Nuestra nueva capacidad de Protección de datos adaptativa (ADP) le permite ajustar la configuración de EC para que aproveche más el espacio a medida que agrega capacidad a su clúster. Esto es particularmente beneficioso para los clientes con implementaciones que comenzaron pequeñas y crecieron significativamente con el tiempo.

En el ejemplo anterior, el cliente puede haber comenzado con una implementación pequeña, con solo una cantidad limitada de nodos para distribuir su banda de codificación de borrado. Con la proporción de bloques de paridad necesarios para mantener la tolerancia a fallas para este clúster, les queda solo el 66 % de su almacenamiento total como espacio utilizable. Después de hacer crecer su clúster con el tiempo, este cliente ahora podría usar nuestra función ADP para ajustar su configuración EC a una nueva proporción más eficiente. El clúster seguiría estando protegido contra múltiples fallas simultáneas de disco o nodo, y el cliente habría ampliado efectivamente la capacidad utilizable de su clúster en un 21 %.

Ahora certificado para ejecutarse en el servidor de almacenamiento de datos HPE Alletra 4110 de alto rendimiento

Sin embargo, una mayor eficiencia y un proceso de actualización de hardware más simple no son las únicas capacidades nuevas que estamos anunciando. Si está buscando almacenamiento escalable y de alto rendimiento para potenciar sus cargas de trabajo más intensivas, ahora puede usar todo flash, Servidor de almacenamiento de datos HPE Alletra 4110. Diseñado específicamente para impulsar incluso las cargas de trabajo más exigentes, como AI/ML, el servidor de almacenamiento de datos HPE Alletra 4110 le brinda el equilibrio perfecto entre velocidad, eficiencia de espacio y seguridad para aprovechar todo el valor de sus datos, con una complejidad y administración mínimas. gastos generales. 

El servidor de almacenamiento de datos HPE Alletra 4110 es el primer producto que hemos certificado que aprovecha el factor de forma estándar empresarial y del centro de datos (EDSFF), el último factor de forma NVMe que también ofrece mayor densidad de datos y eficiencia térmica. Esto lo ayuda a optimizar el espacio físico de su centro de datos y proteger su inversión en almacenamiento para el futuro, al mismo tiempo que respalda las necesidades de sus cargas de trabajo de alto rendimiento hoy.

¿Se está quedando sin espacio libre en su clúster existente? Contacte con nosotros para ver si hay almacenamiento utilizable que puede desbloquear simplemente agregando un nuevo nodo.

Artículos Relacionados

Ir al Inicio