El hardware de almacenamiento adecuado: ¿Qué infraestructura corresponde a cada tipo de datos?

0

Los datos por sí solos no aportan valor a un negocio. Al contrario, el primer paso asociado a su almacenamiento es incurrir en gastos para obtener la infraestructura necesaria. Para poder extraer el máximo valor de un conjunto de datos que cada vez da más la impresión de ser infinito (Big Data) (es decir, para convertirlos en Datos Inteligentes o Smart Data), se requieren abordajes y métodos inteligentes. Sin embargo, también resulta claro que este procesamiento inteligente de los datos requiere el hardware adecuado.

La primera cuestión en este contexto aborda el almacenamiento correcto de los datos. El aprovisionamiento óptimo para los datos, ya sea en un centro de datos o en la nube, resulta crítico. Esto permite que los datos sean evaluados y utilizados, tanto de forma centralizada como descentralizada.

Almacenamiento de datos: una mezcla de almacenamiento local y remoto 

Para este propósito, se emplean “S3” y otras plataformas de almacenamiento que se encuentran disponibles tanto en las propias instalaciones como en otras ubicaciones. De este modo, los datos fríos allí almacenados pueden ser transferidos a potentes sistemas informáticos para su análisis y utilización, en caso de necesidad. De este modo, es posible construir sistemas de almacenamiento inteligente y esto puede realizarse con la ayuda de software para la gestión de almacenamiento por tramos.

En cualquier caso, el objetivo siempre debería ser preocuparse menos por la ubicación del almacenamiento y más por el tipo de almacenamiento. En este caso, una estrategia sofisticada de nube hibrida podría contribuir a ofrecer las respuestas adecuadas a los interrogantes sobre el almacenamiento.

Almacenar datos fríos y calientes correctamente

Antes de dar el primer paso, deberá quedar claro el tipo predominante de datos que se manejan y cómo serán almacenados. La calidad y cantidad de las adquisiciones necesarias dependerá de estos factores. Por una parte, están los datos fríos, que es preferible transferir a un archivo a largo plazo. En este caso, las cintas todavía siguen desempeñando un papel importante, dado que son resistentes y ofrecen una relación precio-rendimiento muy favorable. Pero los sistemas de almacenamiento por bloques también pueden ser una buena opción para este fin.

En cambio, la analítica rápida de datos calientes requiere de sistemas potentes que cada vez más se benefician de la tecnología de protocolo NVMe. Esto permite que los datos lleguen a los dispositivos en los que serán analizados y procesados a altísimas velocidades. Esta combinación de fuentes de datos fríos y calientes resulta en la arquitectura necesaria para el análisis y procesamiento de grandes cantidades de datos, apoyada por IA.

La consideración más importante en este caso es la preclasificación adecuada de los datos. Porque priorizar los conjuntos de datos disponibles es la única forma de alcanzar el objetivo deseado. Por ejemplo, en algunos casos, clasificar y evaluar las visitas a una web en función de ciertos criterios será una mejor opción que contar únicamente las impresiones.

Optimización de procesos

Establecer una correlación entre datos puede resultar crítico para realizar una preselección inicial. Este enfoque puede aplicarse para optimizar procesos a gran o pequeña escala, de modo completamente automático y durante el tiempo de ejecución de los procesos asociados. Esto puede utilizarse, por ejemplo, para compensar la existencia de cuellos de botella en el suministro o incluso interceptarlos, una cuestión importante, especialmente en el contexto de la pandemia actual.

En referencia a sistemas de almacenamiento compatibles con NVMe, es necesario mencionar el nuevo Thinksystem DM5100F. Este sistema representa un nuevo desarrollo de medio-alcance que depende de conexiones de un extremo al otro y tecnología NVMe. Esto proporciona a las empresas de tamaño intermedio una dotación técnica capaz de evaluar y utilizar grandes cantidades de datos de manera óptima sin ayuda de IA ni sofisticados métodos de análisis.

La infraestructura de red debe mantener el ritmo del procesamiento de datos

Cuando hablamos de datos fríos y calientes, también resulta importante evaluar una topología de red adecuada. Por ejemplo, en entornos Ethernet, la variante de 25 Gbit es prácticamente un estándar que se está empleando cada vez más. Además, también puede observarse una tendencia hacia los 100 Gigabit (Gbit), lo cual, dados los enormes volúmenes de datos involucrados, representa el siguiente paso lógico en las infraestructuras de Ethernet.

Al mismo tiempo, la tecnología de canal de fibra (Fibre Channel o FC) continúa desempeñando un papel importante, especialmente en el entorno de almacenamiento en bloques, como es el caso en las instalaciones SAN, por ejemplo. Esto puede apreciarse en el hecho de que el estándar FC todavía se encuentra en desarrollo. En la actualidad, 32 Gbit por segundo representa la medida generalizada, pero ya están empezando a comercializarse los primeros sistemas de almacenamiento de 64 Gbit.

También cabe mencionar que los primeros fabricantes ya han puesto fin a la producción de sus componentes de almacenamiento de 16 Gbit FC. Por lo tanto, sería recomendable saltarse la quinta generación (32 Gbit) y pasar directamente a la variante de 64 Gbit.

Transferir el entorno de almacenamiento local a la nube hibrida 

El software de gestión de datos “Netapp Ontap” se encuentra disponible en sistemas de almacenamiento como el Lenovo Thinksystem DM5100F para proporcionar un acceso flexible a datos almacenados en la nube hibrida. Entre otras cosas, esto mejora significativamente la disponibilidad de los datos. Esta ventaja se encuentra disponible incluso a nivel de aplicación, asignando prioridades a las aplicaciones existentes. Esto hace posible determinar las apps que se mantendrán “vivas” en caso de desastre y las que no. Además, la actual versión 9.8 de Ontap ofrece opciones extendidas para obtener instantáneas, las cuales permiten a los sistemas de almacenamiento local sincronizarse con entornos de nube como S3 o AWS.

Generar datos inteligentes gracias a la inteligencia artificial y métodos analíticos 

El aumento de los volúmenes de datos hace que se requieran nuevos métodos para poder evaluarlos de la mejor manera posible. Ya hace tiempo que se viene utilizando la Inteligencia Artificial para este propósito y sus desarrollados algoritmos aseguran que los datos disponibles serán gestionados de la mejor forma posible. En la actualidad se emplean múltiples tipos de abordajes y soluciones especializadas para el procesamiento y análisis de cantidades ingentes de datos.

Entre ellos se encuentran tecnologías como Apache Hadoop y Spark, que se ejecutan en sistemas de alto rendimiento. La elección de un sistema de base de datos adecuado también resulta importante. En este caso, entornos como “Microsoft SQL Server” Big Data Cluster, “IBM Db2 Warehouse” y varias soluciones SAP ofrecen herramientas muy potentes. Pero las soluciones desarrolladas a medida, como IBM Watson Studio y Lenovo Intelligent Computing Orchestrator (Lico), también obtienen excelentes resultados de los datos existentes mediante la IA.

En este contexto, también resulta interesante la herramienta de software TIM (Thinksystem Intelligent Monitoring) versión 2.0, que permite gestionar y controlar sistemas de almacenamiento a base de IA. TIM detecta de forma independiente cuellos de botella o configuraciones erróneas en el almacenamiento, lo cual contribuye a corregirlos automáticamente.

Otra de las tareas de TIM es comprobar el firmware actual. Esto descarga a los administradores informáticos de tareas rutinarias. Puesto que se trata de una solución basada en la nube, tanto las empresas como sus socios pueden utilizar el software para sus objetivos.

About Author

Sven Nimmich

Evangelista de Soluciones de Almacenamiento en Infraestructure Solutions Group (ISG) de Lenovo

Leave A Reply