868 300 513 / [email protected]

WE WORK

AS ONE

Contamos con los mejores

Huge Data: el reto tecnológico de una gestión basada en datos

La gestión de los datos es uno de los mayores retos a los que se enfrentan actualmente las empresas, y el desafío aumentará todavía más con la implantación del Internet de la Cosas (IoT) y las tecnología asociadas a la inteligencia artificial, como el Deep Learning.

Así, cabe esperar un incremento en magnitud del volumen de datos en circulación cuando el desarrollo de la infraestructura 5G haga posible la intercomunicación e interoperabilidad de millones de dispositivos. O haya que nutrir de información a los algoritmos de redes neuronales artificiales que se ocuparán de tomar decisiones por nosotros en multitud de ámbitos.

Por todo ello, los especialistas entienden que el antiguo modelo de Big Data quedará superado por el de Huge Data, que abocará a  organizaciones como las empresas a tener que gestionar datos a escala masiva, dependiendo del tratamiento óptimo de esa ingente cantidad de información su eficiencia en todos las áreas clave de negocio: marketing, ventas, atención al cliente, etc. Por no hablar, escaparía al propósito del artículo, de lo que supondrá desde el punto de vista de la ciberseguridad, el respaldo de la información o incluso para el cumplimiento normativo.

Huge Data y gestión del almacenamiento

De este modo, el Huge Data implicará un auténtico desafío a la gestión del almacenamiento, empezando por las propias capacidades del mismo. De hecho, un estudio reciente de IDC (International Data Corporation) advierte que en 2020 se crearon o replicaron 64,2 Zetabytes de datos, cuando la disponibilidad existente para almacenar llega tan solo a los 6,8 Zetabytes (un Zb equivale a un trillón de gigabytes).

Evidentemente, un porcentaje altísimo de los datos en circulación serían lo que se denominan como efímeros, que como su propio nombre indica desaparecen,al corresponderpor ejemplo a stories temporales de redes sociales, a  cachés que luego se eliminan o a archivos que se reescriben para actualizarse. Pero los guarismos referidos resultan muy ilustrativos del ritmo de creación y replicación de datos actual, cuando todavía no se ha implementado por completo el modelo IoT y estamos en los albores de la automatización de procesos mediante la aplicación de Deep Learning.

Además, si asumimos que vamos hacia un modelo en que la toma de decisiones de todo tipo de organizaciones, desde gobiernos a empresas, se hará con base a datos, sin una adecuada gestión de su almacenamiento no será factible cumplir con los requisitos que impondrá el Huge Data.

Soluciones de almacenamiento para la era del Huge Data

En consonancia con lo expuesto hasta ahora, el desafío venidero exigirá la adopción de sistemas de almacenaje de datos que proporcionen las características que vamos a comentar a continuación.

Múltiples niveles de almacenamiento

Aunque se siga apostando por las distintas modalidades de soluciones de almacenamiento en la nube, estas no dejarán de ser equivalente a las que también necesitaremos tener on-premise, en un modelo eminentemente híbrido que requerirá  combinar recursos de almacenamiento, de difentes velocidades y capacidades, como por ejemplo bases de datos In-Memory, sistemas de caché local ultrarápida como Optane y sus evoluciones, discos NVME, discos SSD, discos mecánicos o cintas LTO… que se utilizarán en función de la temperatura y tamaño de los datos. Esto es, según se acceda a ellos de manera frecuente (datos calientes y tibios) o rara vez (fríos), requiriendo los primeros una solución de almacenamiento que garantice un acceso rápido y de la cantidad de ellos que almacenmos, normalmente siendo más cuantiosos los datos históricos y a los que se accede de forma más esporádica.

Coste óptimo de almacenamiento

Huge Data supone un reto todavía mayor que el Big Data en cuanto al volumen de información a tratar por las empresas, y en consecuencia las necesidades de almacenamiento aumentan de manera exponencial. 

En este sentido, resulta esencial contar con soluciones  que garanticen un coste óptimo por byte, satisfaciendo sus necesidades de disponibilidad, seguridad y capacidad, para todos nuestros datos estables, ya sean estructurados (forman parte de una base de datos relacional), semi-estructurados (tienen algún tipo de organización interna) o no estructurados, que son los que aumentan a un ritmo mayor, al entrar en esta categoría desde los archivos de texto hasta los de imágenes o vídeos que puede generar una organización en su día a día.

Elasticidad para el crecimiendo / decrecimiento

Dado que la generación de un alto volumen de datos efímeros puede crear grandes necesidades de almacenamiento de carácter temporal, las soluciones cloud se tornan un aliado imprescindible para darnos esa elásticidad, y también ese pago por uso, que requiere el adaptarse al crecimiento y al decrecimiento de la demanda de espacio.

Máxima protección contra amenazas y desastres

La protección de los datos críticos de las empresas ya es un asunto primordial en la actualidad, e implica para las organizaciones tener que dotarse con robustos sistemas de salvaguarda y respaldo de la información, con el objetivo de ser capaces dar la respuesta adecuada ante cualquier percance, ya se trate de ciberataques o desastres accidentales.

Cuando el volumen de datos a proteger escale por los requerimientos del Internet de la Cosas (IoT) y la automatización mediante Deep Learning el desafío será todavía mayor, al surgir nueva información sensible que es preciso proteger y al aumentar las brechas de seguridad potenciales, lo que aboca a la implantación de sistemas de almacenamiento y  backup que ofrezcan las mismas garantías de protección, respaldo, disponibilidad y cumplimiento normativo en un ecosistema aún más complejo.

Accesibilidad y latencia de acceso óptimas según el propósito

Por último, las soluciones de almacenamiento para la era Huge Data deberán ser muy flexibles en cuanto a la latencia, ya que por un lado habrán de estar preparadas para poder asimilar ingestas masivas de datos procedentes de los sensores de los dispositivos IoT, para cuyo óptimo funcionamiento se requerirá una accesibilidad plena y un retardo mínimo. Mientras que otras modalidades de datos podrán esperar horas a ser accedidos sin problema, sin las exigencias de los primeros en cuanto a latencia.

En ITRES ofrecemos a infinidad de empresas de todos los sectores servicios y soluciones a medida para el almacenamiento, protección y respaldo de su información crítica. Para ello, implementamos las tecnologías más avanzadas y disponemos de recursos como un Data Center propio operado 24/7.

Facebook
Twitter
LinkedIn
Pinterest
WhatsApp