Nociones básicas sobre Big Data
20 abril, 2022

Las palabras “Big Data” llevan tiempo formando parte de las tendencias dentro de lo que se ha dado en llamar transformación digital. Junto con el Cloud Computing y Blockchain, constituye una de las tecnologías más prometedoras, y es ya una realidad en multitud de servicios, públicos y privados, a lo largo de todo el mundo.

¿Qué es Big Data?

En primer lugar, hablamos de Big Data cuando una empresa o institución pretenda emplear un enfoque data-driven (impulsado por datos) de modo que se plantee como objetivo extraer el máximo valor de la información, sea propia, de fuentes externas accesibles, o una combinación de ambas.

Fijada la primera premisa, conceder y valorar el potencial que los datos tienen en una organización, la atención debe fijarse en el volumen, la naturaleza, almacenamiento y fuentes de dichos datos.

Volumen de datos

Una de las características de Big Data, y que la diferencian de las arquitecturas de datos tradicionales, es que es capaz de tratar grandes volúmenes de datos. Es en lo que la mayoría de la gente piensa cuando escucha Big Data, y aquí surge la primera cuestión ¿Cuál es la cantidad a partir de la cual se considera que es un gran volumen?

No hay un criterio concreto. Una opinión extendida durante algún tiempo la fijaba en la escala del Terabyte (1024 GB), probablemente porque entonces se consideraba un volumen lo suficientemente grande como para conllevar largos tiempos de procesamiento y hardware más complejo del habitual.

Pero dada la velocidad de avance de los procesadores, y el descenso de coste de la memoria RAM, fijar una cifra basada estos parámetros conduciría a tener que elevarla al alza, al cabo de pocos meses. Lo que hace medio año se consideraba “gran volumen”, es posible que hoy ya no lo sea tanto, en términos de esfuerzo para una máquina.

Dejemos por un momento la cuestión del volumen de información. Volveremos después sobre ello, visto el resto de factores que hacen al Big Data distinto.

Fuentes de datos y velocidad de procesamiento

El siguiente elemento diferenciador frente a las soluciones tradicionales de tratamiento de datos es la diversidad de información. Frente al clásico Business Intelligence, con cuadros de mando que trabaja a partir de datos estructurados (típicamente en bases de datos SQL), Big Data da solución cuando las fuentes de información son variadas. Esto significa capacidad de procesar, desde documentos de texto o archivos de sonido, hasta ficheros en formatos como XML o JSON, o de registro de operaciones, por poner unos cuantos ejemplos. Además de datos estructurados, por supuesto. Cualquier formato, en el cual puede haber información susceptible de ser útil se puede procesar mediante la arquitectura de Big Data.

Y un tercer criterio es la necesidad de procesamiento en casi tiempo real. Frente al ya mencionado Business Intelligence, que requiere consolidar datos agregados, transcurriendo así días o semanas, ahora es posible reaccionar en segundos según la información entrante, una rápida toma de decisiones, e incluso automatizar estas.

Volviendo a la cuestión del volumen de datos.

Cuando, por volumen, junto con los condicionantes de variedad y velocidad, el volumen de datos no pueda ser procesado por una sola máquina, o el coste de esta no sea operativo, entonces será necesaria una plataforma Big Data.

Hay otras variables, que algunos autores añaden, como el valor del dato y su variabilidad de flujo en el tiempo. En todo caso, Big Data siempre estará ahí donde confluyan volumen, variedad y velocidad.

Juan Escamilla

Director de Imagen y Comunicación

Comparte este artículo

Publicaciones Relacionadas

Principales tendencias tecnológicas 2019

Principales tendencias tecnológicas 2019

La irrupción de la tecnología ha provocado una transformación notable sobre el mundo tal y como lo conocíamos, tanto a un nivel cotidiano como en otros entornos como el empresarial. A pesar de que no sabemos qué deparará el futuro en un ámbito tan cambiante como es el tecnológico, sí podemos identificar algunos patrones que nos indican cuáles son los campos que se encuentran en auge y van a ser clave en este proceso de transformación digital.

Machine Learning y algunas de sus principales aplicaciones

Machine Learning y algunas de sus principales aplicaciones

El Machine Learning, también conocido como aprendizaje automático, es una disciplina perteneciente al ámbito de la inteligencia artificial basada en desarrollar técnicas que permitan que los sistemas aprendan automáticamente.

El Big Data para usos científicos

El Big Data para usos científicos

Sabemos que se registra cada movimiento que hacemos cada día. Si viajamos a otra ciudad, otro país, incluso otro continente, nuestros Smartphones toman nota y los datos quedan guardados para poder ser usados en otras aplicaciones. Pero, ¿para qué los utilizan? La tecnología Big Data puede registrar cada rastro que se pueda dejar sobre algo, […]

¿Quieres estar al día de nuestras publicaciones?

    Buscar

    Categorías

    Ir al contenido