Un nuevo modelo de procesamiento de los datos masivos

17/01/2020

Un nuevo modelo de procesamiento de los datos masivos

  • Los métodos de análisis y consulta de grandes volúmenes de datos son muy diferentes de los tradicionales que se usan en pequeñas muestras. Así lo plantea esta columna de opinión de Pablo García, gerente de Data Center y Seguridad de CenturyLink Chile.


GENERAMOS diariamente una cantidad enorme de datos. Nos encontramos con una multiplicidad de dispositivos inteligentes y diversidad de vías de comunicación que han provocado este crecimiento exponencial en el volumen de datos, dando origen al fenómeno que se conoce como Big Data (también llamados “macrodatos” o “datos masivos”).

Cuando hablamos de Big Data no sólo nos referimos a grandes volúmenes de información, sino también a variedad, velocidad y, lo que es más importante, valor. El gran atractivo para las empresas está en sustraer, componer o producir información que aporte un valor diferencial sobre la base de estos datos.

La complejidad del proceso de transformación de estos volúmenes de datos en información confiable, útil y oportuna presenta un reto de gran envergadura. Los desafíos están principalmente centrados en estas seis funciones:

  • Recolectar datos que se generan desde múltiples fuentes, en distintos formatos y se capturan a través de diferentes protocolos o vínculos.
  • Reconocer, analizar y entender los datos para generar información válida y sustancial.
  • Proteger adecuadamente la información, teniendo en cuenta la legislación de protección a la información que varía por tipos de datos, industria y país.
  • Almacenar y resguardar eficientemente los datos. La conjunción de variedad, volumen y eficiencia nos llevan inevitablemente a un entorno donde distintos modelos de base de datos no sólo deben coexistir, sino que también integrarse para representar las relaciones entre los datos.
  • Garantizar el rendimiento y disponibilidad de la información. El valor no sólo está dado por la información en sí misma, sino que por la posibilidad de disponer de ella en tiempo y forma.
  • Planificar y ejecutar respuestas óptimas. Las empresas que más se destaquen llevando adelante esta etapa del proceso son las que van a lograr los mejores resultados desde el punto de vista de la eficiencia.

¿Cuál es la importancia de este nuevo modelo de procesamiento en la dinámica de un centro de datos? Los métodos de análisis y consulta de grandes volúmenes de datos son fundamentalmente diferentes de los análisis estadísticos tradicionales basados en pequeñas muestras.

Este volumen de datos interconectados forma grandes redes de información que se pueden explorar para compensar los datos faltantes, de modo de cotejar casos conflictivos. Por ejemplo, un médico puede escribir “TVP” como el diagnóstico de un paciente en su historia clínica, siendo esta abreviatura utilizada tanto para “trombosis venosa profunda” como para “diverticulitis”, dos condiciones médicas muy diferentes. Se puede utilizar una base de conocimientos construida a partir de datos relacionados como los síntomas asociados a las enfermedades y los medicamentos para determinar cuál de los dos términos es al que hacía referencia el médico.

Para realizar esta labor, se necesita de profesionales especializados, con una sólida base en tecnologías de información y comunicaciones, que conozcan en profundidad las estrategias y los procesos dentro de las organizaciones.

Los “científicos de datos” deben combinar conocimientos técnicos con visión para los negocios y tener la capacidad de comunicarse de manera eficaz con los tomadores de decisiones.

 

Pablo García

Gerente de Data Center y Seguridad

CenturyLink Chile

Compartir esta noticia

icono compartir facebook icono compartir twitter icono compartir whatsapp