GLOSARIO DE TÉRMINOS
Data Lake: definición, conceptos clave y mejores prácticas
Un data lake es un entorno de datos compartidos en su formato original que comprende múltiples repositorios y aprovecha las tecnologías de big data.
Un data lake es capaz de proporcionar datos a la organización para una gran variedad de procesos analiticos diferentes:
- Descubrimiento y exploración de datos
- Análisis ad hoc simple
- Análisis complejo para toma de decisiones
- Informes
- Análisis en tiempo real
1. ¿Qué es Data Lake?
Un data lake es un repositorio de almacenamiento que contienen una gran cantidad de datos en bruto y que se mantienen allí hasta que sea necesario. A diferencia de un data warehouse jerárquico que almacena datos en ficheros o carpetas, un data lake utiliza una arquitectura plana para almacenar los datos.
A cada elemento de un data lake se le asigna un identificador único y se etiqueta con un conjunto de etiquetas de metadatos extendidas. Cuando se presenta una cuestión de negocios que debe ser resuelta, podemos solicitarle al data lake los datos que estén relacionados con esa cuestión. Una vez obtenidos podemos analizar ese conjunto de datos más pequeño para ayudar a obtener una respuesta.
El data lake se asocia a menudo con el almacenamiento de objetos orientado a Hadoop. En este escenario, los datos de una organización se cargan primero en la plataforma Hadoop y, a continuación, se aplican las herramientas de análisis y de minería de datos a los datos que residen en los nodos clúster de Hadoop.
Al igual que con big data, el término data lake a veces se desacredita diciendo que es una simple etiqueta de marketing para un producto que soporta Hadoop. Cada vez más, sin embargo, el término está siendo aceptado como una forma de describir cualquier gran conjunto de datos en el que el esquema y los requisitos de datos no se definen hasta que los datos se consultan.
¿Cuáles son los beneficios de un data lake?
El principal beneficio de un data lake es la centralización de fuentes de contenido dispares. Una vez reunidas (de sus "silos de información"), estas fuentes pueden ser combinadas y procesadas utilizando big data, búsquedas y análisis que de otro modo hubieran sido imposibles. Las fuentes de contenido dispares a menudo contienen información confidencial que requerirá la implementación de las medidas de seguridad apropiadas en el data lake.
Las medidas de seguridad en el data lake pueden ser asignadas de manera que se otorga acceso a cierta información a los usuarios del data lake que no tienen acceso a la fuente de contenido original. Estos usuarios tienen derecho a la información, pero no pueden acceder a ella en su fuente por alguna razón.
Es posible que algunos usuarios no necesiten trabajar con los datos en el origen de contenido original, sino consumir los datos resultantes de los procesos incorporados a dichos orígenes. Puede haber un límite de licencias para el origen de contenido original que impide que algunos usuarios obtengan sus propias credenciales. En algunos casos, la fuente de contenido original se ha bloqueado, está obsoleta o se desactivará en breve, sin embargo, su contenido sigue siendo valioso para los usuarios del data lake.
Una vez que el contenido está en el data lake, puede normalizarse y enriquecerse. Esto puede incluir extracción de metadatos, conversión de formatos, aumento, extracción de entidades, reticulación, agregación, des-normalización o indexación.
Los datos se preparan "según sea necesario", lo que reduce los costos de preparación sobre el procesamiento inicial (tal como sería requerido por los data warehouses. Una estructura de big data permite escalar este procesamiento para incluir los conjuntos de datos más grandes posibles.
Los usuarios, de diferentes departamentos, potencialmente dispersos por todo el mundo, pueden tener acceso flexible a un data lake y a su contenido desde cualquier lugar. Esto aumenta la reutilización del contenido y ayuda a la organización a recopilar más fácilmente los datos necesarios para impulsar las decisiones empresariales.
La información es poder, y un data lake pone la información de toda la empresa en manos de muchos más empleados para hacer a la organización un todo más inteligente, más ágil y más innovadora.
2. Principales diferencias entre Data Lakes y Data Warehouses
A continuación, destacaremos cinco elementos diferenciadores clave de un data lake y cómo contrastan con el enfoque del data warehouse.
Un Data Lake conserva todos los datos
Durante el desarrollo de un data warehouse, se gasta una cantidad considerable de tiempo analizando las fuentes de datos, entendiendo los procesos de negocio y perfilando los datos. El resultado es un modelo de datos altamente estructurado diseñado para la generación de informes. Una gran parte de este proceso incluye tomar decisiones sobre qué datos incluir y no incluir en el almacén. Generalmente, si los datos no se utilizan para responder a preguntas específicas o en un informe definido, pueden excluirse del almacén. Esto se hace generalmente para simplificar el modelo de datos y también para conservar el costoso espacio en el almacenamiento de disco que se utiliza para hacer el data warehouse.
En contraste, el data lake conserva todos los datos. No sólo los datos que se utilizan actualmente, sino los datos que se pueden utilizar e incluso los datos que nunca se van a ser utilizados sólo porque quizás podrían ser utilizados algún día. Los datos también se mantienen todo el tiempo para que podamos volver en el tiempo a cualquier punto para hacer el análisis.
Este enfoque se hace posible porque el hardware para un data lake suele ser muy diferente del utilizado para un data warehouse. La ampliación de un data lake a terabytes y petabytes puede hacerse de manera bastante económica.
Un Data Lake soporta todos los tipos de datos
Los data warehouses generalmente se componen de datos extraídos de sistemas transaccionales junto con métricas cuantitativas y los atributos que las describen. Las fuentes de datos no tradicionales, como los registros del servidor web, los datos de sensores, la actividad de las redes sociales, el texto y las imágenes, se ignoran en gran medida. Se siguen encontrando nuevos usos para estos tipos de datos, pero consumirlos y almacenarlos puede ser costoso y difícil.
El enfoque del data lake abarca estos tipos de datos no tradicionales. En el data lake, guardamos todos los datos independientemente de la fuente y la estructura. Los mantenemos en su forma bruta y sólo los transformamos cuando estamos listos para usarlos. Este enfoque se conoce como "Schema on Read" en comparación con el "Schema on Write" que es el enfoque utilizado en el data warehouse.
Un Data Lake ssoporta a todos los usuarios
En la mayoría de las organizaciones, el 80% o más de los usuarios son "operacionales". Quieren obtener sus informes, ver sus KPIs o seleccionar el mismo conjunto de datos en una hoja de cálculo todos los días. El data warehouse suele ser ideal para estos usuarios porque está bien estructurado, fácil de usar y comprender y está diseñado para responder a sus preguntas.
El siguiente 10% más o menos, hace más análisis en esos datos. Utilizan el data warehouse como una fuente, pero a menudo vuelven a los sistemas de origen para obtener datos que no están incluidos en el almacén y a veces traen datos de fuera de la organización. Su herramienta favorita es la hoja de cálculo y crean nuevos informes que a menudo se distribuyen en toda la organización. El data warehouse es su fuente de acceso a los datos, pero a menudo van más allá de sus límites
Por último, el restante tanto por ciento de los usuarios hace un análisis profundo. Pueden crear fuentes de datos totalmente nuevas basadas en la investigación. Ellos mezclan muchos tipos diferentes de datos y llegan a nuevas preguntas que deben responderse. Estos usuarios pueden utilizar el data warehouse, pero a menudo lo ignoran, ya que normalmente se les solicita que vayan más allá de sus capacidades. Estos usuarios incluyen a los científicos de datos y pueden utilizar avanzadas herramientas analíticas y capacidades como el análisis estadístico y el modelado predictivo.
El enfoque del data lake soporta igualmente a todos estos usuarios. Los científicos de datos pueden ir al data lake y trabajar con el gran y variado conjunto de datos que necesitan, mientras que otros usuarios hacen uso de vistas más estructuradas de los datos proporcionadas para su uso.
Los Data Lakes se adaptan fácilmente a los cambios
Una de las principales quejas sobre los data warehouses es cuánto tiempo se tarda en cambiarlos. Un tiempo considerable se gasta por adelantado durante el desarrollo de la estructura del almacén. Un buen diseño de almacén puede adaptarse al cambio, pero debido a la complejidad del proceso de carga de datos y al trabajo realizado para facilitar el análisis y la elaboración de informes, estos cambios necesariamente consumirán algunos recursos de desarrolladores y tomarán algún tiempo.
Muchas preguntas comerciales no pueden esperar a que el equipo del data warehouse adapte su sistema para responderlas. La necesidad cada vez mayor de respuestas más rápidas es lo que ha dado lugar al concepto de auto-servicio de inteligencia empresarial.
En el data lake, por otro lado, como todos los datos se almacenan en bruto y siempre con accesibles a alguien que necesite utilizarlos, los usuarios tienen el poder de ir más allá de la estructura del almacén para explorar datos de nuevas maneras y responder a sus preguntas a su ritmo.
Si se demuestra que el resultado de una exploración es útil y existe el deseo de repetirlo, entonces se puede aplicar un esquema más formal y se puede desarrollar la automatización y la reutilización para ayudar a extender los resultados a un público más amplio. Si se determina que el resultado no es útil, puede descartarse y no se han realizado cambios en las estructuras de datos ni se han consumido recursos de desarrollo.
Los Data Lakes proporcionan una visión más rápida
Esta última diferencia es realmente el resultado de las otras cuatro. Debido a que los data lakes contienen todos los datos y tipos de datos, y a que permite a los usuarios acceder a los datos antes de que se hayan transformado, limpiado y estructurado, permite a los usuarios llegar a sus resultados más rápido que el método tradicional de data warehouse.
Sin embargo, este acceso temprano a los datos tiene un precio. El trabajo típicamente realizado por el equipo de desarrollo de data warehouse no se puede hacer para algunas o todas las fuentes de datos requeridas para realizar un análisis. Esto permite a los usuarios explorar y usar los datos como mejor les parezca, pero el primer nivel de usuarios de negocios que he descrito anteriormente tal vez no quiera hacer ese trabajo. Todavía quieren sus informes y KPI's.
En los data lakes, estos consumidores de informes operativos harán uso de vistas más estructuradas de los datos en el data lake que se parecen a lo que siempre han tenido antes en el data warehouse. La diferencia es que estas vistas existen principalmente como metadatos que se sitúan sobre los datos en el lago en lugar de tablas físicamente rígidas que requieren un desarrollador para cambiarlas.
3. Mejores prácticas para sacar todo el partido de tus datos lagos
Después de lo que hemos visto, ¿estás ya listo para construir un data lake?
Veamos primero una lista de lo que necesitas para asegurarte de que lo estás haciendo de una manera controlada pero flexible.
Lista de prioridades de beneficios empresariales
Al iniciar un proyecto de data lake, es necesario tener una alineación muy fuerte con el negocio. Después de todo, el data lake necesita proporcionar el valor que el negocio no está recibiendo de su data warehouse.
Esto puede hacerse resolviendo “paint points” o creando nuevos flujos de ingresos netos que pueden ofrecer los distintos equipos de negocio. Ser capaz de definir y articular este valor desde un punto de vista empresarial y convencer a socios a unirse en este viaje es muy importante para su éxito.
Supervisión arquitectónica
Una vez que tienes la alineación del negocio y sabes cuáles son sus prioridades, necesitas definir la arquitectura inicial: ¿cuáles son los diversos componentes que necesitarás, y cómo será la plataforma técnica final? Ten en cuenta que se trata de una inversión a largo plazo, por lo que necesitas pensar cuidadosamente acerca de hacia dónde se está moviendo la tecnología. Naturalmente, es posible que no tengas todas las respuestas por adelantado, por lo que podría ser necesario realizar una prueba de concepto para obtener alguna experiencia y afinar y aprender a lo largo del camino. Un aspecto especialmente importante de tus planes arquitectónicos es una buena estrategia de gestión de datos que incluya el gobierno de datos y los metadatos, y cómo captará eso. Es crítico si se quiere construir un data lake administrado y gobernado en lugar del temido "pantano de datos".
Estrategia de seguridad
Esboza una estrategia de seguridad robusta, especialmente si tu data lake va a ser una plataforma compartida utilizada por múltiples líneas de unidades de negocio o por partes interesadas tanto internas como externas. La privacidad y la seguridad de los datos son fundamentales, especialmente para los datos confidenciales. Puede que incluso tengas que incluir reglas regulatorias. También debes pensar en multiusuario: ciertos usuarios pueden no ser capaces de compartir datos con otros usuarios. Si se está sirviendo a varias audiencias externas, cada cliente puede tener acuerdos de datos individuales y deben respetarse.
I/O y modelo de memoria
Como parte de la plataforma tecnológica y su arquitectura, se debe pensar en lo que será las capacidades de escalar del data lake. Por ejemplo, ¿se va a usar el desacoplamiento entre el almacenamiento y las capas de computación? Si ese es el caso, ¿cuál es la capa de almacenamiento persistente? Se deben comprender a fondo los requisitos de rendimiento desde el punto de vista de la ingesta de datos, lo que determinará el rendimiento para el almacenamiento y la red, así como si se pueden procesar datos de manera oportuna.
Evaluación del conjunto de habilidades de la fuerza de trabajo
Para que cualquier proyecto de data lake tenga éxito, tienes que tener la gente adecuada. Necesitas expertos que tengan experiencia práctica en la creación de plataformas de datos y que tengan una amplia experiencia en gestión de datos y data governance para que se puedan definir las políticas y procedimientos por adelantado. También necesitas científicos de datos que serán consumidores de la plataforma. Debes utilizarlos durante la etapa de diseño ya que son partes interesadas y escuchar sus requerimientos y cómo preferirían interactuar con el data lake cuando esté terminado es muy importante.
Plan de operaciones
Piensa en el data lake desde una perspectiva de acuerdo de nivel de servicio (SLA): ¿qué requisitos de SLA esperan tus interlocutores empresariales?, especialmente en lo que se refiere a aplicaciones críticas para el negocio que afectan ingresos. Se necesitan SLAs adecuados en términos de tiempo de inactividad, y en términos de datos que son ingeridos, procesados y transformados de una manera repetible. Volviendo al punto de las personas y habilidades, es fundamental contar con las personas adecuadas con experiencia en la gestión de estos entornos, para formar un equipo de operaciones para apoyar los acuerdos de nivel de servicio y cumplir con los requisitos del negocio.
Plan de comunicaciones
Una vez que tengas el data lake en su sitio, ¿cómo se anunciará este hecho en la empresa y como traerás usuarios adicionales? Es necesario conseguir diferentes interesados de negocios y mostrar algunos éxitos para su entorno de data lake para prosperar. Como cualquier otra plataforma de TI, su éxito, en última instancia, se basa en su adopción por parte del negocio.
Plan de recuperación de desastres
Dependiendo de la criticidad de negocio de tu data lake y de los diferentes SLAs que tengas con los diferentes grupos de usuarios, necesitarás un plan de recuperación de desastres que pueda soportarlo.
4. El Data Lake inteligente
Las organizaciones buscan aprovechar las nuevas plataformas de procesamiento de datos, como Apache Hadoop, para poder llevar a cabo algunas ideas previas inaceptables. La aparición de Apache Hadoop y el concepto de data lake ofrece a las organizaciones el lujo de agrupar todos los datos para que sean accesibles por los usuarios en cualquier momento para cualquier tipo de análisis.
Las organizaciones recolectan datos de clientes y de mercado por su potencial para mejorar las experiencias e impulsar el crecimiento del negocio. Las instituciones financieras están ahorrando y monitorizando los datos transaccionales y otras señales relacionadas con el fin de enriquecer las técnicas de detección de fraude, mantenerse al día con las regulaciones globales cambiantes y aumentar la confianza del consumidor en la seguridad de sus servicios. Las organizaciones relacionadas con temas de salud están preservando los datos de registros médicos electrónicos y los datos de reclamaciones con el fin de impulsar un cuidado de la salud más personalizado. La oportunidad de aprovechar los datos nunca ha sido mayor que con la tecnología de big data.
El desafío
El gran volumen de datos que se ingeren en los sistemas Hadoop es abrumador. Los analistas de negocio esperan ansiosamente datos de calidad procedentes de Hadoop. Mientras tanto, TI permanece sobrecargada con procesos manuales y con falta de tiempo para recopilar datos en bruto en aquellos activos de datos que son aptos para el propósito que se pide. Big data no siempre puede cumplir su promesa de traer progreso debido a las complejas tecnologías y los recursos adicionales requeridos para extraer valor.
Sin mecanismos escalables, repetibles e inteligentes para curar datos, toda la oportunidad que los data lakes prometen puede estancarse. La capacidad de convertir big data en información valiosa de negocios con los datos correctos entregados en el momento adecuado es, en última instancia, lo que separará a los precursores organizacionales de los rezagados.
La solución
Los data lakes por sí solos son sólo medios para un fin. Para lograr el objetivo final de proporcionar conocimientos empresariales, se necesita inteligencia de máquina impulsada por servicios de metadatos universales. Los servicios de metadatos universales catalogan los metadatos adjuntos a los datos, tanto dentro como fuera de Hadoop, y también capturan los tags proporcionados por el usuario sobre el contexto empresarial de los datos.
Los conocimientos empresariales fluyen desde un data lake inerte a través del valor añadido derivado de la catalogación tanto de la calidad como del estado de los datos dentro del data lake. Y también de las capacidades colaborativas de preparación de datos de autoservicio aplicadas a esos datos. Por lo tanto, el Data Lake Inteligente permite que big data sin procesar sean sistemáticamente transformado en conjuntos de datos aptos para el propósito y para una variedad de consumidores de datos. Con esta implementación, las organizaciones pueden convertir rápida y repetidamente big data en activos de información confiables que aporten un valor comercial sostenible.
Características principales
Buscar datos
Los analistas de negocio anhelan una manera eficiente de administrar el "volumen, variedad y velocidad" cada vez mayor asociado típicamente al big data. El Data Lake Inteligente descubre los datos de los clientes existentes a través de un proceso automatizado de descubrimiento basado en el machine learning. Este proceso de descubrimiento transforma los activos de datos correlacionados en recomendaciones inteligentes de nuevos activos de datos que pueden ser de interés para el analista. Los activos de datos también pueden buscarse gracias al proceso de catalogación de metadatos, que permite a los analistas de negocios encontrar y acceder fácilmente a casi cualquier información de su organización.
Descubriendo las relaciones de datos que importan
Los analistas de negocios a menudo se limitan a los datos encerrados en silos de datos y, a menudo, desconocen que los regímenes regulatorios y los marcos de cumplimiento protegen cada vez más la privacidad de los consumidores y abordan los problemas de seguridad. Un Data Lake Inteligente analiza eficazmente esos silos, al mismo tiempo que mantiene el linaje de los datos y realiza un seguimiento de su uso.
Los analistas de negocio se benefician, por lo tanto, de las ideas derivadas de los activos de datos anteriormente compartidos pero ahora universalmente accesibles. Y TI puede confiar en que se respeten los mecanismos generales de seguridad y gobernanza para cumplir con los controles internos y las políticas externas.
Prepara y comparte rápidamente los datos que necesitas
A medida que los ciclos económicos continúan disminuyendo, la velocidad es una de las pocas ventajas competitivas que las organizaciones pueden confiar en la carrera para agregar valor al negocio. Los analistas de negocios esperan obtener de los datos más de lo que están a punto de perder. Un Data Lake Inteligente te permite preparar y compartir rápidamente datos que son fundamentales para ofrecer analíticas competitivas.
La preparación de datos de autoservicio proporciona una interfaz familiar y fácil de usar para los analistas de negocios, que les permite combinar rápidamente los datos con los conocimientos que necesitan. La colaboración entre analistas de datos también juega un papel importante. El etiquetado y el intercambio de datos de crowdsourcing permite a los analistas de negocios colaborar en el proceso de recuperación de datos. También agrega valor aprovechando la sabiduría de todos y aumenta la eficiencia operativa, permitiendo que las personas adecuadas obtengan más de datos correctos en el momento adecuado.
Operacionalizar la preparación de datos en flujos de trabajo reutilizables
Independientemente de la automatización y las herramientas de autoservicio, los analistas a menudo tienen que repetir las mismas actividades de preparación de datos con nuevos conjuntos de datos. Esto simplemente despilfarra cualquier ganancia si no hay reutilización. Un Data Lake Inteligente te permite guardar pasos de preparación de datos y luego reproducir rápidamente esos pasos dentro de procesos automatizados. Esto transforma la preparación de datos de un proceso manual a una máquina reutilizable, sostenible y operacionalizada. Se debe establecer un Data Lake Inteligente como parte de la estrategia de gestión de información hoy para convertir rápida y repetidamente más big data en valor de negocio sin aumentar el riesgo.
Blogs relacionados a Data Lake
Mejora la relación con el cliente con una gestión de datos eficaz
Descubre cómo mejorar la relación con el cliente y fortalecerla asegurándote una visión 360 con una gestión de datos eficaz.
Datos Omnicanales, ¿cómo generar una nueva relación con el cliente?
Descubre cómo lograr una visión 360 de cliente partiendo de una estrategia de datos omnicanales.
Mejores prácticas para lograr una visión integral del cliente con mdm
El master data management o mdm implementado de una forma eficaz, es clave para lograr una visión integral del cliente. Conoce cómo aprovecharlo.
Ebooks relacionados a Data Lake
NUESTRO CONTENIDO GRATUITO
Subscríbete a nuestro blog y recibe las últimas actualizaciones sobre gestión de datos.
Descubre contenido nuevo todos los días para profundizar la transformación digital en tu organización.