Estrategias para migrar tu Data Lake, DWH y pipelines a Microsoft Fabric
- César Oviedo
- Nov 21, 2024
- 3 min read
Updated: 2 days ago
Estrategias para migrar tu Data Lake, Data Warehouse y pipelines a Microsoft Fabric
Si ya tenés clara la necesidad de migrar a Microsoft Fabric y preparaste el terreno (inventario, análisis de impacto, estructura de workspaces), ahora viene lo importante: ¿cómo se migran técnicamente los componentes de Synapse?
Fabric no es una copia de Synapse. Aunque muchos conceptos son similares, hay diferencias clave en cómo se manejan el almacenamiento, las transformaciones y los motores de procesamiento. Por eso, cada tipo de carga de trabajo debe migrarse con una estrategia específica.

1. Migración del Data Lake: de ADLS Gen2 a OneLake
Synapse trabaja sobre Azure Data Lake Storage Gen2. Fabric introduce OneLake, un nuevo modelo de almacenamiento unificado que centraliza todo bajo un solo repositorio lógico por tenant, con organización por workspaces.
¿Qué opciones tenés para migrar?
Montar shortcuts: Podés conectar directamente tus contenedores de ADLS Gen2 existentes como accesos directos (shortcuts) dentro de Fabric. Esto evita duplicar los datos y permite una migración gradual.
Migración estructurada a Delta Lake: Para aprovechar al máximo Fabric, lo ideal es convertir tus archivos Parquet o CSV a formato Delta. Esto habilita actualizaciones, control de versiones, mejor rendimiento y gobernanza.
Rediseño del esquema: Es un buen momento para revisar tu modelo de datos. Fabric favorece modelos orientados a Lakehouse, con particionamiento lógico por dominio o línea de negocio.
2. Migración del Data Warehouse: adiós a los Dedicated SQL Pools
Uno de los mayores cambios es que Fabric no usa pools dedicados de SQL. En su lugar, introduce un modelo SaaS de Data Warehouse basado en T-SQL, completamente administrado, que escala automáticamente.
¿Cómo se migra?
Extracción de objetos: Usá herramientas como SSMS o Azure Data Studio para extraer definiciones de tablas, procedimientos, vistas, etc.
Revisión de compatibilidad T-SQL: Aunque el nuevo motor soporta la mayoría de sentencias, hay funciones que aún no están disponibles. Es importante validar el comportamiento y hacer ajustes donde sea necesario.
Carga de datos: Se recomienda usar notebooks, pipelines o scripts para poblar el nuevo warehouse. Podés partir de snapshots o lecturas desde el Lakehouse.
Consejo clave: el Data Warehouse de Fabric es mejor opción cuando necesitás rendimiento para cargas estructuradas complejas. Para cargas más flexibles, el Lakehouse puede ser suficiente.
3. Migración de pipelines y notebooks: automatización sin sorpresas
Los pipelines de Synapse (basados en Azure Data Factory) y los notebooks Spark también deben evaluarse con cuidado.
Pipelines:
En Fabric ya está disponible una nueva experiencia de Data Factory integrada (aún en preview).
Podés reconstruir los pipelines usando los nuevos flujos visuales o mediante notebooks.
Si tus pipelines usan triggers, variables o integración con Key Vault, revisá su equivalencia en Fabric.
Notebooks Spark:
La migración es relativamente sencilla. Fabric soporta Spark y notebooks con compatibilidad bastante alta.
Es importante validar librerías externas, formatos de datos y dependencias específicas del entorno.
Recordá que en Fabric no hay clústeres que gestionar. Todo es serverless y se escala automáticamente.
Lo importante: no migrar por migrar
Este proceso es una oportunidad para modernizar. No copies todo tal cual estaba en Synapse.Aprovechá para rediseñar, limpiar y adoptar buenas prácticas desde el inicio.
Fabric no es solo una nueva plataforma. Es una nueva forma de construir soluciones de datos más simples, conectadas y pensadas para escalar.
En el próximo post, vamos a ver qué beneficios reales se obtienen al migrar, qué lecciones dejan los primeros proyectos y cómo medir el impacto.
コメント