El Data Warehouse en 2026: todo ha cambiado, excepto lo que importa

Mercado
jueves, 9 de abril de 2026 · Artículo 294

Hola,

En los últimos 7 años, el data warehouse ha cambiado más que en las dos décadas anteriores.

Lo que antes parecía incuestionable ha desaparecido. Lo que era marginal hoy domina el mercado. Y, sin embargo, lo más importante sigue exactamente igual.

Hace siete años publiqué mi último artículo. Este es el primero de una nueva etapa, y no puede ir de otra cosa: ¿qué ha cambiado en el DWH? ¿Qué cosas siguen igual? ¿Qué nos depara el futuro?

Comentaré mi visión en cada una de las partes principales de un proyecto BI, a saber:

  • Data warehouse
  • Procesos ETL
  • Visualización y explotación del dato

Data warehouse

Empecé mi vida laboral participando en proyectos DWH sobre Oracle, SQL Server y Teradata. Parecían motores insustituibles y nadie les hacía sombra. Sin embargo, en apenas 15 años, se han convertido en actores secundarios (hablo de DWH).

Hoy el mercado DWH de bases de datos se ha movido a la nube, y los referentes claros son:

  • Snowflake
  • Amazon Redshift
  • Google BigQuery

Es un doble cambio: Por un lado son bases de datos en la nube. Las grandes corporaciones se cansaron de costosas migraciones y ampliaciones cada 2 o 3 años. La nube les proporcionó la escalabilidad que necesitaban. Por otro lado, son bases de datos columnares, y eso no es un cambio menor (será motivo de otro artículo).

El mover los datos a la nube tiene uns riesgos/consecuencias que han de valorarse (seguridad, privacidad, consumo red, …). El vendor lock-in es superior a las soluciones on-premise, y no es un tema que pueda ignorarse dada la compleja situación geopolítica actual. Cualquier día podemos recibir un correo informando de un cambio en “la experiencia de facturación” y la fuerza de negociación que tendremos será escasa.

Sigo pensando que las bases de datos on-premise tienen ventajas y han de valorarse para proyectos nuevos. No todas las empresas tienen las necesidades de Zara, Mango o Repsol.

Son solo unos apuntes, que darían para mucho más. Lo relevante, y lo que quería señalar, es que el data warehouse se ha movido a la nube con una sorprendente rapidez.

Una última reflexión sobre este tema: Hay algo que no ha cambiado. El lenguaje de todas las bases de datos siguen siendo el SQL. A nadie se le ha ocurrido inventarse un lenguaje propio (yo que sé… un DAX) para consultar o cargar DWH. El SQL es el rey y nada parece indicar que vaya a dejar de serlo en los próximos 50 años. No es obvio que tuviera que ser así.

Procesos ETL

El mercado ETL es muy distinto. No hay líderes claros, y creo que tampoco los habrá. Las herramientas tradicionales han “muerto” (SSIS, Power Center, Informatica…). Lo que ha emergido en su lugar no es un sustituto único, sino una variedad de aplicaciones para cubrir el proceso completo…

  • Para orquestación, Airflow se ha convertido en el estándar de facto, aunque su curva de aprendizaje no es trivial.Pero siguen apareciendo alternativas (Prefect, Dagster…) con propuestas competitivas.
  • Para transformaciones, dbt ha sido la gran revolución. Trajo las buenas prácticas del desarrollo software (basado en texto, basado en SQL, con versionado…) al mundo de las transformaciones SQL (hay otras alternativas con ideas similares: MeshSQL…). Una parte del proceso se ha movido también a Python puro o R, con Pandas, Spark y toda la complejidad asociada…
  • Para ingestión e integración, han proliferado herramientas como Fivetran, Airbyte o Stitch, que prometen conectar cualquier fuente con tu DWH en minutos. Apenas las conozco, por lo que no diré más sobre ellas.

La ETL ha pasado de ser una herramienta a ser un ecosistema.

Termino criticando lo de siempre: Es un ecosistema rico, pero que exige al equipo conocer y mantener varias herramientas a la vez. La promesa de simplicidad no siempre se cumple.

En definitiva, la ETL sigue siendo la parte más compleja del proyecto y las soluciones adoptadas por el mercado son variopintas. Los grandes proveedores tienen nuevas ofertas propias (Microsoft Fabric, Amazon Glue, …), que aumentan aún más el vendor lock-in, pero que tienen sentido en si ya usas su infraestructura.

Sé que afirmar que SSIS o Power Center son herramientas “muertas” o “depreciadas” puede resultar polémico. No quiero enfadar a nadie. Sin duda existen miles de proyectos que siguen utilizándolas. Lo que quiero señalar es que no son la elección natural para nuevos proyectos (en parte por el movimiento a la nube del DWH, que hemos comentado antes)

Visualización y explotación del dato

Hace solo 20 años los líderes eran Business Objects, Cognos o Microstrategy, tal vez aún los recuerdes. Nadie los considera ya para nuevos proyectos. Han pasado a la historia, salvo para los clientes cautivos que deben seguir pagando sus licencias de uso.

Herramientas como PBI o Tableau lo cambiaron todo hace 10 o 15 años. Desde entonces, apenas nada ha cambiado, lo que resulta decepcionante.

Herramientas como Power BI están muy bien. Pero están lejos de cubrir toda las necesidades analíticas de las organizaciones. Se cargaron la capa semántica, y renunciaron a cubrir parte de los casos de uso que estaban cubiertos con BO o Microstrategy.

La fuerza comercial de Microsoft, y una agresiva política de precios, fue suficiente para que olvidáramos las funcionalidades de sus predecesores.

Me atrevo a augurar un futuro incierto para estas soluciones. ¿Tiene sentido pagar cuotas mensuales por usuario por unos dashboads que parecen calcos unos de otros? Lo que parecía una presentación espectacular hace 10 años hoy resulta repetitivo, salvo que tengas un equipo numeroso de desarrolladores y diseñadores que te permitan definir, crear y mantener unas pantallas TOP.

La mayoría de dashboards corporativos hoy son indistinguibles entre sí: mismas gráficas, mismos colores, mismas interacciones.

No puedo terminar el artículo sin mencionar el elefante en la habitación. Hoy la IA permite crear dashboards más atractivos y alineados con los estándares de usabilidad de hoy en día. En “dos tardes” se puede crear un dashboard con Astro, Vue, o React que hace palidecer cualquier pantallita de Power BI. Y sin costes recurrentes. Sin coste por usuario.

Crear la “pantallita” ya no es el cuello de botella. La clave es tener los datos en el data warehouse y poder acceder a ellos con facilidad (y rapidez).

Por cierto, ¿Recordáis que decía que el “autoservicio” ha quedado desatendido? Eso lo solventará la IA. Las organizaciones quieren plantear preguntas en lenguaje natural y obtener respuestas con datos fiables y actualizados. Volvemos a lo de siempre: Es necesario tener una base de datos central con datos accesibles.

Futuro

Dentro de 5 años, probablemente todo vuelva a cambiar. Pero si algo seguirá igual, es esto: sin buenos datos, no hay nada.

Si no estás de acuerdo, o quieres lanzar tus propias predicciones, me encantará leerte en los comentarios.