Francisco enseñó cómo gestionar a fondo una capacidad Premium/Fabric y las mejores prácticas para mantener un rendimiento estable en Power BI. Estos fueron los puntos educativos clave, sin relleno:

– Francisco explicó la creación y organización de workspaces, la importancia de usar nombres claros y la diferencia entre entornos de pruebas y producción.
– Presentó la app Capacity Metrics y desgranó cómo leerla: diferenció operaciones interactivas (consultas de usuario) y de fondo (actualizaciones, AI, etc.), introdujo el concepto de Core Units y detalló cómo se miden por ventanas de 30 s.
– Mostró el efecto del suavizado (autoscale smoothing) y los umbrales de saturación; aclaró qué ocurre si se apaga una capacidad antes de que termine ese proceso y por qué no hay penalización inmediata.
– Describió técnicas para proteger la capacidad:
– Limitar tamaño máximo del modelo y número de filas.
– Definir timeouts para consultas que bloquean recursos.
– Activar incremental refresh y particiones para acortar recargas y reducir consumo.
– Demostró cómo auditar el consumo con el XMLA Endpoint y el REST API, y cómo identificar datasets o informes que más recursos demandan.
– Introdujo el uso de notebooks en Fabric para automatizar limpieza de objetos, documentar workspaces y gestionar permisos en lote.
– Aclaró dudas sobre coste de almacenamiento en OneLake y cómo se factura cuando se guardan objetos que no son informes.
– Recomendó evitar malas prácticas frecuentes: columnas calculadas innecesarias, tablas sin particiones y refrescos completos diarios cuando basta un incremental.
– Cerró con una guía rápida para optimizar horizontalmente: escalar por cargas semanales, usar alertas al 80 % de CPU y revisar el portal de configuración para limitar operaciones simultáneas de fondo.