Onderzoek bij een groot bedrijf: Excel binnen netwerk
Na een onderzoek bij een groot bedrijf in Zwolle naar performance problemen bij het gebruik van Excel, is me eens te meer duidelijk geworden dat we onderscheid moeten maken tussen de performance van losse spreadsheets en de performance van Excel in een netwerkomgeving met veel gebruikers.In dit geval is er sprake van een Citrix omgeving. Probleem hier is dat diverse servers regelmatig onderuitgehaald worden het gebruik van Excel. De oorzaken waren niet duidelijk.
Bevindingen
Na onderzoek blijkt Excel door een beperkt aantal mensen met enige regelmaat gebruikt te worden voor het analyseren van zeer grote hoeveelheden data (tot wel een miljoen regels). Gevolg: zeer grote bestanden met flinke aantallen berekeningen. Zowel laad- als opslagtijd lopen dan flink op. Ook het herberekenen van formules leidt tot een forse piekbelasting. Binnen de Citrix omgeving ondervinden andere gebruikers hier flink last van.Aanbevelingen
Excel is in de eerste plaats een instrument voor ad hoc toepassingen: kleinere rekenmodellen met grafieken en overzichten maar met beperkte hoeveelheden data. Hoewel het pakket zich er wel voor lijkt te lenen, is het binnen een netwerk-omgeving niet geschikt voor data-analyse met grote hoeveelheden opgeslagen data.Concrete mogelijkheden
- Het gebruik van de standaard add-in Power Pivot zou het gebruik van externe (lees o.a. CSV) aanmerkelijk versnellen en de gebruikte Excel bestanden ook veel kleiner kunnen houden.
- Er kunnen in Excel ook koppelingen gelegd worden via Analysis Services (SSAS); ook dat houdt de bestandsgrootte beperkt.
- Bij gebruik van grote hoeveelheden data met veel bewerkingen is het raadzamer over te schakelen op Access.
- Automatisch herberekenen uitzetten, al kan dit tot misverstanden leiden. Normaal gesproken is dit bij kleinere modellen ook niet nodig.
- Foutcontrole op achtergrond uitzetten leidt bij grotere bestanden tot een geringere belasting.
Reacties