Quanti errori ricevi durante il go-live di un sistema SAP?
E, invece, non riceverne affatto significa che tutto ha funzionato correttamente e possiamo stare tranquilli?
Esistono diverse casisitche di errore. Un aspetto importante è quello di poter classificare queste problematiche.
Può essere rilevante farlo, non solo per finalità statistiche del rilascio stesso ma anche per impostare in maniera corretta un supporto continuativo (AMS SAP). Ecco qualche caso:
Sono alcuni degli esempi più comuni e classici, ma ne esistono diversi altri chiaramente.
In generale è importante, prima di identificare il colpevole, trovare la causa del problema stesso, andando ad arginare una eventuale situazione di "problem" (come definito ad esempio dalla certificazione ISO20000) ovvero una molteplicità di richieste derivanti tutte dalla medesima causa.
In generale può essere che la mancanza di ruoli assegnati alle utenze sia da attribuire a chi decide chi fa cosa in azienda.
Una mancata funzionalità o una dimenticanza di questo tipo può essere fisiologica (anche se può avere ripercussioni su molte utenze). Questo caso potrebbe rientrare nella situazione di "problem" descritta sopra.
In generale quello che abbiamo visto nel corso del tempo come problema ricosivo è la mancanza dei test.
Infatti, l'unico modo per evitare che durante i rilasci ci siano problemi di natura autorizzativa (quindi legati agli aspetti applicativi) è effettuare i test.
La qualità dei test che viene effettuata dal team di progetto, quindi solitamente cliente e system integrator, determina la numerosità di richieste che si avranno durante il rilascio di un progetto.
Al momento infatti non esiste alcun modo per verificare che quanto fatto (senza fare prove) sia sufficiente.
Purtroppo in svariate situazioni il tempo da dedicare a questa fase può essere rilevante e quindi si tente a sottovalutare questa fase (specialmente per gli aspetti relativi alla sicurezza applicativa). Spostando di fatto questo passaggio durante il rilascio effettivo della soluzione.
Non esistono benchmark ufficiali chiaramente, tuttavia, escludendo i casi ottimali e quelli peggiori, possiamo dire che generalmente una media di una decina di richieste (indipendentemente dalla tipologia) nei primi 15 - 20 giorni dal rilascio può essere una buona media. Ipotizzando un rilascio completo, non graduale ad esempio per i vari moduli o geografie.
Il benchmark può chiaramente cambiare andando a classificare in maniera più fine le richieste. Ovvero se per una determinata richiesta ad un utente manca una determinata abilitazione questa non si tratta di una problematica "tecnica".
Possiamo quindi pensare di indicare penali sulla numerosità delle richieste? Credo sarebbe interessante farlo. Ma non così semplice nell'attuazione. Proprio perché la classificazione, sotto questo punto di vista, dei problemi potrebbe non essere così semplice e cadere spesso nel proprio campo.