I Cloud PC non possono essere paragonati, quindi non provarci nemmeno, afferma Microsoft


Un dirigente senior di Microsoft ha spiegato perché il benchmarking dei PC nel cloud è un processo incredibilmente complicato che, in molti casi, semplicemente non è possibile.

In un recente post sul blog (si apre in una nuova scheda), Ron Martinsen, senior product manager per Microsoft Windows 365 Cloud PC e Azure Virtual Desktop, ha spiegato perché confrontare il cloud computing è quasi impossibile a causa dell'enorme numero di variabili.

Invece, dobbiamo credere che i continui aggiornamenti ci diano il massimo delle prestazioni.

Confrontare i computer cloud è difficile

Martinsen ha attinto a quasi trent'anni di esperienza e "innumerevoli studi sulle prestazioni" per spiegare come "è quasi impossibile ottenere dati riproducibili in un ambiente che rifletta la realtà di ciò che gli utenti useranno".

Continua anche spiegando che test ripetuti possono produrre risultati diversi e che fare confronti validi può essere nel migliore dei casi difficile. Con questo consiglio, è meglio scegliere un hardware virtuale che soddisfi o superi i requisiti piuttosto che cercare di confrontare numeri che non rappresentano la realtà.

Nel suo post sul blog, Martinsen spiega che il sistema operativo, la latenza di rete, la memorizzazione nella cache del controller del disco e l'ottimizzazione della memoria sono alcuni dei fattori più importanti da considerare quando si tenta una valutazione.

Mettilo nel contesto del cloud computing "dove l'host computing viene eseguito su un cluster e serve un numero variabile di PC cloud attivi" e il numero di variabili diventa "opprimente", figuriamoci per i carichi di lavoro di virtualizzazione come il sottosistema Windows per Linux.

Poi c'è il fatto che il desktop virtuale a cui hai effettuato l'accesso un anno fa è stato probabilmente aggiornato e aggiornato nei mesi successivi, aiutandoti a migliorarne le prestazioni e/o l'efficienza.

Andando avanti, anche al di fuori del contesto del cloud computing, Martinsen critica i test di benchmarking per essere condotti in ambienti sterili dove vengono raggiunti i migliori numeri possibili, non numeri relativi che si applicano a casi d'uso specifici.

Per concludere, mentre è probabile che numeri di benchmark più elevati si traducano in prestazioni migliori per l'utente finale, la differenza raramente sarà così netta. Per il cloud computing, gli indicatori di prestazione relativa di Microsoft (si apre in una nuova finestra) servono come base per il confronto.