Aprendo la strada a Terabit Ethernet

Aprendo la strada a Terabit Ethernet Nonostante i progressi nella tecnologia Wi-Fi e la recente introduzione del Wi-Fi XNUMX, Ethernet rimane la tecnologia preferita utilizzata dalle aziende quando hanno bisogno di spostare rapidamente grandi quantità di dati, soprattutto nei data center. Sebbene la tecnologia alla base di Ethernet abbia ormai più di quarant'anni, nel corso degli anni sono stati sviluppati nuovi protocolli che consentono di inviare ancora più gigabyte di dati. Per saperne di più sulle ultime tecnologie, protocolli, progressi e sul futuro di Gigabit Ethernet e forse, un giorno, anche di Terabit Ethernet, TechRadar Pro ha parlato con Tim Klein, CEO della società di connettività di storage ATTO.

Ethernet è stata introdotta per la prima volta nel XNUMX, come si è evoluta la tecnologia da allora e dove si inserisce nei data center di oggi?

Ora, con più di quarant'anni di vita, la tecnologia Ethernet ha apportato miglioramenti significativi, ma ci sono anche molte cose che sembrano esattamente come quando furono introdotte per la prima volta. Originariamente sviluppato per consentire agli scienziati di condividere piccole porzioni di dati a dieci megabit al secondo (Mbps), ora vediamo giganteschi data center condividere enormi quantità di dati non strutturati su reti Ethernet e una tabella di marcia che raggiungerà Terabit Ethernet in pochi anni. . Lo sviluppo esponenziale dei dati, guidato da nuovi formati come le immagini digitali, ha prodotto un’enorme domanda e queste prime implementazioni di archiviazione condivisa su Ethernet non sono riuscite a soddisfare le esigenze di prestazioni o a gestire la congestione con latenza deterministica. Di conseguenza, protocolli come Fibre Channel sono stati sviluppati soprattutto per lo storage. Nel corso degli anni sono state introdotte numerose innovazioni come l'offload intelligente e RDMA in modo che Ethernet possa soddisfare le richieste di dati non strutturati e superare lo stallo che può verificarsi durante il trasferimento di grandi quantità di dati. I più recenti standard Ethernet ad alta velocità, come 4/10/25/40/50GbE, sono ora la spina dorsale del moderno data center.

(Credito immagine: Pixabay)

Le applicazioni odierne richiedono prestazioni sempre più elevate. Quali sono le sfide legate alla configurazione di protocolli più veloci? Il software può essere d'aiuto in questo caso?

La messa a punto è estremamente essenziale al giorno d'oggi a causa della richiesta di prestazioni più elevate. Ogni sistema, sia esso client o server, deve adattarsi ai requisiti di ogni specifico flusso di lavoro. L’enorme numero di protocolli di condivisione file e requisiti di flusso di lavoro può essere schiacciante. In precedenza, potresti aver ammesso che metà della tua larghezza di banda è stata distrutta da un sovraccarico con incidenti e perdita di pacchetti che ti hanno rallentato a un ritmo vertiginoso. Al giorno d'oggi, esistono diversi metodi per ottimizzare le prestazioni e ottimizzare gli adattatori Ethernet per carichi di lavoro molto intensivi. I driver hardware sono ora dotati di algoritmi integrati che migliorano l'efficienza; i motori di offload TCP riducono il sovraccarico dello stack di rete. Anche Large Receive Offload (LRO) e TCP Segmentation Offload (TSO) possono essere integrati nell'hardware e nel software per facilitare il trasferimento di grandi volumi di dati non strutturati. L'aggiunta di buffer, come una coda di ricezione continua, accelera la consegna dei pacchi, aumenta l'equità e migliora le prestazioni. Le tecnologie più recenti, come RDMA, consentono l'accesso diretto alla memoria bypassando lo stack di rete del sistema operativo ed eliminando virtualmente il sovraccarico.

Cosa sta guidando l'adozione delle interfacce 10/25/50/100GbE?

La richiesta di soluzioni di storage più grandi ed efficienti e l'entusiasmo per le nuove tecnologie Ethernet come RDMA e NVMe-over-Fabrics stanno guidando l'adozione di Ethernet ad alta velocità nei moderni data center. Dieci Gigabit Ethernet (10GbE) sono ora l'interconnessione dominante per gli adattatori di classe server e 40GbE è stato rapidamente introdotto per ampliare i confini combinando 4 corsie di traffico 10GbE. Questo occasionalmente si è evoluto nello standard 25/50/100GbE che impiega venticinque corsie Gigabit. Le reti ora utilizzano un mix di tutte le velocità 10/25/40/50/100 GbE, con 50 GbE al core e 100 GbE all'edge. La capacità di combinare e abbinare velocità, progettare percorsi per fornire tutta la potenza di cui hanno bisogno e bilanciare il data center dal core all'edge, sta portando alla rapida adozione dello standard XNUMX/XNUMX/XNUMX GbE. Le nuove tecnologie come RDMA aprono nuove opportunità per le aziende di utilizzare adattatori di rete e NAS (Network-Attached Storage) con latenza deterministica per gestire carichi di lavoro che in precedenza dovevano essere gestiti dalle reti di computer. Archiviazione più costosa (SAN) utilizzando la fibra. Adattatori di canale che richiedono assistenza più specializzata. Più recentemente, vediamo NVMe-Over-Fabrics, che utilizza il trasporto RDMA per condividere la tecnologia NVMe all'avanguardia in un tessuto di storage. Cento schede di rete GbE con RDMA hanno aperto le porte alla struttura di storage NVMe che raggiunge le prestazioni più veloci oggi sul mercato. Questi livelli di velocità e affidabilità precedentemente impensabili consentono alle aziende di fare di più con i propri dati che mai.

Cos'è RDMA e in che modo influisce sulla tecnologia Ethernet?

Remote Direct Memory Access (RDMA) consente agli adattatori di rete intelligenti di accedere alla memoria direttamente da un altro sistema senza passare attraverso il tradizionale processo TCP e senza l'intervento della CPU. I trasferimenti tradizionali si affidavano allo stack di rete del sistema operativo (TCP/IP) per comunicare, causando un enorme sovraccarico, con conseguente perdita di prestazioni e limitando ciò che era possibile fare con Ethernet e storage. RDMA ora consente trasferimenti senza perdite che eliminano virtualmente il sovraccarico con un massiccio aumento dell'efficienza risparmiando cicli della CPU. Le prestazioni aumentano e la latenza viene ridotta, consentendo alle organizzazioni di fare di più con meno. RDMA è in realtà un'estensione di DMA (accesso diretto alla memoria) e bypassa la CPU per consentire operazioni di "copia zero". Queste tecnologie sono parte integrante dello storage Fibre Channel da molti anni. Questa latenza deterministica che ha reso Fibre Channel la prima scelta per le aziende e i carichi di lavoro pesanti è ora gratuita con Ethernet, rendendo più semplice per le organizzazioni di tutte le dimensioni sfruttare lo storage condiviso di fascia alta.

Come è integrato NVMe?

Dove NVMe si integra con Ethernet è attraverso il protocollo NVMe-over-Fabrics. È semplicemente il modo più veloce per trasferire file su Ethernet oggi. NVMe stesso è stato sviluppato per sfruttare i moderni SSD e l'archiviazione flash attraverso l'aggiornamento dei protocolli SATA/SAS. NVMe alza ulteriormente l'asticella sfruttando la capacità della memoria non volatile di funzionare in parallelo. Poiché NVMe è una tecnologia di storage direct-attached, il passo successivo verso lo storage condiviso è quando entra in gioco Ethernet o Fibre Channel: portare NVMe su una struttura di storage condiviso.

RAM

(Credito immagine: Gorodenkoff / Shutterstock)

Quali sono i requisiti Ethernet per le tecnologie di storage come il disco RAM e lo storage intelligente?

Le Smart NIC sono un termine parzialmente nuovo per indicare la capacità dei controller di rete di gestire operazioni che in precedenza erano a carico di un processore. Scaricare il processore di sistema migliora l'efficienza complessiva. Portando questo termine ancora oltre, i produttori di schede di rete offrono la tecnologia FPGA (Field Programmable Gate Array) che consente di sviluppare e codificare sull'FPGA funzionalità applicative specifiche, tra cui lo scarico e l'accelerazione dei dati. Basandosi sul livello hardware, queste schede di rete sono straordinariamente veloci con un enorme potenziale per aggiungere in futuro ulteriori innovazioni a questo livello. Disk RAM Smart Storage fa avanzare quest'area integrando l'hardware di accelerazione dei dati nei dispositivi di archiviazione che utilizzano RAM volatile (che è più veloce della memoria non volatile utilizzata oggi nei dispositivi NVMe). Ciò si traduce in uno storage straordinariamente veloce con la capacità di ottimizzare carichi di lavoro pesanti. La combinazione di storage RAM ultraveloce, supervisore NIC integrato e FPGA con offload intelligente e accelerazione dei dati ha un enorme potenziale per lo storage ad altissima velocità. Il disco RAM e lo storage intelligente non esisterebbero senza le ultime innovazioni in Ethernet RDMA e NVMe-over-Fabrics.

Che futuro ha la tecnologia Ethernet?

Duecento Gigabit Ethernet stanno già iniziando a diffondersi dalle soluzioni HPC ai data center. Lo standard raddoppia le linee a cinquanta GbE ciascuna e c'è una tabella di marcia notevole che ne vedrà una con cinque terabit in pochi anni. PCI Express XNUMX svolgerà un ruolo chiave nel consentire queste velocità più elevate e le aziende continueranno a cercare modi per massimizzare la potenza, accelerare le velocità di trasferimento e trovare modi per gestire le operazioni della CPU. E GPU con driver di rete e FPGA.