Intel Xeon: la nuova piattaforma evoluta è qui!

Processori - Pubblicato il da Mattia Speroni

Intel presenta oggi la nuova generazione di processori Xeon che promettono di fare un balzo in avanti considerevole quando si parla di data-center, movimentazione di grandi quantità di dati, il tutto guardando al futuro dei servizi Internet!

Intel Xeon: la nuova piattaforma scalabile.

Intel presenta nella serata (ora italiana) di oggi la nuova piattaforma scalabile dedicata all'ambito enterprise della famiglia Xeon (il nome in codice della piattaforma è Purley), si tratta di soluzioni destinate a raccogliere le sfide delle nuove esigenze di connettività e trasferimento dati dei prossimi anni ma che già in questo momento stanno iniziando a presentarsi a diversi livelli. Intel ha così voluto preparsi e preparare il mercato tanto da arrivare a creare anche dei nuovi nomi per la propria gamma di prodotti e si tratta di una piccola ma grande novità in quanto non capita spesso per il colosso di Santa Clara di scegliere questa strategia di marketing, ma avviene solo nel caso di qualcosa di importante!

Intel Xeon: qualcosa sta cambiando!

Come abbiamo detto nelle righe iniziali, ci troviamo di fronte a una rivoluzione ma quali sono le basi del cambiamento che hanno poi portato alla creazione della nuova piattaforma scalabile Xeon? Come dichiarato dai top-manager del produttore e secondo alcune ricerche di mercato emergono alcuni dati interessanti che spiegano alcune tendenze. Per esempio nel 2017 molti CEO si focalizzeranno e focalizzeranno la crescita delle proprie aziende intorno alla Digital Transformation portando a un nuova idea che creerà nuovi mercati e nuove connessioni per il 2018 (si parla del 40% delle venti aziende più importanti nei principali settori) e guardando ancora più in là bisognerà considerare che il 50% della forza lavoro nel 2020 sarà costituita dai "millennials", che hanno una forma mentale e una preparazione diversa rispetto a quella delle vecchie generazioni.

Cresce dunque il bisogno di cloud di varia natura (privato, ibrido e multi-cloud) e con il crescere di questa esigenza è necessario che ci sia la tecnologia che possa sostenere questa carica a livello strutturale. Basti pensare che, secondo le ricerche di mercato e le previsioni, nel 2020 ci saranno 50 miliardi di dispositivi connessi di vario genere mentre nello stesso periodo fino all'85% delle applicazioni sarà veicolato via cloud senza la necessità che ci sia l'applicazione installata direttamente in locale con vantaggi (ma anche svantaggi) di questo genere di concettualità. Ma non tutti i data-center sono uguali e in base alle tipologie sono necessarie diverse e se, per esempio, il memory caching, le animazioni di computer grafica o software dedicati alle transazioni hanno bisogno di memoria in quantità e veloce nel trasferimento dati la computazione di modelli dinamici invece punta più sulla CPU per svolgere il proprio compito.

Intel Xeon: cosa cambia con la nuova generazione

Ma cosa cambia e cambierà con la nuova generazione Purley? Innanzittutto le prestazioni aumenteranno di 1,6 volte rispetto alla generazione uscente sia per quanto riguarda le prestazioni pure ma anche per quanto riguarda lo storage, il networking ma in generale ci sarà una semplicità di adozione da parte delle società che vorranno aggiornare i propri sistemi (e gli OEM hanno già a disposizione modelli destinati alla commercializzazione). Il tutto ruota attorno a una nuova concezione e a nuovi sistemi intergrati che consentono di avere prestazioni decisamente interessanti in diversi settori. Ed ecco qualche segreto che si cela all'interno dei nuovi Intel Xeon della piattaforma Purley.

intel-xeon-2017

Riassumendo i vari sottosistemi troviamo Fabric basato su Intel Omni-Path, una nuova struttura e collegamento di rete, Intel QuickAssist con Intel AVX-512 per poi arrivare all'esterno con i nuovi SSD Intel Optane DC P4800X o DC P4600 ma anche co-processori e strutture correlate come Intel FPGA, Intel Xeon Phi e Intel Silicon Photonics. Prima però di analizzare le varie possibilità offerte dai nuovi Intel Xeon diamo uno sguardo complessivo alla roadmap del produttore ma anche ai vari livelli di prestazioni (e prezzi) tra cui le società potranno scegliere.

Come si può vedere nell'immagine sovrastante, prima avevamo due blocchi ben distinti quando si parlava delle due fasce in cui erano divise le piattaforme Intel Xeon (nome in codice Purley). Da una parte gli Xeon E5 che erano pensati per fornire alle società soluzioni dal buon rapporto tra prestazioni, consumi e costi mentre le soluzioni Xeon E7 erano pensate per dare il massimo delle prestazioni a prezzi (e consumi) ben più elevati. Con la nuova piattaforma però la questione cambia e per i prossimi mesi assisteremo alla nascita delle quattro versioni che dalla più performante alla meno performante comprendono: Xeon Platinum, Xeon Gold, Xeon Silver e Xeon Bronze. Le differenze sostanziali riguardano il numero di processori installabili contemporaneamente all'interno di un sistema (e tipologie di interconnessione tra i vari processori), massima velocità della memoria RAM supportata oltre ovviamente al prezzo, frequenze massime supportate e relativi consumi. Questa divisione comporta anche differenze nelle possibilità di utilizzo con la fascia alta (Platinum) che è pensato per applicazioni mission-critical, virtualizzazione, analisi in tempo reale e intelligenza artificiale con RAS di tipo avanzato. La soluzione di fascia medio-alta (Gold) invece è pensata per compiti più generici come storage, networking (anche in questo caso con RAS avanzato). Xeon Silver è pensato per poter sfruttare tecnologie come Turbo Boost e Hyper-Threading con un carico di lavoro moderato e RAS standard mentre Xeon Bronze è utilizzabile per carichi di lavoro moderati e per tutte quelle società che guardano al prezzo come punto fondamentale per i propri acquisti.

intel-performance-xeon

Intel Xeon: la nuova piattaforma

Intel-Xeon-platform

Le nuove CPU della piattaforma Purley adottano il socket P con il quale sarà possibile configurare sistemi a due, quattro, otto vie direttamente su un rack mentre superiori a otto processori con nodi aggiuntivi. Il TDP ufficiale varia in base alle versioni da 70 W fino a 205 W mentre il chipset disponibile è Intel C620 che è sostanzialmente un PCH considerando che la maggior parte delle funzioni (come ormai avviene da anni) sono integrate all'interno del processore vero e proprio come si può vedere anche nello schema qui sopra. Una delle note più interessant che si possono vedere immediatamente nello schema è la presenza di un collegamento per reti fino a 100 Gb anche se poi è disponibile una serie di soluzioni aggiuntive che consentono di avere ulteriore banda passando per il PCH.

intel-cpu-xeon-2017

Ma ci sono novità anche su come i processori possono intercomunicare tra di loro e quando si passa da un sistema a doppio processore per arrivare alle otto vie (o superiori) aumentano gli scambi che le singole CPU possono fare tra di loro permettendo così una gestione dei dati più flessibile ed efficiente. Questa strategia diventa palese quando si va ad analizzare cosa succede all'interno delle CPU e se nelle soluzioni Broadwell si aveva un doppio anello in cui i dati venivano scambiati tra i vari core all'interno della CPU, in Skylake in versione server si arriva a una soluzione di tipo "mesh" (a rete) che consente di avere uno scambio di informazioni rapido senza colli di bottiglia anche quando l'operatività è intensa e che è chiara nella parte finale dell'immagine riportata qui sopra.

intel-skylake-server

Nello schema si possono leggere poi le differenze tra un processore di classe Xeon E5 (precedente generazione) e uno di nuova generazione: tra le novità si può vedere un modesto innalzamento del numero di core per socket che passa da 22 a 28 ma che in realtà è relativamente importante in quanto l'efficienza architetturale è il vero fulcro di questa nuova soluzione e non il numero in sé. Aumentando i core aumentando anche i thread gestibili dai vari processori mentre si può notare come la cache di ultimo livello sia meno rispetto al passato ma è di tipo non inclusivo e questo consente di evitare che i dati vengano duplicati nei livelli inferiori permettendo di ridurre la quantità complessiva ma non inficiando le prestazioni che, anzi, aumentano. Ad aumentare è la cache L2 che arriva fino a 1 MB (contro i 256 KB della generazione precedente) avendo così più spazio per immagazzinare le informazioni. Anche il controller per la RAM è stato rivisto con un sistema che arriva ora a 6 canali così come la frequenza massima che ora arriva a 2666 MHz.

Arrivano poi le nuove AVX-512 (Advanced Vector eXtensions) a 512 bit, queste nuove istruzioni permettono di rendere decisamente più efficiente l'organizzazione dei dati permettendo a loro volta di incrementare la capacità di calcolo rispetto alle passate generazioni. Per fare alcuni esempi si può arrivare a 64 FLOPs/ciclo in SP e 32 FLOPs/ciclo in DP, numeri raddoppiati dunque rispetto alla precedente generazione Haswell/Broadwell. Ci sono cinque diverse tipologie di istruzioni AVX-512 e più precisamente troviamo:

  • AVX-512-F - istruzioni di base
  • AVX-512-VL - con capacità di operare su dimensioni vettoriali sub-512
  • AVX-512-BW - supporto per 512 bit Byte/Word
  • AVX-512-DQ - istruzioni addizionali D/Q/SP/DP
  • AVX-512-CD - utilizzate per vettorizzare i loop con potenziali conflitti di indirizzi

Perché sono importanti queste istruzioni come funzionano i processori che stanno eseguendo codice che non adattato a questa tipologia di istruzioni? Se si utilizzano istruzioni precedenti (non AVX) ci sarà la possibilità di spingere la frequenza dei core più in alto, mentre con le AVX2 si arriverà a una via di mezzo per poi calare ancora sulle AVX-512. I core comunque gestiranno le frequenze in maniera automatica e indipendente in base al carico di lavoro e anche se può sembrare un controsenso avere frequenze più basse con le nuove istruzioni, la realtà dei fatti è che essendo più efficienti (di molto) permettono di recuperare questo svantaggio in termini di operatività computazionale rispetto alla frequenza pura come si può vedere nei grafici riportati qui di seguito.

intel-avx-prestazioni

Come abbiamo scritto più sopra, le nuove soluzioni Intel Xeon con architettura Skylake (e facenti parte della piattaforma Purley) prevedono due controller per la memoria con tre canali ciascuno per un totale di sei canali con supporto a memoria DDR4 fino a 2666 MHz e due DIMM per canale (che siano RDIMM, LRDIMM e 3DS-LRDIMM). La capacità massima per socket arriva a 1,5 TB utilizzando banchi da 128 GB ciascuno e occupando tutti gli slot per RAM presenti e supportati dal controller di memoria. Secondo Intel poi c'è un incremento del 60% nella banda passante per socket se si confronta con soluzioni Xeon E5 v4 come si può vedere nel grafico riportato di seguito che mette a confronto una soluzione della vecchia generazione (in arancione) con una soluzione della nuova generazione nella versione top-di-gamma (Platinum) con DDR 2400, DDR 2666 e infine DDR 2666 SNC-2 raggiungendo così il picco prestazionale.

intel-banda

Un'altra delle novità della nuova piattaforma Intel Xeon è l'arrivo dell'interconnessione Intel Ultra Patch Interconnect (Intel UPI) che va a sostituire QPI. Con la nuova modalità è possibile scambiare dati più velocemente migliorando la banda passante e bilanciando il sistema e andando a migliorare l'efficienza per pacchetto scambiato. Secondo i dati raccolti dalla società di Santa Clara permette di ridurre della metà la potenza richiesta con un data-rate di 10,4 GT/s contro i 9,6 GT/s di QPI. Per quanto riguarda invece i collegamenti PCIe troviamo tre insiemi indipendenti di terza generazione che possono essere configurati come uno da x16, 2x8, 1x8 + 2x4 o 4x4. Con la nuova struttura di interscambio dati su PCIe, rispetto alla precedente generazione, si ha una banda passante che arriva a essere 1,5 volte maggiore in molti casi e addirittura due volte maggiore per quanto riguarda DMI e DMA Mem-Mem.

Il risparmio energetico e la gestione del consumo prevedono una nuova gestione dei profili Turbo negli stadi intermedi, una condivisione dinamica tra core, uncore e HFI. Una cache L2 più grande (1 MB per core) permette di avere meno scambio di dati riducendo a sua volta le attività di controllo di coerenza. I controllori del voltaggio integrati gestiscono poi le richieste energetiche di core e uncore. Il sistema di P-state è di tipo autonomo mentre la frequenza di core e uncore viene modificata in maniera euristica in base alla previsione del carico di lavoro. Sul die si trova un rilevatore Pmax per una risposta rapida alle escursioni di potenza richiesta mentre la gestione del Turbo per i core e degli altri sottosistemi è di tipo indipendente. Il nuovo chipset PCH chiamato Lewisburg consente di gestire carichi di tipo "server" con compressione e funzioni di sicurezza ma anche connettività di rete, archiviazione, cloud e HPC puntando su cifrature di livello avanzato.

Intel Xeon: la nuova piattaforma scalabile
comments powered by Disqus