Finestre.  Virus.  I Quaderni.  Internet.  ufficio.  Utilità.  Autisti

Acquisita la capacità di monitorare i dati sulle prestazioni dell'unità di elaborazione grafica (GPU). Gli utenti possono analizzare questa informazione per capire come vengono utilizzate le risorse della scheda grafica, che vengono sempre più utilizzate nell'informatica.

Ciò significa che tutte le GPU installate nel PC verranno visualizzate nella scheda Prestazioni. Inoltre, nella scheda Processi, puoi vedere quali processi accedono alla GPU e i dati sull'utilizzo della memoria della GPU vengono inseriti nella scheda Dettagli.

Come verificare se GPU Performance Viewer è supportato

Sebbene Task Manager non abbia requisiti specifici per il monitoraggio di CPU, memoria, disco o adattatori di rete, la situazione con le GPU sembra leggermente diversa.

In Windows 10, le informazioni sulla GPU sono disponibili solo in Task Manager quando si utilizza l'architettura Windows Display Driver Model (WDDM). WDDM è un'architettura di driver grafici per una scheda video che consente il rendering del desktop e delle applicazioni sullo schermo.

WDDM prevede un core grafico, che include uno scheduler (VidSch) e un gestore della memoria video (VidMm). Sono questi moduli che sono responsabili delle decisioni quando si utilizzano le risorse GPU.

Il task manager riceve informazioni sull'utilizzo delle risorse GPU direttamente dallo scheduler e dal gestore della memoria video della GPU. Inoltre, questo vale sia nel caso dei processori grafici integrati che in quelli dedicati. Questa funzionalità richiede WDDM versione 2.0 o successiva per funzionare correttamente.

Per verificare se il tuo dispositivo supporta la visualizzazione dei dati GPU in Task Manager, procedi nel seguente modo:

  1. Utilizza la scorciatoia da tastiera Windows + R per aprire il comando Esegui.
  2. Inserisci il comando dxdiag.exe per aprire lo strumento di diagnostica DirectX e premere il tasto Invio.
  3. Vai alla scheda "Schermo".
  4. Nella sezione destra "Driver" guarda il valore del modello driver.

Se il modello è WDDM 2.0 o versione successiva, Task Manager visualizzerà i dati di utilizzo GPU nella scheda Prestazioni.

Come monitorare le prestazioni della GPU con Task Manager

Per monitorare i dati sulle prestazioni della GPU utilizzando Task Manager, è sufficiente fare clic su fare clic con il tasto destro mouse sulla barra delle applicazioni e seleziona "Task Manager". Se la Visualizzazione compatta è attiva, fare clic sul pulsante Ulteriori dettagli, quindi sulla scheda Prestazioni.

Consiglio: Per avvio rapido Task Manager puoi utilizzare la scorciatoia da tastiera Ctrl + Maiusc + Esc

Scheda Prestazioni

Se il tuo computer supporta WDDM versione 2.0 o successiva, nel riquadro sinistro della scheda Prestazione verrà visualizzata la tua GPU. Nel caso in cui nel sistema siano installate più GPU, ciascuna verrà visualizzata utilizzando un numero corrispondente alla sua posizione fisica, ad esempio GPU 0, GPU 1, GPU 2, ecc.

Windows 10 supporta bundle multi-GPU utilizzando le modalità Nvidia SLI e AMD Crossfire. Quando nel sistema viene trovata una di queste configurazioni, la scheda Prestazioni elencherà ciascun collegamento utilizzando un numero (ad esempio Collegamento 0, Collegamento 1, ecc.). L'utente sarà in grado di vedere e ispezionare ciascuna GPU all'interno del bundle.

Nella pagina specifica della GPU troverai i dati riepilogativi delle prestazioni, generalmente divisi in due sezioni.

La sezione contiene informazioni attuali sui motori della GPU stessa e non sui suoi singoli core.

Il task manager predefinito mostra i quattro motori GPU più richiesti, che includono 3D, copia, decodifica video ed elaborazione video per impostazione predefinita, ma puoi modificare queste visualizzazioni facendo clic sul nome e selezionando un motore diverso.

L'utente può anche modificare la visualizzazione del grafico in motore singolo facendo clic con il pulsante destro del mouse in un punto qualsiasi della sezione e selezionando l'opzione "Cambia grafico > Single Core".

Sotto la grafica dei motori è presente un blocco di dati sul consumo della memoria video.

Task Manager mostra due tipi di memoria video: condivisa e dedicata.

La memoria dedicata è la memoria che verrà utilizzata solo scheda grafica. Si tratta in genere della quantità di VRAM su schede discrete o della quantità di memoria disponibile per il processore su cui il computer è configurato per la ridondanza esplicita.

Nell'angolo in basso a destra viene visualizzata l'opzione "Memoria riservata hardware": questa quantità di memoria è riservata per il driver video.

La quantità di memoria allocata in questa sezione rappresenta la quantità di memoria utilizzata attivamente dai processi, mentre la quantità di memoria condivisa in questa sezione è la quantità di memoria di sistema, consumato per esigenze grafiche.

Inoltre, nel pannello di sinistra sotto il nome GPU, vedrai l'attuale utilizzo delle risorse GPU come percentuale. È importante notare che Task Manager utilizza la percentuale del motore più caricato per rappresentare l'utilizzo complessivo.

Per visualizzare i dati sulle prestazioni nel tempo, esegui un'applicazione che utilizza intensamente la GPU, come un videogioco.

Scheda Processi

Puoi anche monitorare le prestazioni della GPU nella scheda Processi. In questa sezione troverai un riepilogo di un processo specifico.

La colonna "GPU" mostra l'utilizzo del motore più attivo per rappresentare l'utilizzo totale delle risorse GPU da parte di un particolare processo.

Tuttavia, se più motori segnalano un utilizzo del 100%, può sorgere confusione. La colonna aggiuntiva "GPU core" fornisce informazioni dettagliate sul motore caricato da questo processo.

L'intestazione della colonna nella scheda Processi mostra il consumo totale di risorse di tutte le GPU disponibili nel sistema.

Se non vedi queste colonne, fai clic con il pulsante destro del mouse sull'intestazione di qualsiasi colonna e seleziona le caselle corrispondenti.

Dettagli scheda

Per impostazione predefinita, la scheda non visualizza le informazioni sulla GPU, ma puoi sempre fare clic con il pulsante destro del mouse sull'intestazione di una colonna, selezionare l'opzione "Seleziona colonne" e abilitare le seguenti opzioni:

  • Nucleo della GPU
  • Memoria GPU dedicata
  • Memoria GPU condivisa

Le schede della memoria visualizzano rispettivamente la quantità di memoria totale e allocata utilizzata da un particolare processo. Le colonne GPU e GPU Core mostrano le stesse informazioni della scheda Processi.

Quando si utilizza la scheda Dettagli, è necessario tenere presente che l'aggiunta di memoria utilizzata da ciascun processo potrebbe essere maggiore della memoria totale disponibile, poiché la memoria totale verrà conteggiata più volte. Queste informazioni sono utili per comprendere l'utilizzo della memoria di un processo, ma dovresti utilizzare la scheda Prestazioni per visualizzare informazioni più precise sull'utilizzo della grafica.

Conclusione

Microsoft si impegna a fornire agli utenti uno strumento più accurato per valutare le prestazioni grafiche rispetto a applicazioni di terze parti. Tieni presente che il lavoro su questa funzionalità continua e che sono possibili miglioramenti nel prossimo futuro.

Responsabile delle attività Windows 10 contiene strumenti di monitoraggio dettagliati GPU (GPU). Puoi visualizzare l'utilizzo di ciascuna app e GPU a livello di sistema e Microsoft promette che gli indicatori responsabile delle attività sarà più accurato rispetto alle utilità di terze parti.

Come funziona

Queste caratteristiche GPU sono stati aggiunti nell'aggiornamento Creatori autunnali per Windows 10 , conosciuto anche come Windows10 versione 1709 . Se utilizzi Windows 7, 8 o versioni precedenti Versione di Windows 10, non vedrai questi strumenti nel tuo task manager.

finestre utilizza funzionalità più recenti nel modello di driver display di Windows per estrarre le informazioni direttamente da GPU (VidSCH) e il gestore della memoria video (VidMm) nel core grafico WDDM, che sono responsabili dell'effettiva allocazione delle risorse. Mostra dati molto accurati indipendentemente dalle applicazioni API utilizzate per accedere alla GPU: Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle o altro.

Ecco perché dentro responsabile delle attività vengono visualizzati solo i sistemi conformi a WDDM 2.0 GPU . Se non lo vedi, probabilmente la GPU del tuo sistema utilizza un tipo di driver precedente.

Puoi verificare quale versione di WDDM sta utilizzando il tuo driver GPU premendo il pulsante Windows + R, digitando nel campo " dxdiag", E quindi premere" accedere"Per aprire lo strumento" Strumento diagnostico DirectX". Fare clic sulla scheda Schermo e guardare a destra di Modello sotto Driver. Se vedi un driver WDDM 2.x qui, il tuo sistema è compatibile. Se vedi un driver WDDM 1.x qui, il tuo GPU incompatibile.

Come visualizzare le prestazioni della GPU

Queste informazioni sono disponibili in responsabile delle attività , sebbene sia nascosto per impostazione predefinita. Per aprirlo, apri Responsabile delle attività facendo clic con il tasto destro su qualsiasi spazio vuoto sulla barra delle applicazioni e selezionando " Responsabile delle attività" o premendo Ctrl+Shift+Esc sulla tastiera.

Fare clic sul pulsante Ulteriori dettagli nella parte inferiore della finestra Responsabile delle attività' se vedi la visualizzazione semplice standard.

Se La GPU non viene visualizzata nel task manager , V modalità schermo intero sulla scheda " Processi» fare clic con il tasto destro su qualsiasi intestazione di colonna e quindi abilitare l'opzione « GPU ". Questo aggiungerà una colonna GPU , che ti permette di vedere la percentuale delle risorse GPU utilizzato da ciascuna applicazione.

Puoi anche abilitare l'opzione " Nucleo della GPU per vedere quale GPU sta utilizzando l'applicazione.

Uso generale GPU di tutte le applicazioni sul sistema viene visualizzato nella parte superiore della colonna GPU. Fare clic su una colonna GPU per ordinare l'elenco e vedere quali app utilizzano il tuo GPU soprattutto questo momento.

Numero in colonna GPUè l'utilizzo massimo utilizzato dall'applicazione per tutti i motori. Quindi, ad esempio, se un'applicazione utilizza il 50% del motore 3D della GPU e il 2% del motore di decodifica video della GPU, vedrai solo il numero 50% visualizzato nella colonna GPU.

Nella colonna " Nucleo della GPU" viene visualizzato per ciascuna applicazione. Ti mostra cosa GPU fisica e quale motore utilizza l'applicazione, ad esempio se utilizza un motore 3D o un motore di decodifica video. Puoi determinare quale GPU corrisponde a un particolare parametro selezionando " Prestazione', di cui parleremo nel prossimo paragrafo.

Come visualizzare l'utilizzo della memoria video di un'applicazione

Se ti stai chiedendo quanta memoria video viene utilizzata da un'applicazione, devi andare alla scheda Dettagli in Task Manager. Nella scheda Dettagli, fare clic con il pulsante destro del mouse su qualsiasi intestazione di colonna e selezionare Seleziona colonne. Scorri verso il basso e abilita le colonne " GPU », « Nucleo della GPU », « " E " ". Le prime due sono disponibili anche nella scheda Processi, ma le ultime due opzioni di memoria sono disponibili solo nel pannello Dettagli.

Colonna " Memoria GPU dedicata » mostra la quantità di memoria utilizzata dall'app sul tuo GPU. Se il tuo PC ha una scheda grafica NVIDIA o AMD discreta, questa fa parte della sua VRAM, ovvero quanto memoria fisica sulla scheda grafica utilizza l'applicazione. Se hai processore grafico integrato , parte della normale memoria di sistema è riservata esclusivamente all'hardware grafico. Questo mostra la quantità di memoria riservata utilizzata dall'applicazione.

finestre consente inoltre alle applicazioni di archiviare alcuni dati nella normale DRAM di sistema. Colonna " Memoria GPU condivisa ' mostra la quantità di memoria attualmente utilizzata dall'applicazione per i dispositivi video dalla normale RAM di sistema del computer.

Puoi fare clic su una qualsiasi delle colonne per ordinarle e vedere quale app utilizza la maggior parte delle risorse. Ad esempio, per vedere le applicazioni che utilizzano più memoria video sulla GPU, fai clic su " Memoria GPU dedicata ».

Come monitorare l'utilizzo della condivisione GPU

Per tenere traccia delle statistiche complessive sull'utilizzo delle risorse GPU, vai al " Prestazione'e guarda' GPU» nella parte inferiore della barra laterale. Se il tuo computer ha più GPU, vedrai diverse opzioni qui GPU.

Se disponi di più GPU collegate, utilizzando una funzionalità come NVIDIA SLI o AMD Crossfire le vedrai identificate da un "#" nel nome.

finestre visualizza l'utilizzo GPU in tempo reale. Predefinito Responsabile delle attività cerca di visualizzare i quattro motori più interessanti in base a ciò che sta accadendo sul tuo sistema. Ad esempio, vedrai una grafica diversa a seconda che tu stia giocando a giochi 3D o codificando video. Tuttavia, puoi fare clic su uno qualsiasi dei nomi sopra i grafici e selezionare uno qualsiasi degli altri motori disponibili.

Nome tuo GPU viene visualizzato anche nella barra laterale e nella parte superiore di questa finestra, consentendo di verificare facilmente quale hardware grafico è installato sul tuo PC.

Vedrai anche i grafici sull'utilizzo della memoria dedicata e condivisa. GPU. Utilizzo della memoria condivisa GPU si riferisce alla quantità di memoria totale del sistema utilizzata per le attività GPU. Questa memoria può essere utilizzata sia per le normali attività di sistema che per le registrazioni video.

Nella parte inferiore della finestra verranno visualizzate informazioni quali il numero di versione del driver video installato, la data di sviluppo e la posizione fisica. GPU sul tuo sistema.

Se desideri visualizzare queste informazioni in una finestra più piccola che sia più facile lasciare sullo schermo, fai doppio clic in un punto qualsiasi all'interno dello schermo della GPU oppure fai clic con il pulsante destro del mouse in un punto qualsiasi all'interno di essa e seleziona l'opzione Riepilogo grafico". Puoi ingrandire la finestra facendo doppio clic sulla barra oppure facendo clic con il pulsante destro del mouse e deselezionando " Riepilogo grafico».

Puoi anche fare clic con il pulsante destro del mouse sul grafico e selezionare Modifica grafico > Single Core per visualizzare solo un grafico del motore GPU.

Per visualizzare permanentemente questa finestra sullo schermo, fare clic su "Opzioni" > " Sopra altre finestre».

Fare doppio clic all'interno del pannello GPU ancora una volta e avrai una finestra minima che puoi posizionare ovunque sullo schermo.

Nel 2016 si sono finalmente avverate le speranze per un vero e proprio cambio generazionale nelle GPU, che in precedenza erano state ostacolate dalla mancanza di capacità produttive necessarie per produrre chip con una densità di transistor e velocità di clock significativamente più elevate rispetto a quelle consentite dalla comprovata tecnologia di processo a 28 nm. La tecnologia a 20 nm che speravamo due anni fa si è rivelata commercialmente non redditizia per chip grandi quanto le GPU discrete. Poiché TSMC e Samsung, che avrebbero potuto essere appaltatori di AMD e NVIDIA, non hanno utilizzato FinFET a 20 nm, l'aumento potenziale delle prestazioni per watt rispetto a 28 nm era tale che entrambe le società hanno preferito attendere l'adozione mainstream delle norme a 14/16 nm, già utilizzando FinFET.

Tuttavia, sono passati anni di noiosa attesa e ora possiamo valutare come i produttori di GPU hanno sfruttato le capacità del processo tecnico aggiornato. Come ha dimostrato ancora una volta la pratica, i "nanometri" da soli non garantiscono un'elevata efficienza energetica del chip, quindi le nuove architetture NVIDIA e AMD si sono rivelate molto diverse in questo parametro. E ulteriore intrigo è stato introdotto dal fatto che le aziende non utilizzano più i servizi di una fabbrica (TSMC), come negli anni precedenti. AMD ha scelto GlobalFoundries per produrre GPU Polaris basate sulla tecnologia FinFET a 14 nm. NVIDIA, d'altra parte, sta ancora collaborando con TSMC, che ha un processo FinFET a 16 nm, su tutti i chip Pascal ad eccezione del GP107 di fascia bassa (prodotto da Samsung). Una volta era stata concessa in licenza da GlobalFoundries la linea FinFET da 14 nm di Samsung, quindi il GP107 e il suo rivale Polaris 11 ci offrono un'opportunità conveniente per confrontare i risultati ingegneristici di AMD e NVIDIA su una base di produzione simile.

Tuttavia, non entreremo prematuramente nei dettagli tecnici. In generale, le proposte di entrambe le aziende basate su GPU di nuova generazione sono le seguenti. NVIDIA ha creato una linea completa di acceleratori con architettura Pascal basata su tre GPU di livello consumer: GP107, GP106 e GP104. Tuttavia, il posto è occupato dall'adattatore di punta, che riceverà sicuramente questo nome GeForceGTX 1080 Ti, attualmente vacante. Un candidato per questa posizione è una scheda con un processore GP102, che attualmente è utilizzata solo nell'acceleratore prosumer TITAN X di NVIDIA. Acceleratori informatici Tesla.

Il successo di AMD finora è più modesto. Sono stati rilasciati due processori della famiglia Polaris, in base ai quali i prodotti appartengono alle categorie inferiore e media delle schede grafiche da gioco. I vertici saranno occupati dalla prossima famiglia di GPU Vega, che dovrebbe presentare un'architettura GCN completamente aggiornata (mentre Polaris non è così diverso dai chip Fiji e Tonga da 28 nm da questo punto di vista).

NVIDIA Tesla P100 e la nuova TITAN X

Grazie agli sforzi di Jensen Huang, il capo permanente di NVIDIA, l'azienda si sta già posizionando come produttore di processori informatici per uso generale non meno che come produttore di GPU da gioco. Il segnale che NVIDIA sta prendendo il business dei supercalcoli più seriamente che mai è stata la divisione della linea di GPU Pascal in posizioni di gioco da un lato e posizioni di calcolo dall'altro.

Una volta avviato il processo FinFET a 16 nm presso TSMC, NVIDIA ha compiuto il suo primo sforzo nel chip del supercomputer GP100, che ha debuttato prima della linea di prodotti consumer di Pascal.

Il GP100 presenta un numero senza precedenti di transistor (15,3 miliardi) e ALU shader (3840 core CUDA). È anche il primo acceleratore ad essere dotato di memoria HBM2 (16 GB) abbinata ad una GPU basata su silicio. Il GP100 viene utilizzato come parte degli acceleratori Tesla P100, inizialmente limitati ai supercomputer a causa di un fattore di forma speciale con il bus NVLINK, ma in seguito NVIDIA ha rilasciato il Tesla P100 in un formato di scheda di espansione standard PCI Express.

Inizialmente gli esperti presumevano che il P100 potesse apparire nelle schede grafiche da gioco. NVIDIA, a quanto pare, non ha negato questa possibilità, perché il chip ha una pipeline completa per il rendering della grafica 3D. Ma ormai è chiaro che difficilmente andrà mai oltre la nicchia informatica. Per la grafica, NVIDIA ha un prodotto correlato: GP102, che ha lo stesso set di ALU shader, unità di mappatura delle texture e ROP del GP100, ma manca della zavorra sotto forma di un largo numero Core CUDA a 64 bit, per non parlare di altre modifiche all'architettura (meno scheduler, cache L2 troncata, ecc.). Il risultato è un core più compatto (12 miliardi di transistor) che, insieme all'abbandono della memoria HBM2 a favore di GDDR5X, ha consentito a NVIDIA di espandere il GP102 a un mercato più ampio.

Ora GP102 è riservato all'acceleratore prosumer TITAN X (da non confondere con la GeForce GTX TITAN X basata sul chip GM200 con architettura Maxwell), che si posiziona come una scheda per calcoli a precisione ridotta (nell'intervallo da 8 a 32 bit, tra cui 8 e 16 sono i deep training preferiti da NVIDIA) ancor più che per i giochi, anche se i giocatori facoltosi possono acquistare una scheda video per $ 1200. Infatti, nei nostri test di gioco, la TITAN X non giustifica il suo costo con un vantaggio del 15-20% rispetto alla GeForce GTX 1080, ma arriva in soccorso l'overclocking. Se confrontiamo la GTX 1080 overcloccata e la TITAN X, quest'ultima sarà già più veloce del 34%. Tuttavia, la nuova ammiraglia gaming basata sul GP102 molto probabilmente avrà meno unità di calcolo attive o perderà il supporto per qualsiasi funzione di calcolo (o entrambe).

Tutto sommato, il rilascio di enormi GPU come GP100 e GP102 all'inizio del processo FinFET a 16 nm è un grande risultato per NVIDIA, soprattutto considerando le sfide che l'azienda ha dovuto affrontare durante il periodo a 40 e 28 nm.

NVIDIA GeForce GTX 1070 e 1080

NVIDIA ha lanciato la sua linea di acceleratori di gioco GeForce serie 10 nella consueta sequenza: dai più modelli potenti a quelli più di bilancio. La GeForce GTX 1080 e le altre schede da gioco con architettura Pascal che sono state rilasciate da allora mostrano chiaramente che NVIDIA ha sfruttato appieno il processo FinFET a 14/16 nm per rendere i chip più densi ed efficienti dal punto di vista energetico.

Inoltre, creando Pascal, NVIDIA non solo ha aumentato le prestazioni in varie attività di calcolo (come ha mostrato l'esempio di GP100 e GP102), ma ha anche integrato l'architettura del chip Maxwell con funzioni che ottimizzano il rendering grafico.

Si segnalano brevemente le principali novità:

  • compressione del colore migliorata con rapporti fino a 8:1;
  • la funzione Multi-Proiezione Simultanea del PolyMorph Engine, che consente di creare fino a 16 proiezioni della geometria della scena in un unico passaggio (per VR e sistemi con più display nella configurazione NVIDIA Surround);
  • la capacità di interrompere (prelazione) durante l'esecuzione di una chiamata di disegno (durante il rendering) e un flusso di comandi (durante i calcoli), che, insieme alla distribuzione dinamica delle risorse di calcolo della GPU, fornisce il pieno supporto per il calcolo asincrono (Async Compute) - un'ulteriore fonte di prestazioni nei giochi con l'API DirectX 12 e una latenza ridotta in VR.

L'ultimo punto è particolarmente interessante, dal momento che i chip Maxwell erano tecnicamente compatibili con il calcolo asincrono (lavoro simultaneo con code di comandi computazionali e grafici), ma le prestazioni in questa modalità lasciavano molto a desiderare. I calcoli asincroni in Pascal funzionano come dovrebbero, consentendo un uso più efficiente della GPU nei giochi con un thread separato per i calcoli fisici (anche se, bisogna ammetterlo, per i chip Problema NVIDIA il caricamento completo delle ALU shader non è così acuto come lo è per le GPU AMD).

Il processore GP104 utilizzato nelle GTX 1070 e GTX 1080 è il successore del GM204 (il chip di secondo livello nella famiglia Maxwell), ma NVIDIA ha raggiunto velocità di clock così elevate che la GTX 1080 supera la GTX TITAN X (basata su un GPU più grande) in media del 29%, e tutto questo all'interno di un pacchetto termico più conservativo (180 contro 250 watt). Anche la GTX 1070, che è affettata più pesantemente rispetto alla GTX 970 rispetto alla GTX 980 (e la GTX 1070 utilizza GDDR5 invece della GDDR5X nella GTX 1080), è ancora il 5% più veloce della GTX TITAN X.

NVIDIA ha aggiornato il controller del display in Pascal, che ora è compatibile con Interfacce DisplayPort 1.3 / 1.4 e HDMI 2.b, il che significa che consente di riprodurre un'immagine con una risoluzione o una frequenza di aggiornamento più elevata su un singolo cavo - fino a 5K a 60 Hz o 4K a 120 Hz. La rappresentazione del colore a 10/12 bit fornisce il supporto gamma dinamica(HDR) sui pochi schermi finora dotati di questa funzionalità. Il blocco hardware Pascal dedicato è in grado di codificare e decodificare video HEVC (H.265) con risoluzione fino a 4K, colore a 10 bit (decodifica a 12 bit) e 60 Hz.

Infine, Pascal ha rimosso le limitazioni inerenti versione precedente Autobus SLI. Gli sviluppatori hanno aumentato la frequenza dell'interfaccia e rilasciato un nuovo bridge a due canali.

Potete leggere di più su queste caratteristiche dell'architettura Pascal nella nostra recensione della GeForce GTX 1080. Prima però di passare alle altre novità dell'ultimo anno, vale la pena citare quella della 10a riga GeForce NVIDIA per la prima volta emetterà schede di progettazione di riferimento per tutta la vita dei rispettivi modelli. Ora si chiamano Founders Edition e vengono venduti a un prezzo superiore al prezzo al dettaglio consigliato per le carte partner. Ad esempio, la GTX 1070 e la GTX 1080 hanno prezzi consigliati di $ 379 e $ 599 (già più alti delle GTX 970 e GTX 980 nella loro giovinezza), mentre le edizioni Founders hanno un prezzo di $ 449 e $ 699.

GeForce GTX 1050 e1060

Il chip GP106 ha diffuso l'architettura Pascal nel segmento degli acceleratori di gioco tradizionali. Funzionalmente non è diverso dai modelli precedenti e in termini di numero di unità di calcolo è la metà del GP104. È vero, il GP106, a differenza del GM206 (che era la metà del GM204), utilizza un bus di memoria a 192 bit. Inoltre, NVIDIA ha rimosso i connettori SLI dalla scheda GTX 1060, sconvolgendo gli appassionati di un graduale aggiornamento del sottosistema video: quando questo acceleratore esaurisce le sue capacità, non è più possibile aggiungervi una seconda scheda video (ad eccezione di quei giochi DirectX 12 che permettono di distribuire il carico tra le GPU bypassando i driver).

La GTX 1060 era originariamente dotata di 6 GB GDDR5, un chip GP106 perfettamente funzionante, ed è stata messa in vendita per $ 249/299 (rispettivamente carte partner e Founders Edition). Ma poi NVIDIA ha rilasciato una scheda video con 3 GB di memoria e un prezzo suggerito di 199 dollari, che ha ridotto anche il numero di unità di calcolo. Entrambe le schede grafiche hanno un interessante TDP di 120W, ed in termini di velocità sono analoghe alla GeForce GTX 970 e GTX 980.

La GeForce GTX 1050 e GTX 1050 Ti appartengono alla categoria più bassa dominata dall'architettura Pascal. Ma non importa quanto possano sembrare modesti rispetto ai fratelli maggiori, NVIDIA ha fatto il più grande passo avanti nella nicchia del budget. La GTX 750/750 Ti che la occupava in precedenza appartiene alla prima iterazione dell'architettura Maxwell, quindi la GTX 1050/1050 Ti, a differenza di altri acceleratori della famiglia Pascal, è avanzata non di una, ma di una generazione e mezza. Con una GPU significativamente più grande e una memoria che funziona a frequenze più elevate, la GTX 1050/1050 Ti ha migliorato le prestazioni rispetto ai predecessori più di qualsiasi altra serie Pascal (differenza del 90% tra GTX 750 Ti e GTX 1050 Ti).

E sebbene la GTX 1050/1050 Ti assorba un po' più di potenza (75 contro 60 W), rientrano comunque negli standard di potenza delle schede PCI Express prive di connettore. cibo aggiuntivo. NVIDIA non ha rilasciato acceleratori junior nel formato Founders Edition e i prezzi al dettaglio consigliati erano $ 109 e $ 139.

AMD Polaris: Radeon RX 460/470/480

La risposta di AMD a Pascal è stata la famiglia di chip Polaris. La linea Polaris ora comprende solo due chip, sulla base dei quali AMD produce tre schede video (Radeon RX 460, RX 470 e RX 480), nelle quali varia inoltre la quantità di RAM integrata. Come potete facilmente vedere anche dai numeri di modello, la Radeon serie 400 ha lasciato libero il livello più alto delle prestazioni. AMD dovrà riempirlo con prodotti basati sul silicio Vega. Già nell'era dei 28 nm, AMD ha preso l'abitudine di testare le innovazioni su chip relativamente piccoli e solo successivamente di implementarle nelle GPU di punta.

Va subito notato che nel caso di AMD la nuova famiglia di processori grafici non è identica nuova versione l'architettura GCN (Graphics Core Next) sottostante, ma riflette una combinazione di architettura e altre funzionalità del prodotto. Per le GPU costruite secondo la nuova tecnologia di processo, AMD ha abbandonato le varie "isole" nel nome in codice (Isole del Nord, Isole del Sud, ecc.) e le designa con nomi di stelle.

Tuttavia, l'architettura GCN di Polaris ha ricevuto un altro, terzo aggiornamento consecutivo, grazie al quale (insieme al passaggio al processo FinFET a 14 nm) AMD ha aumentato significativamente le prestazioni per watt.

  • La Compute Unit, la forma elementare di organizzazione delle ALU shader in GCN, ha subito una serie di modifiche relative al prefetch e al caching delle istruzioni, accessi alla cache L2, che insieme hanno aumentato le prestazioni specifiche della CU del 15%.
  • È disponibile il supporto per i calcoli a mezza precisione (FP16), utilizzati nei programmi di visione artificiale e di apprendimento automatico.
  • GCN 1.3 fornisce l'accesso diretto al set di istruzioni interno (ISA) dei processori di flusso, grazie al quale gli sviluppatori possono scrivere le istruzioni più "di basso livello" e codice veloce- al contrario dei linguaggi shader DirectX e OpenGL, astratti dall'hardware.
  • I processori di geometria sono ora in grado di escludere poligoni di dimensione zero o poligoni che non hanno pixel di proiezione nelle prime fasi della pipeline e dispongono di una cache dell'indice che riduce il consumo di risorse durante il rendering di piccole geometrie duplicate.
  • Doppia cache L2.

Inoltre, gli ingegneri AMD si sono impegnati molto per far funzionare Polaris alla frequenza più alta possibile. La frequenza della GPU è ora controllata con una latenza minima (la latenza è inferiore a 1 ns) e la scheda regola la curva di tensione ad ogni avvio del PC per tenere conto della variazione dei parametri tra i singoli chip e dell'invecchiamento del silicio durante il funzionamento.

Tuttavia, il passaggio al FinFET a 14 nm non è stato facile per AMD. Infatti, l'azienda è riuscita ad aumentare le prestazioni per watt del 62% (a giudicare dai risultati della Radeon RX 480 e della Radeon R9 380X nei test di gioco e dal TDP riportato sulle schede). Tuttavia, le frequenze massime di Polaris non superano i 1266 MHz e solo pochi partner produttivi hanno ottenuto di più con un lavoro aggiuntivo sui sistemi di raffreddamento e di alimentazione. D'altro canto, le schede video GeForce detengono ancora il primato in termini di rapporto velocità/potenza, che NVIDIA aveva raggiunto nella generazione Maxwell. Sembra che AMD nella prima fase non sia stata in grado di rivelare tutte le capacità della tecnologia di processo di nuova generazione, o che la stessa architettura GCN richieda già una profonda modernizzazione: l'ultimo compito è stato lasciato ai chip Vega.

Gli acceleratori basati su Polaris occupano una fascia di prezzo che va da $109 a $239 (vedi tabella), anche se in risposta alla comparsa della GeForce GTX 1050/1050 Ti, AMD ha ridotto i prezzi delle due schede inferiori rispettivamente a $100 e $170. Al momento esiste un simile rapporto di potenza tra i prodotti concorrenti in ogni categoria prezzo/prestazioni: la GeForce GTX 1050 Ti è più veloce della Radeon RX 460 con 4 GB di RAM, la GTX 1060 con 3 GB di memoria è più veloce della la RX 470 e la GTX 1060 a tutti gli effetti è davanti alla RX 480. Allo stesso tempo Schede video AMD Sono più economici, il che significa che sono popolari.

AMD Radeon Pro Duo

Il resoconto dell'anno passato nel campo delle GPU discrete non sarà completo se ignoriamo un'altra delle schede grafiche "rosse". Anche se AMD deve ancora rilasciare un sostituto di punta a GPU singola per la Radeon R9 Fury X, all'azienda resta una mossa collaudata per continuare a conquistare nuove frontiere: installare due chip Fiji su un'unica scheda. Questa scheda, il cui rilascio AMD ha più volte rinviato, è tuttavia apparsa in vendita poco prima della GeForce GTX 1080, ma rientrava nella categoria degli acceleratori professionali Radeon Pro ed era posizionata come piattaforma per la creazione di giochi in ambiente VR.

Per i giocatori a $ 1.499 (più costose di un paio di Radeon R9 Fury X al lancio), la Radeon Pro Duo non è un'opzione e non abbiamo nemmeno avuto la possibilità di testarla. È un peccato perché da un punto di vista tecnico la Radeon Pro Duo sembra intrigante. Il TDP della scheda nome è aumentato solo del 27% rispetto al Fury X, nonostante le frequenze di picco Processori AMD ridotto di 50 MHz. In precedenza, AMD era già riuscita a rilasciare una scheda video a doppio processore di successo: Radeon R9 295X2, quindi le specifiche annunciate dal produttore non causano molto scetticismo.

Cosa aspettarsi nel 2017

Le principali aspettative per il prossimo anno sono legate ad AMD. NVIDIA probabilmente si limiterà a rilasciare una scheda da gioco di punta basata su GP102 chiamata GeForce GTX 1080 Ti, e forse riempirà un altro posto vacante nella serie GeForce 10 con la GTX 1060 Ti. Per il resto la linea degli acceleratori Pascal è già stata formata, e il debutto della prossima architettura, Volta, è previsto solo per il 2018.

Come nel regno delle CPU, AMD ha concentrato i suoi sforzi sullo sviluppo di una microarchitettura GPU davvero rivoluzionaria, mentre Polaris è diventata solo una tappa sulla strada verso quest'ultima. Presumibilmente, già nel primo trimestre del 2017, la società lancerà per la prima volta sul mercato di massa il suo miglior silicio, Vega 10 (e con esso, o successivamente, uno o più chip junior della linea). La prova più affidabile delle sue capacità è stata l'annuncio della scheda di calcolo MI25 nella linea Radeon Instinct, che si posiziona come acceleratore per attività di deep learning. Secondo le specifiche si basa nientemeno che su Vega 10. La scheda sviluppa 12,5 TFLOPS di potenza di elaborazione in calcoli a precisione singola (FP32) - più della TITAN X su GP102 - ed è dotata di 16 GB di memoria HBM2. Il TDP della scheda video è entro 300 watt. Si può solo immaginare la velocità effettiva del processore, ma è noto che Vega porterà l'aggiornamento più massiccio alla microarchitettura della GPU dal rilascio dei primi chip basati su GCN cinque anni fa. Quest'ultimo migliorerà significativamente le prestazioni per watt e consentirà un uso più efficiente della potenza di elaborazione delle ALU shader (di cui tradizionalmente mancano i chip AMD) nelle applicazioni di gioco.

Circolano anche voci secondo cui gli ingegneri AMD hanno ormai padroneggiato alla perfezione il processo FinFET a 14 nm e l'azienda è pronta a rilasciare una seconda versione delle schede grafiche Polaris con un TDP significativamente inferiore. Ci sembra che se questo è vero, i chip aggiornati preferiranno andare alla linea Radeon RX 500 piuttosto che ricevere indici aumentati nella serie 400 esistente.

Applicazione. Linee attuali di adattatori video discreti AMD e NVIDIA

Produttore AMD
Modello RadeonRX460 RadeonRX470 RadeonRX480 Radeon R9 Nano Radeon R9 Furia Radeon R9 FuryX
GPU
Nome Polare 11 Polare 10 Polare 10 Figi xt Figi PRO Figi xt
microarchitettura Rete Display di Google 1.3 Rete Display di Google 1.3 Rete Display di Google 1.3 Rete Display di Google 1.2 Rete Display di Google 1.2 Rete Display di Google 1.2
Tecnologia di processo, nm FinFET da 14 nm FinFET da 14 nm FinFET da 14 nm 28 28 28
Numero di transistor, milioni 3 000 5 700 5 700 8900 8900 8900
1 090 / 1 200 926 / 1 206 1 120 / 1 266 — / 1 000 — / 1 000 — / 1 050
Numero di ALU shader 896 2 048 2 304 4096 3584 4096
56 128 144 256 224 256
Numero di ROP 16 32 32 64 64 64
RAM
Larghezza dell'autobus, un po' 128 256 256 4096 4096 4096
Tipo economico SD-RAM GDDR5 SD-RAM GDDR5 SD-RAM GDDR5 HBM HBM HBM
1 750 (7 000) 1 650 (6 600) 1 750 (7 000) / 2 000 (8 000) 500 (1000) 500 (1000) 500 (1000)
Volume, MB 2 048 / 4 096 4 096 4 096 / 8 192 4096 4096 4096
Bus I/O PCI Express 3.0x8 PCI Express 3.0x16 PCI Express 3.0x16 PCI Express 3.0x16 PCI Express 3.0x16 PCI Express 3.0x16
Prestazione
2 150 4 940 5 834 8 192 7 168 8 602
Prestazioni FP32/FP64 1/16 1/16 1/16 1/16 1/16 1/16
112 211 196/224 512 512 512
Uscita immagine
DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2
TDP, W <75 120 150 175 275 275
109/139 179 199/229 649 549 649
8 299 / 10 299 15 999 16 310 / 18 970 ND ND ND
Produttore NVIDIA
Modello GeForce GTX 1050 GeForce GTX 1050 Ti GeForce GTX 1060 3GB GeForce GTX 1060 GeForce GTX 1070 GeForce GTX 1080 TITANO X
GPU
Nome GP107 GP107 GP106 GP106 GP104 GP104 GP102
microarchitettura Pascal Pascal Maxwell Maxwell Pascal Pascal Pascal
Tecnologia di processo, nm FinFET da 14 nm FinFET da 14 nm FinFET da 16 nm FinFET da 16 nm FinFET da 16 nm FinFET da 16 nm FinFET da 16 nm
Numero di transistor, milioni 3 300 3 300 4 400 4 400 7 200 7 200 12 000
Frequenza dell'orologio, MHz: orologio base/orologio boost 1 354 / 1 455 1 290 / 1 392 1506/1708 1506/1708 1 506 / 1 683 1 607 / 1 733 1 417 / 1531
Numero di ALU shader 640 768 1 152 1 280 1 920 2 560 3 584
Numero di sovrapposizioni di texture 40 48 72 80 120 160 224
Numero di ROP 32 32 48 48 64 64 96
RAM
Larghezza dell'autobus, un po' 128 128 192 192 256 256 384
Tipo economico SD-RAM GDDR5 SD-RAM GDDR5 SD-RAM GDDR5 SD-RAM GDDR5 SD-RAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X
Frequenza di clock, MHz (larghezza di banda per contatto, Mbps) 1 750 (7 000) 1 750 (7 000) 2000 (8000) 2000 (8000) 2000 (8000) 1 250 (10 000) 1 250 (10 000)
Volume, MB 2 048 4 096 6 144 6 144 8 192 8 192 12 288
Bus I/O PCI Express 3.0x16 PCI Express 3.0x16 PCI Express 3.0x16 PCI Express 3.0x16 PCI Express 3.0x16 PCI Express 3.0x16 PCI Express 3.0x16
Prestazione
Prestazioni di picco FP32, GFLOPS (basato sulla frequenza massima specificata) 1 862 2 138 3 935 4 373 6 463 8 873 10 974
Prestazioni FP32/FP64 1/32 1/32 1/32 1/32 1/32 1/32 1/32
Larghezza di banda RAM, GB/s 112 112 192 192 256 320 480
Uscita immagine
Interfacce di output delle immagini DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
TDP, W 75 75 120 120 150 180 250
Prezzo al dettaglio suggerito al momento del rilascio (USA, tasse escluse), $ 109 139 199 249/299 (Edizione Fondatori / carte partner) 379/449 (Edizione Fondatori / carte partner) 599/699 (Edizione Fondatori/carte partner) 1 200
Prezzo al dettaglio consigliato al momento del rilascio (Russia), strofinare. 8 490 10 490 ND 18.999 / — (Founders Edition / carte partner) ND / 34.990 (Edizione Fondatori / carte partner) ND / 54.990 (Edizione Fondatori / carte partner)

Il processore grafico integrato gioca un ruolo importante sia per i giocatori che per gli utenti poco esigenti.

La qualità dei giochi, dei film, della visione di video su Internet e delle immagini dipende da questo.

Principio di funzionamento

Il processore grafico è integrato nella scheda madre del computer: ecco come appare la grafica integrata.

Di norma, lo usano per eliminare la necessità di installare un adattatore grafico -.

Questa tecnologia aiuta a ridurre il costo del prodotto finito. Inoltre, a causa della compattezza e del basso consumo energetico di tali processori, vengono spesso installati su laptop e computer desktop a basso consumo.

Pertanto, i processori grafici integrati hanno riempito questa nicchia così tanto che il 90% dei laptop sugli scaffali dei negozi statunitensi ha proprio un processore del genere.

Invece di una scheda video convenzionale con grafica integrata, la stessa RAM del computer funge spesso da strumento ausiliario.

È vero, questa soluzione limita in qualche modo le prestazioni del dispositivo. Eppure il computer stesso e la GPU utilizzano lo stesso bus per la memoria.

Quindi un tale "quartiere" influisce sull'esecuzione delle attività, soprattutto quando si lavora con grafica complessa e durante il gioco.

Tipi

La grafica integrata ha tre gruppi:

  1. La grafica a memoria condivisa è un dispositivo basato sulla gestione della memoria condivisa con il processore principale. Ciò riduce notevolmente i costi, migliora il sistema di risparmio energetico, ma peggiora le prestazioni. Di conseguenza, per coloro che lavorano con programmi complessi, è più probabile che GPU integrate di questo tipo non funzionino.
  2. Grafica discreta: sulla scheda madre sono saldati un chip video e uno o due moduli di memoria video. Grazie a questa tecnologia, la qualità dell'immagine viene notevolmente migliorata e diventa anche possibile lavorare con la grafica tridimensionale con i migliori risultati. È vero, dovrai pagare molto per questo e se stai cercando un processore ad alte prestazioni sotto tutti gli aspetti, il costo può essere incredibilmente alto. Inoltre, la bolletta elettrica aumenterà leggermente: il consumo energetico delle GPU discrete è più alto del solito.
  3. Grafica discreta ibrida: una combinazione dei due tipi precedenti, che ha assicurato la creazione del bus PCI Express. Pertanto, l'accesso alla memoria viene effettuato sia attraverso la memoria video saldata che attraverso quella operativa. Con questa soluzione, i produttori hanno voluto creare una soluzione di compromesso, ma non elimina ancora le carenze.

Produttori

Di norma, le grandi aziende sono impegnate nella produzione e nello sviluppo di processori grafici integrati, ma anche molte piccole imprese sono collegate a quest'area.

È facile da fare. Cerca Primary Display o Init Display First. Se non vedi qualcosa del genere, cerca Onboard, PCI, AGP o PCI-E (tutto dipende dai bus installati sulla scheda madre).

Selezionando PCI-E, ad esempio, si abilita la scheda video PCI-Express e si disabilita quella integrata integrata.

Pertanto, per abilitare la scheda video integrata, è necessario trovare i parametri appropriati nel BIOS. Spesso il processo di attivazione è automatico.

disattivare

La disabilitazione è meglio eseguirla nel BIOS. Questa è l'opzione più semplice e senza pretese, adatta a quasi tutti i PC. Le uniche eccezioni sono alcuni laptop.

Ancora una volta, trova Periferiche o Periferiche integrate nel BIOS se lavori su un desktop.

Per i laptop, il nome della funzione è diverso e non è lo stesso ovunque. Quindi cerca qualcosa legato alla grafica. Ad esempio, le opzioni desiderate possono essere inserite nelle sezioni Avanzate e Configurazione.

Anche lo spegnimento viene effettuato in modi diversi. A volte è sufficiente fare clic su "Disabilitato" e impostare la scheda video PCI-E al primo posto nell'elenco.

Se utilizzi un laptop, non allarmarti se non riesci a trovare un'opzione adatta, potresti non avere tale funzione a priori. Per tutti gli altri dispositivi, le stesse regole sono semplici: non importa come appare il BIOS stesso, il riempimento è lo stesso.

Se hai due schede video e sono entrambe visualizzate in Gestione dispositivi, la questione è abbastanza semplice: fai clic con il tasto destro su una di esse e seleziona "disabilita". Tuttavia, tieni presente che il display potrebbe spegnersi. E, molto probabilmente, lo farà.

Tuttavia, anche questo è un problema risolvibile. È sufficiente riavviare il computer o.

Eseguire tutte le impostazioni successive su di esso. Se questo metodo non funziona, ripristina le tue azioni utilizzando la modalità provvisoria. Puoi anche ricorrere al metodo precedente, tramite il BIOS.

Due programmi: NVIDIA Control Center e Catalyst Control Center - configurano l'uso di un adattatore video specifico.

Sono i più senza pretese rispetto agli altri due metodi: è improbabile che lo schermo si spenga, non eliminerai accidentalmente nemmeno le impostazioni tramite il BIOS.

Per NVIDIA, tutte le impostazioni si trovano nella sezione 3D.

Puoi scegliere l'adattatore video che preferisci per l'intero sistema operativo e per determinati programmi e giochi.

Nel software Catalyst, una funzione identica si trova nell'opzione "Alimentazione" nella sottovoce "Switchable Graphics".

Pertanto, il passaggio da una GPU all'altra non è difficile.

Esistono diversi metodi, in particolare, sia tramite programmi che tramite BIOS: l'accensione o lo spegnimento dell'una o dell'altra grafica integrata può essere accompagnato da alcuni guasti, principalmente legati all'immagine.

Potrebbe spegnersi o apparire semplicemente distorto. Niente dovrebbe influenzare i file stessi nel computer, a meno che tu non abbia fatto clic su qualcosa nel BIOS.

Conclusione

Di conseguenza, i processori grafici integrati sono richiesti per la loro economicità e compattezza.

Per questo dovrai pagare il livello di prestazione del computer stesso.

In alcuni casi, la grafica integrata è semplicemente necessaria: i processori discreti sono ideali per lavorare con immagini tridimensionali.

Inoltre, i leader del settore sono Intel, AMD e Nvidia. Ognuno di essi offre i propri acceleratori grafici, processori e altri componenti.

Gli ultimi modelli popolari sono Intel HD Graphics 530 e AMD A10-7850K. Sono abbastanza funzionali, ma presentano alcuni difetti. Ciò vale in particolare per la potenza, le prestazioni e il costo del prodotto finito.

Puoi abilitare o disabilitare un processore grafico con un kernel integrato, oppure puoi farlo tu stesso tramite BIOS, utilità e vari programmi, ma il computer stesso potrebbe farlo per te. Tutto dipende da quale scheda video è collegata al monitor stesso.

Se noti un errore, seleziona una porzione di testo e premi Ctrl + Invio
CONDIVIDERE: