Windows.  Virus.  Anteckningsböcker.  Internet.  kontor.  Verktyg.  Förare

Fick möjligheten att övervaka prestandadata för grafikprocessor (GPU). Användare kan analysera denna informationen för att förstå hur grafikkortsresurser används, som i allt högre grad används i datoranvändning.

Det betyder att alla GPU:er som är installerade i datorn kommer att visas på fliken Prestanda. På fliken Processer kan du dessutom se vilka processer som har åtkomst till GPU:n, och GPU-minnesanvändningsdata placeras på fliken Detaljer.

Så här kontrollerar du om GPU Performance Viewer stöds

Även om Task Manager inte har specifika krav för övervakning av CPU, minne, disk eller nätverkskort, situationen med GPU:er ser lite annorlunda ut.

I Windows 10 är GPU-information endast tillgänglig i Aktivitetshanteraren när du använder Windows Display Driver Model-arkitektur (WDDM). WDDM är en grafikdrivrutinsarkitektur för ett grafikkort som möjliggör rendering av skrivbord och applikationer på skärmen.

WDDM tillhandahåller en grafikkärna, som inkluderar en schemaläggare (VidSch) och en videominneshanterare (VidMm). Det är dessa moduler som är ansvariga för att fatta beslut när du använder GPU-resurser.

Aktivitetshanteraren får information om användningen av GPU-resurser direkt från schemaläggaren och GPU:s videominneshanterare. Dessutom gäller detta både i fallet med integrerade och i fallet med dedikerade grafikprocessorer. Den här funktionen kräver WDDM version 2.0 eller högre för att fungera korrekt.

För att kontrollera om din enhet stöder visning av GPU-data i Aktivitetshanteraren, följ dessa steg:

  1. Använd kortkommandot Windows + R för att öppna kommandot Kör.
  2. Ange kommando dxdiag.exe för att öppna DirectX Diagnostic Tool och tryck på Enter.
  3. Gå till fliken "Skärm".
  4. I det högra avsnittet "Förare" titta på värdet på förarmodellen.

Om modellen är WDDM 2.0 eller högre kommer Task Manager att visa användningsdata GPU:er på fliken Prestanda.

Hur man övervakar GPU-prestanda med Task Manager

För att övervaka GPU-prestandadata med Task Manager, klicka helt enkelt Högerklicka musen på aktivitetsfältet och välj "Task Manager". Om Compact View är aktiv klickar du på knappen Mer information och klickar sedan på fliken Prestanda.

Råd: För Snabbstart Aktivitetshanteraren kan du använda kortkommandot Ctrl + Shift + Esc

Fliken Prestanda

Om din dator stöder WDDM version 2.0 eller senare, sedan till vänster på fliken Prestanda din GPU kommer att visas. Om det finns flera GPU:er installerade i systemet, kommer var och en att visas med ett nummer som motsvarar dess fysiska plats, t.ex. GPU 0, GPU 1, GPU 2, etc.

Windows 10 stöder multi-GPU-buntar med Nvidia SLI- och AMD Crossfire-lägen. När en av dessa konfigurationer hittas i systemet kommer fliken Prestanda att lista varje länk med ett nummer (t.ex. Länk 0, Länk 1, etc.). Användaren kommer att kunna se och inspektera varje GPU i paketet.

På den specifika GPU-sidan hittar du sammanfattande prestandadata, som generellt är uppdelad i två sektioner.

Avsnittet innehåller aktuell information om själva GPU:ns motorer och inte om dess individuella kärnor.

Standarduppgiftshanteraren visar de fyra mest efterfrågade GPU-motorerna, som inkluderar 3D, kopiering, videoavkodning och videobearbetning som standard, men du kan ändra dessa vyer genom att klicka på namnet och välja en annan motor.

Användaren kan till och med ändra diagramvyn till en motor genom att högerklicka var som helst i avsnittet och välja alternativet "Ändra graf > Enkel kärna".

Under motorernas grafik finns ett datablock om förbrukningen av videominne.

Aktivitetshanteraren visar två typer av videominne: delat och dedikerat.

Dedikerat minne är minne som endast kommer att användas grafikkort. Detta är vanligtvis mängden VRAM på diskreta kort, eller mängden tillgängligt minne för processorn där datorn är konfigurerad för explicit redundans.

I det nedre högra hörnet visas alternativet "Hårdvara reserverat minne" - denna mängd minne är reserverat för videodrivrutinen.

Mängden tilldelat minne i det här avsnittet representerar mängden minne som aktivt används av processer, och mängden delat minne i det här avsnittet är mängden system minne, konsumeras för grafiska behov.

Dessutom, i den vänstra panelen under namnet på GPU:er, kommer du att se den aktuella GPU-användningsprocenten. Det är viktigt att notera att Aktivitetshanteraren använder procentandelen av den mest laddade motorn för att representera den totala användningen.

För att se prestandadata över tid, kör ett program som använder GPU intensivt, till exempel ett videospel.

Fliken Processer

Du kan också övervaka GPU-prestanda på fliken Processer. I det här avsnittet hittar du en sammanfattning för en specifik process.

Kolumnen "GPU" visar användningen av den mest aktiva motorn för att representera den totala GPU-resursanvändningen av en viss process.

Men om flera motorer rapporterar 100 procents användning kan förvirring uppstå. Ytterligare kolumn "GPU-kärna" ger detaljerad information om motorn som laddas av denna process.

Kolumnrubriken på fliken Processer visar den totala resursförbrukningen för alla GPU:er som är tillgängliga på systemet.

Om du inte ser dessa kolumner högerklickar du på valfri kolumnrubrik och markerar motsvarande rutor.

Fliken Detaljer

Som standard visar fliken inte GPU-information, men du kan alltid högerklicka på en kolumnrubrik, välja alternativet "Välj kolumner" och aktivera följande alternativ:

  • GPU kärna
  • Dedikerat GPU-minne
  • Delat GPU-minne

Minnesflikarna visar den totala respektive allokerade mängden minne som används av en viss process. Kolumnerna GPU och GPU Core visar samma information som på fliken Processer.

När du använder fliken Detaljer måste du vara medveten om att tillägget av använt minne vid varje process kan vara större än det totala tillgängliga minnet, eftersom det totala minnet kommer att räknas flera gånger. Denna information är användbar för att förstå minnesanvändningen för en process, men du bör använda fliken Prestanda för att se mer exakt grafikanvändningsinformation.

Slutsats

Microsoft har åtagit sig att ge användarna ett mer exakt verktyg för att bedöma grafikprestanda än tredje parts applikationer. Observera att arbetet med den här funktionen fortsätter och förbättringar är möjliga inom en snar framtid.

Aktivitetshanteraren Windows 10 innehåller detaljerade övervakningsverktyg GPU (GPU). Du kan se användningen av varje app och systemomfattande GPU, och Microsoft lovar att indikatorer Aktivitetshanteraren kommer att vara mer exakt än tredjepartsverktyg.

Hur det fungerar

Dessa funktioner GPU lades till i uppdateringen Fall Creators för Windows 10 , också känd som Windows 10 version 1709 . Om du använder Windows 7, 8 eller äldre Windows version 10, kommer du inte att se dessa verktyg i din aktivitetshanterare.

Windows använder nyare funktioner i Windows Display Driver Model för att extrahera information direkt från GPU (VidSCH) och videominneshanterare (VidMm) i WDDM-grafikkärnan, som ansvarar för den faktiska allokeringen av resurser. Den visar mycket exakta data oavsett vilka API-applikationer som använder för att komma åt GPU:n - Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle eller vad som helst.

Det är därför i Aktivitetshanteraren endast WDDM 2.0-kompatibla system visas GPU:er . Om du inte ser det, använder ditt systems GPU förmodligen en äldre typ av drivrutin.

Du kan kontrollera vilken version av WDDM som din drivrutin använder GPU genom att trycka på Windows-knappen + R, skriv i fältet "dxdiag", Och tryck sedan på" Enter"För att öppna verktyget" Diagnostikverktyg för DirectX". Klicka på fliken Skärm och titta till höger om Modell under Drivrutiner. Om du ser en WDDM 2.x-drivrutin här är ditt system kompatibelt. Om du ser en WDDM 1.x-drivrutin här, din GPU oförenlig.

Så här ser du GPU-prestanda

Denna information finns tillgänglig i Aktivitetshanteraren , även om den är dold som standard. Öppna den för att öppna den Aktivitetshanteraren genom att högerklicka på ett tomt utrymme i aktivitetsfältet och välja " Aktivitetshanteraren” eller genom att trycka på Ctrl+Skift+Esc på tangentbordet.

Klicka på knappen Mer information längst ned i fönstret Aktivitetshanteraren' om du ser standardvyn.

Om GPU visas inte i Aktivitetshanteraren , V fullskärmsläge på fliken " Processer» högerklicka på valfri kolumnrubrik och aktivera sedan alternativet « GPU ". Detta kommer att lägga till en kolumn GPU , som låter dig se andelen resurser GPU används av varje applikation.

Du kan också aktivera alternativet " GPU kärna för att se vilken GPU programmet använder.

Allmän användning GPU av alla applikationer på ditt system visas överst i kolumnen GPU. Klicka på en kolumn GPU för att sortera listan och se vilka appar som använder din GPU mest av allt det här ögonblicket.

Nummer i kolumn GPUär den högsta användning som applikationen använder för alla motorer. Så, till exempel, om en applikation använder 50 % av GPU 3D-motorn och 2 % av GPU:s videoavkodningsmotor, kommer du bara att se siffran 50 % i GPU-kolumnen.

I kolumnen " GPU kärna” visas för varje applikation. Det visar dig vad fysisk GPU och vilken motor applikationen använder, till exempel om den använder en 3D-motor eller en videoavkodningsmotor. Du kan avgöra vilken GPU som matchar ett visst mått genom att markera " Prestanda', som vi kommer att diskutera i nästa avsnitt.

Hur man visar en applikations användning av videominne

Om du undrar hur mycket videominne som används av ett program, måste du gå till fliken Detaljer i Aktivitetshanteraren. På fliken Detaljer högerklickar du på valfri kolumnrubrik och väljer Välj kolumner. Rulla ned och aktivera kolumner " GPU », « GPU kärna », « "och" ". De två första är också tillgängliga på fliken Processer, men de två sista minnesalternativen är endast tillgängliga på panelen Detaljer.

kolumn " Dedikerat GPU-minne » visar hur mycket minne appen använder på din GPU. Om din dator har ett diskret NVIDIA- eller AMD-grafikkort, är detta en del av dess VRAM, det vill säga hur mycket fysiskt minne på ditt grafikkort använder programmet. Om du har integrerad grafikprocessor , är en del av ditt vanliga systemminne reserverat exklusivt för din grafikhårdvara. Detta visar hur mycket av det reserverade minnet som används av programmet.

Windows tillåter även applikationer att lagra vissa data i vanliga system-DRAM. kolumn " Delat GPU-minne ' visar hur mycket minne programmet för närvarande använder för videoenheter från datorns normala system-RAM.

Du kan klicka på någon av kolumnerna för att sortera efter dem och se vilken app som använder mest resurser. Till exempel, för att se de program som använder mest videominne på din GPU, klicka på " Dedikerat GPU-minne ».

Hur man spårar GPU-delningsanvändning

För att spåra övergripande resursanvändningsstatistik GPU, gå till " Prestanda'och titta på' GPU» längst ned i sidofältet. Om din dator har flera GPU:er kommer du att se flera alternativ här GPU.

Om du har flera länkade GPU:er - med en funktion som NVIDIA SLI eller AMD Crossfire kommer du att se dem identifierade med ett "#" i deras namn.

Windows visar användning GPU i realtid. Standard Aktivitetshanteraren försöker visa de mest intressanta fyra motorerna enligt vad som händer på ditt system. Du kommer till exempel att se olika grafik beroende på om du spelar 3D-spel eller kodar videor. Du kan dock klicka på något av namnen ovanför graferna och välja någon av de andra tillgängliga motorerna.

Namn på din GPU visas också i sidofältet och högst upp i det här fönstret, vilket gör det enkelt att kontrollera vilken grafikhårdvara som är installerad på din PC.

Du kommer också att se grafer för dedikerade och delade minnesanvändning GPU. Användning av delat minne GPU avser hur mycket av systemets totala minne som används för uppgifter GPU. Detta minne kan användas för både vanliga systemuppgifter och videoinspelningar.

Längst ner i fönstret ser du information som versionsnummer för den installerade videodrivrutinen, utvecklingsdatum och fysisk plats. GPU på ditt system.

Om du vill se denna information i ett mindre fönster som är lättare att lämna på skärmen, dubbelklicka var som helst på GPU-skärmen eller högerklicka var som helst inuti den och välj alternativet Grafisk sammanfattning". Du kan maximera fönstret genom att dubbelklicka på fältet, eller genom att högerklicka i det och avmarkera " Grafisk sammanfattning».

Du kan också högerklicka på diagrammet och välja Redigera graf > Enkelkärna för att bara se ett sökmotordiagram GPU.

För att få det här fönstret permanent att visas på din skärm, klicka på "Alternativ" > " Ovanpå andra fönster».

Dubbelklicka i fältet GPU en gång till och du har ett minimalt fönster som du kan placera var som helst på skärmen.

Under 2016 besannades äntligen förhoppningarna om ett fullfjädrat generationsskifte i GPU:er, som tidigare hade hämmats av bristen på produktionskapacitet som var nödvändig för att producera chip med en betydligt högre transistortensitet och klockhastigheter än vad den beprövade 28 nm processtekniken tillät. 20nm-tekniken vi hoppats på för två år sedan visade sig vara kommersiellt olönsam för chips så stora som diskreta GPU:er. Eftersom TSMC och Samsung, som kunde ha varit entreprenörer för AMD och NVIDIA, inte använde FinFET vid 20 nm, var den potentiella ökningen av prestanda per watt över 28 nm sådan att båda företagen föredrog att vänta på vanliga antaganden av 14/16 nm-normer, som redan använde FinFET.

Men år av tråkig väntan har passerat, och nu kan vi utvärdera hur GPU-tillverkarna har gjort sig av med kapaciteten i den uppdaterade tekniska processen. Som praxis återigen har visat, garanterar "nanometer" i sig inte hög energieffektivitet för chippet, så de nya arkitekturerna för NVIDIA och AMD visade sig vara mycket olika i denna parameter. Och ytterligare intriger introducerades av det faktum att företag inte längre använder tjänsterna från en fabrik (TSMC), som det var tidigare år. AMD valde GlobalFoundries för att tillverka Polaris GPU:er baserade på 14nm FinFET-teknik. NVIDIA, å andra sidan, samarbetar fortfarande med TSMC, som har en 16nm FinFET-process, på alla Pascal-chips förutom low-end GP107 (som Samsung tillverkar). Det var Samsungs 14nm FinFET-linje som en gång licensierades av GlobalFoundries, så GP107 och dess rival Polaris 11 ger oss en bekväm möjlighet att jämföra AMDs och NVIDIAs tekniska prestationer på en liknande produktionsbas.

Vi kommer dock inte att dyka in i tekniska detaljer i förtid. I allmänhet är förslagen från båda företagen baserade på nästa generations GPU:er som följer. NVIDIA har skapat en komplett linje av Pascal-arkitekturacceleratorer baserade på tre konsumentklassade GPU:er - GP107, GP106 och GP104. Men platsen för flaggskeppsadaptern, som säkert kommer att få namnet GeForce GTX 1080 Ti, för närvarande vakant. En kandidat för denna position är ett kort med en GP102-processor, som för närvarande endast används i NVIDIAs prosumer TITAN X-accelerator.Tesla-datoracceleratorer.

AMD:s framgångar hittills är mer blygsamma. Två processorer från Polaris-familjen släpptes, baserat på vilka produkter som tillhör de lägre och mellersta kategorierna av spelgrafikkort. De övre nivåerna kommer att ockuperas av den kommande Vega-familjen av GPU:er, som förväntas ha en omfattande uppgraderad GCN-arkitektur (medan Polaris inte skiljer sig så mycket från 28nm Fiji- och Tonga-chipsen ur denna synvinkel).

NVIDIA Tesla P100 och nya TITAN X

Genom insatser från Jensen Huang, den permanenta chefen för NVIDIA, positionerar företaget sig redan som en tillverkare av generella datorprocessorer, inte mindre än en tillverkare av spel-GPU:er. Signalen att NVIDIA tar superdatorverksamheten på större allvar än någonsin var uppdelningen av Pascal GPU-linjen i spelpositioner å ena sidan och datorpositioner å andra sidan.

När 16nm FinFET-processen gick live på TSMC, satte NVIDIA sin första ansträngning på GP100 superdatorchip, som debuterade före Pascals konsumentproduktlinje.

GP100 har ett aldrig tidigare skådat antal transistorer (15,3 miljarder) och shader-ALU (3840 CUDA-kärnor). Det är också den första acceleratorn som är utrustad med HBM2-minne (16 GB) kombinerat med en silikonbaserad GPU. GP100 används som en del av Tesla P100-acceleratorerna, initialt begränsade till superdatorer på grund av en speciell formfaktor med NVLINK-bussen, men senare släppte NVIDIA Tesla P100 i ett standardexpansionskortformat PCI Express.

Till en början antog experter att P100 kan förekomma i spelgrafikkort. NVIDIA, uppenbarligen, förnekade inte denna möjlighet, eftersom chippet har en fullfjädrad pipeline för att rendera 3D-grafik. Men det står nu klart att det är osannolikt att det någonsin kommer att gå längre än till datornischen. För grafik har NVIDIA en relaterad produkt - GP102, som har samma uppsättning shader ALU, texturmapping enheter och ROPs som GP100, men saknar ballasten i formen ett stort antal 64-bitars CUDA-kärnor, för att inte tala om andra arkitektoniska förändringar (färre schemaläggare, trunkerad L2-cache, etc.). Resultatet är en mer kompakt (12 miljarder transistorer) kärna, som tillsammans med övergivandet av HBM2-minne till förmån för GDDR5X gjorde det möjligt för NVIDIA att expandera GP102 till en bredare marknad.

Nu är GP102 reserverad för prosumeracceleratorn TITAN X (inte att förväxla med GeForce GTX TITAN X baserad på Maxwell-arkitekturen GM200-chip), som är placerad som ett kort för beräkningar med reducerad precision (i området från 8 till 32 bitar, bland vilka 8 och 16 är NVIDIAs favorit djupträning) ännu mer än för spel, även om rika spelare kan köpa ett grafikkort för $ 1 200. I våra speltester motiverar TITAN X faktiskt inte sin kostnad med en fördel på 15-20 procent över GeForce GTX 1080, men det kommer till räddningen överklockning. Om vi ​​jämför den överklockade GTX 1080 och TITAN X, så kommer den senare redan att vara 34% snabbare. Det nya spelflaggskeppet baserat på GP102 kommer dock med största sannolikhet att ha färre aktiva datorenheter eller förlora stöd för alla datorfunktioner (eller båda).

Sammantaget är det en stor prestation för NVIDIA att släppa massiva GPU:er som GP100 och GP102 tidigt i 16nm FinFET-processen, särskilt med tanke på de utmaningar företaget ställdes inför under 40nm- och 28nm-perioden.

NVIDIA GeForce GTX 1070 och 1080

NVIDIA lanserade sin linje av GeForce 10-seriens spelacceleratorer i sin vanliga sekvens - från de flesta kraftfulla modeller till mer budgetmässiga. GeForce GTX 1080 och andra spelkort med Pascal-arkitektur som sedan har släppts visar tydligast att NVIDIA har utnyttjat 14/16nm FinFET-processen till fullo för att göra chips mer täta och energieffektiva.

Dessutom, genom att skapa Pascal, ökade NVIDIA inte bara prestandan i olika beräkningsuppgifter (som exemplet med GP100 och GP102 visade), utan kompletterade också Maxwell-chiparkitekturen med funktioner som optimerar grafikrenderingen.

Notera kort de viktigaste innovationerna:

  • förbättrad färgkompression med förhållanden upp till 8:1;
  • PolyMorph Engines Simultaneous Multi-Projection-funktion, som låter dig skapa upp till 16 projektioner av scenens geometri i ett pass (för VR och system med flera skärmar i NVIDIA Surround-konfigurationen);
  • förmågan att avbryta (preemption) under exekveringen av ett ritanrop (under rendering) och en kommandoström (under beräkningar), som tillsammans med den dynamiska distributionen av GPU-beräkningsresurser ger fullt stöd för asynkron beräkning (Async Compute) - en extra källa till prestanda i spel under DirectX 12 API och minskad latens i VR.

Den sista punkten är särskilt intressant, eftersom Maxwell-chips var tekniskt kompatibla med asynkron beräkning (samtidigt arbete med beräknings- och grafiska kommandoköer), men prestandan i detta läge lämnade mycket övrigt att önska. Asynkrona beräkningar i Pascal fungerar som de ska, vilket möjliggör effektivare användning av GPU:n i spel med en separat tråd för fysikberäkningar (även om det visserligen är för chips NVIDIA problem fullständigt laddade shader-ALUer är inte lika akuta som det är för AMD GPU:er).

GP104-processorn som används i GTX 1070 och GTX 1080 är efterföljaren till GM204 (den andra klassens chip i Maxwell-familjen), men NVIDIA har uppnått så höga klockhastigheter att GTX 1080 överträffar GTX TITAN X (baserat på en större GPU) i genomsnitt med 29 %, och allt detta inom ett mer konservativt termiskt paket (180 vs. 250 watt). Även GTX 1070, som är tyngre skivad än GTX 970 var skivad jämfört med GTX 980 (och GTX 1070 använder GDDR5 istället för GDDR5X i GTX 1080), är fortfarande 5% snabbare än GTX TITAN X.

NVIDIA har uppdaterat skärmkontrollern i Pascal, som nu är kompatibel med DisplayPort-gränssnitt 1.3 / 1.4 och HDMI 2.b, vilket innebär att du kan mata ut en bild med högre upplösning eller uppdateringsfrekvens över en enda kabel - upp till 5K vid 60 Hz eller 4K vid 120 Hz. 10/12-bitars färgrepresentation ger stöd dynamiskt omfång(HDR) på de få skärmar som hittills har denna förmåga. Det dedikerade Pascal-hårdvarublocket kan koda och avkoda HEVC (H.265)-video med upp till 4K-upplösning, 10-bitars färg (12-bitars avkodning) och 60Hz.

Slutligen tog Pascal bort de inneboende begränsningarna föregående version SLI bussar. Utvecklarna höjde frekvensen på gränssnittet och släppte en ny tvåkanalsbrygga.

Du kan läsa mer om dessa funktioner i Pascal-arkitekturen i vår GeForce GTX 1080-recension. Men innan vi går vidare till andra nyheter från det senaste året är det värt att nämna att i den 10:e raden GeForce NVIDIA för första gången kommer att utfärda referensdesignkort under respektive modells livslängd. De heter nu Founders Edition och säljs för mer än det rekommenderade försäljningspriset för partnerkort. Till exempel har GTX 1070 och GTX 1080 rekommenderade priser på $379 och $599 (redan högre än GTX 970 och GTX 980 i sin ungdom), medan Founders Editions kostar $449 och $699.

GeForce GTX 1050 och1060

GP106-chippet spred Pascal-arkitekturen till det vanliga spelacceleratorsegmentet. Funktionellt skiljer den sig inte från de äldre modellerna, och sett till antalet beräkningsenheter är den hälften av GP104. Det är sant att GP106, till skillnad från GM206 (som var hälften av GM204), använder en 192-bitars minnesbuss. Dessutom tog NVIDIA bort SLI-kontakterna från GTX 1060-kortet, vilket störde fans av en gradvis uppgradering av videoundersystemet: när den här acceleratorn tar slut kan du inte längre lägga till ett andra grafikkort till det (förutom de DirectX 12-spelen) som låter dig fördela belastningen mellan grafikprocessorn som förbigår drivrutiner).

GTX 1060 var ursprungligen utrustad med 6 GB GDDR5, ett fullt fungerande GP106-chip, och såldes för $249/299 (partnerkort respektive Founders Edition). Men sedan släppte NVIDIA ett grafikkort med 3 GB minne och ett prisförslag på $199, vilket också minskade antalet beräkningsenheter. Båda grafikkorten har en attraktiv TDP på ​​120W, och hastighetsmässigt är de analoga med GeForce GTX 970 och GTX 980.

GeForce GTX 1050 och GTX 1050 Ti tillhör den lägsta kategorin som Pascal-arkitekturen behärskar. Men oavsett hur blygsamma de kan se ut mot bakgrund av äldre bröder har NVIDIA tagit det största steget framåt i budgetnischen. GTX 750/750 Ti som ockuperade den tidigare tillhör den första iterationen av Maxwell-arkitekturen, så GTX 1050/1050 Ti har, till skillnad från andra acceleratorer i Pascal-familjen, inte avancerat en, utan en och en halv generation. Med en betydligt större GPU och minne som körs på högre frekvenser, ökade GTX 1050/1050 Ti prestanda jämfört med sina föregångare mer än någon annan Pascal-serie (90 % skillnad mellan GTX 750 Ti och GTX 1050 Ti).

Och även om GTX 1050/1050 Ti drar lite mer ström (75 vs. 60W) passar de fortfarande inom strömnormerna för PCI Express-kort som saknar kontakt. extra mat. NVIDIA släppte inte junioracceleratorer i Founders Edition-formatet, och de rekommenderade försäljningspriserna var $109 och $139.

AMD Polaris: Radeon RX 460/470/480

AMD:s svar på Pascal var Polaris-kretsfamiljen. Polaris-linjen innehåller nu bara två chips, på basis av vilka AMD producerar tre grafikkort (Radeon RX 460 , RX 470 och RX 480), där mängden inbyggt RAM-minne dessutom varierar. Som du enkelt kan se även av modellnumren har Radeon i 400-serien lämnat det övre skiktet av prestanda obemannat. AMD kommer att behöva fylla den med produkter baserade på Vega-kisel. Tillbaka i 28 nm-eran fick AMD för vana att testa innovationer på relativt små chips och först därefter implementera dem i flaggskepps-GPU:er.

Det bör genast noteras att i fallet med AMD är den nya familjen av grafikprocessorer inte identisk ny version underliggande GCN (Graphics Core Next) arkitektur, men återspeglar en kombination av arkitektur och andra produktegenskaper. För GPU:er byggda enligt den nya processteknologin har AMD övergett de olika "öarna" i kodnamnet (Northern Islands, South Islands, etc.) och betecknar dem med namn på stjärnor.

Ändå fick GCN-arkitekturen i Polaris ytterligare en, tredje uppdatering i rad, på grund av vilken (tillsammans med övergången till 14nm FinFET-processen) AMD avsevärt ökade prestandan per watt.

  • Compute Unit, den elementära formen för att organisera shader-ALUer i GCN, har genomgått ett antal förändringar relaterade till förhämtning och cachning av instruktioner, L2-cacheåtkomster, vilket tillsammans ökade CU:ns specifika prestanda med 15 %.
  • Det finns stöd för halvprecisionsberäkningar (FP16), som används i datorseende och maskininlärningsprogram.
  • GCN 1.3 ger direkt åtkomst till den interna instruktionsuppsättningen (ISA) för strömprocessorer, på grund av vilken utvecklare kan skriva mest "lågnivå" och snabbkod- i motsats till shader-språken DirectX och OpenGL, abstraherat från hårdvara.
  • Geometriprocessorer kan nu utesluta polygoner av noll storlek eller polygoner som inte har några projektionspixlar tidigt i pipelinen, och har en indexcache som minskar resursförbrukningen vid rendering av små dubbletter av geometri.
  • Dubbel L2-cache.

Dessutom har AMD-ingenjörer lagt mycket kraft på att få Polaris att köra på högsta möjliga frekvens. GPU-frekvensen styrs nu med minimal latens (latensen är mindre än 1 ns), och kortet justerar spänningskurvan vid varje PC-start för att ta hänsyn till variationen i parametrar mellan enskilda chips och kiselåldring under drift.

Övergången till 14nm FinFET har dock inte gått smidigt för AMD. Faktum är att företaget kunde öka prestandan per watt med 62 % (att döma av resultaten från Radeon RX 480 och Radeon R9 380X i speltester och kortens namnskylt TDP). Polaris maximala frekvenser överstiger dock inte 1266 MHz och endast ett fåtal av tillverkande partner har uppnått mer med ytterligare arbete med kyl- och kraftsystem. Å andra sidan har GeForce grafikkort fortfarande ledningen när det gäller hastighet-till-effekt-förhållande, vilket NVIDIA uppnådde redan i Maxwell-generationen. Det verkar som att AMD i det första skedet inte kunde avslöja alla funktioner i den nya generationens processteknik, eller så kräver GCN-arkitekturen redan djup modernisering - den sista uppgiften lämnades till Vega-chips.

Polaris-baserade acceleratorer upptar ett prisintervall från $109 till $239 (se tabell), även om AMD, som svar på utseendet på GeForce GTX 1050/1050 Ti, sänkte priserna på de två lägre korten till $100 respektive $170. För närvarande finns det en liknande maktbalans mellan konkurrerande produkter i alla pris-/prestandakategorier: GeForce GTX 1050 Ti är snabbare än Radeon RX 460 med 4 GB RAM, GTX 1060 med 3 GB minne är snabbare än RX 470, och den fullfjädrade GTX 1060 är före RX 480. Samtidigt AMD grafikkort De är billigare, vilket betyder att de är populära.

AMD Radeon Pro Duo

Rapporten om det senaste året inom området diskreta GPU:er kommer inte att vara komplett om vi bortser från ytterligare ett av de "röda" grafikkorten. Medan AMD ännu inte har släppt en flaggskeppsersättning för singel-GPU för Radeon R9 Fury X, har företaget ett bevisat drag kvar för att fortsätta erövra nya gränser - att installera två Fiji-chips på ett enda kort. Detta kort, vars utgivning AMD upprepade gånger har skjutit upp, dök ändå upp till försäljning strax före GeForce GTX 1080, men föll i kategorin professionella Radeon Pro-acceleratorer och positionerades som en plattform för att skapa spel i VR-miljön.

För spelare för $1 499 (dyrare än ett par Radeon R9 Fury Xs vid lanseringen) är Radeon Pro Duo inte ett alternativ, och vi har inte ens haft en chans att testa den. Det är synd, för ur teknisk synvinkel ser Radeon Pro Duo spännande ut. Namnkortet TDP ökade med endast 27% jämfört med Fury X, trots att toppfrekvenserna AMD-processorer reduceras med 50 MHz. Tidigare har AMD redan lyckats släppa ett framgångsrikt videokort med dubbla processorer - Radeon R9 295X2, så specifikationerna som tillkännagavs av tillverkaren orsakar inte mycket skepsis.

Vad du kan förvänta dig under 2017

De viktigaste förväntningarna för det kommande året är relaterade till AMD. NVIDIA kommer sannolikt att begränsa sig till att släppa ett flaggskepp GP102-baserat spelkort som heter GeForce GTX 1080 Ti, och kanske fylla ytterligare en ledig plats i GeForce 10-serien med GTX 1060 Ti. Annars har raden av Pascal-acceleratorer redan bildats, och debuten för nästa arkitektur, Volta, är bara planerad till 2018.

Precis som på CPU-området har AMD fokuserat sina ansträngningar på att utveckla en verkligt banbrytande GPU-mikroarkitektur, medan Polaris bara har blivit en mellanstation på vägen till den senare. Förmodligen redan under första kvartalet 2017 har företaget kommer för första gången att släppa till massmarknaden sitt bästa kisel, Vega 10 (och med det, eller senare, ett eller flera juniorchips i raden). Det mest tillförlitliga beviset på dess kapacitet var tillkännagivandet av MI25-datorkortet i Radeon Instinct-linjen, som är positionerat som en accelerator för djupinlärningsuppgifter. Enligt specifikationerna är det baserat på inget mindre än Vega 10. Kortet utvecklar 12,5 TFLOPS processorkraft i enkelprecisionsberäkningar (FP32) – mer än TITAN X på GP102 – och är utrustat med 16 GB HBM2-minne. Grafikkortets TDP ligger inom 300 watt. Man kan bara gissa om den faktiska hastigheten på processorn, men det är känt att Vega kommer att ta med den mest massiva uppdateringen till GPU-mikroarkitekturen sedan lanseringen av de första GCN-baserade chipsen för fem år sedan. Det senare kommer avsevärt att förbättra prestandan per watt och kommer att möjliggöra effektivare användning av processorkraften hos shader ALU:er (där AMD-chips traditionellt saknas) i spelapplikationer.

Det finns också rykten om att AMD-ingenjörer nu har bemästrat 14nm FinFET-processen till perfektion och företaget är redo att släppa en andra version av Polaris-grafikkort med en betydligt lägre TDP. Det verkar för oss att om detta är sant, så kommer de uppdaterade markerna hellre att gå till Radeon RX 500-linjen än att få ökade index i den befintliga 400-serien.

Ansökan. Aktuella linjer med AMD och NVIDIA diskreta videoadaptrar

Tillverkare AMD
Modell Radeon RX 460 Radeon RX 470 Radeon RX 480 Radeon R9 Nano Radeon R9 Fury Radeon R9 Fury X
GPU
namn Polaris 11 Polaris 10 Polaris 10 fiji xt Fiji PRO fiji xt
mikroarkitektur GCN 1.3 GCN 1.3 GCN 1.3 GCN 1.2 GCN 1.2 GCN 1.2
Processteknik, nm 14nm FinFET 14nm FinFET 14nm FinFET 28 28 28
Antal transistorer, miljoner 3 000 5 700 5 700 8900 8900 8900
1 090 / 1 200 926 / 1 206 1 120 / 1 266 — / 1 000 — / 1 000 — / 1 050
Antal shader-ALUer 896 2 048 2 304 4096 3584 4096
56 128 144 256 224 256
Antal ROP:er 16 32 32 64 64 64
Bagge
Buss bredd, bit 128 256 256 4096 4096 4096
Chip typ GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM HBM HBM HBM
1 750 (7 000) 1 650 (6 600) 1 750 (7 000) / 2 000 (8 000) 500 (1000) 500 (1000) 500 (1000)
Volym, MB 2 048 / 4 096 4 096 4 096 / 8 192 4096 4096 4096
I/O-buss PCI Express 3.0 x8 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Prestanda
2 150 4 940 5 834 8 192 7 168 8 602
Prestanda FP32/FP64 1/16 1/16 1/16 1/16 1/16 1/16
112 211 196/224 512 512 512
Bildutgång
DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2
TDP, W <75 120 150 175 275 275
109/139 179 199/229 649 549 649
8 299 / 10 299 15 999 16 310 / 18 970 ND ND ND
Tillverkare NVIDIA
Modell GeForce GTX 1050 GeForce GTX 1050 Ti GeForce GTX 1060 3 GB GeForce GTX 1060 GeForce GTX 1070 GeForce GTX 1080 TITAN X
GPU
namn GP107 GP107 GP106 GP106 GP104 GP104 GP102
mikroarkitektur Pascal Pascal Maxwell Maxwell Pascal Pascal Pascal
Processteknik, nm 14nm FinFET 14nm FinFET 16nm FinFET 16nm FinFET 16nm FinFET 16nm FinFET 16nm FinFET
Antal transistorer, miljoner 3 300 3 300 4 400 4 400 7 200 7 200 12 000
Klockfrekvens, MHz: Basklocka / Boostklocka 1 354 / 1 455 1 290 / 1 392 1506/1708 1506/1708 1 506 / 1 683 1 607 / 1 733 1 417 / 1531
Antal shader-ALUer 640 768 1 152 1 280 1 920 2 560 3 584
Antal texturöverlägg 40 48 72 80 120 160 224
Antal ROP:er 32 32 48 48 64 64 96
Bagge
Buss bredd, bit 128 128 192 192 256 256 384
Chip typ GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X SDRAM
Klockfrekvens, MHz (bandbredd per kontakt, Mbps) 1 750 (7 000) 1 750 (7 000) 2000 (8000) 2000 (8000) 2000 (8000) 1 250 (10 000) 1 250 (10 000)
Volym, MB 2 048 4 096 6 144 6 144 8 192 8 192 12 288
I/O-buss PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Prestanda
Toppprestanda FP32, GFLOPS (baserat på maximal specificerad frekvens) 1 862 2 138 3 935 4 373 6 463 8 873 10 974
Prestanda FP32/FP64 1/32 1/32 1/32 1/32 1/32 1/32 1/32
RAM-bandbredd, GB/s 112 112 192 192 256 320 480
Bildutgång
Bildutgångsgränssnitt DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
TDP, W 75 75 120 120 150 180 250
Rekommenderat pris vid utgivningstillfället (USA, utan moms), $ 109 139 199 249/299 (Founders Edition / partnerkort) 379/449 (Founders Edition / partnerkort) 599/699 (Founders Edition / partnerkort) 1 200
Rekommenderat pris vid utgivningstillfället (Ryssland), gnugga. 8 490 10 490 ND 18 999 / — (Founders Edition / partnerkort) ND / 34 990 (Founders Edition / partnerkort) ND / 54 990 (Founders Edition / partnerkort)

Den integrerade grafikprocessorn spelar en viktig roll för både spelare och kravlösa användare.

Kvaliteten på spel, filmer, titta på videor på Internet och bilder beror på det.

Funktionsprincip

Grafikprocessorn är integrerad i datorns moderkort – så här ser den inbyggda grafiken ut.

Som regel använder de det för att ta bort behovet av att installera en grafikadapter -.

Denna teknik hjälper till att minska kostnaderna för den färdiga produkten. Dessutom, på grund av kompaktheten och låga energiförbrukningen hos sådana processorer, installeras de ofta i bärbara datorer och stationära datorer med låg effekt.

Således har integrerade grafikprocessorer fyllt denna nisch så mycket att 90 % av bärbara datorer på amerikanska butikshyllor har just en sådan processor.

Istället för ett vanligt grafikkort i integrerad grafik fungerar själva datorns RAM ofta som ett hjälpverktyg.

Det är sant att denna lösning begränsar enhetens prestanda något. Ändå använder själva datorn och grafikprocessorn samma buss för minne.

Så ett sådant "grannskap" påverkar utförandet av uppgifter, särskilt när man arbetar med komplex grafik och under spelandet.

Typer

Integrerad grafik har tre grupper:

  1. Grafik med delat minne är en enhet baserad på hantering av delat minne med huvudprocessorn. Detta minskar kostnaderna avsevärt, förbättrar energisparsystemet, men försämrar prestandan. Följaktligen, för dem som arbetar med komplexa program, är det mer sannolikt att integrerade GPU:er av detta slag inte fungerar.
  2. Diskret grafik - ett videochip och en eller två videominnesmoduler är lödda på moderkortet. Tack vare denna teknik förbättras bildkvaliteten avsevärt, och det blir även möjligt att arbeta med tredimensionell grafik med bästa resultat. Det är sant att du kommer att få betala mycket för detta, och om du letar efter en högpresterande processor i alla avseenden, kan kostnaden bli otroligt hög. Dessutom kommer elräkningen att stiga något – strömförbrukningen för diskreta GPU:er är högre än vanligt.
  3. Hybrid diskret grafik - en kombination av de två tidigare typerna, vilket säkerställde skapandet av PCI Express-bussen. Således utförs åtkomst till minnet både genom det lödda videominnet och genom det operativa. Med denna lösning ville tillverkarna skapa en kompromisslösning, men den eliminerar fortfarande inte bristerna.

Tillverkare

Som regel är stora företag engagerade i tillverkning och utveckling av inbäddade grafikprocessorer - och, men många små företag är också anslutna till detta område.

Det är lätt att göra. Leta efter Primary Display eller Init Display först. Om du inte ser något liknande, leta efter Onboard, PCI, AGP eller PCI-E (allt beror på de installerade bussarna på moderkortet).

Genom att välja PCI-E, till exempel, aktiverar du PCI-Express grafikkortet och inaktiverar det inbyggda integrerade.

För att aktivera det integrerade grafikkortet måste du därför hitta lämpliga parametrar i BIOS. Ofta är aktiveringsprocessen automatisk.

Inaktivera

Inaktivering görs bäst i BIOS. Detta är det enklaste och mest opretentiösa alternativet, lämpligt för nästan alla datorer. De enda undantagen är vissa bärbara datorer.

Återigen, hitta kringutrustning eller integrerad kringutrustning i BIOS om du arbetar på ett skrivbord.

För bärbara datorer är namnet på funktionen annorlunda, och inte detsamma överallt. Så leta bara efter något relaterat till grafik. Till exempel kan de önskade alternativen placeras i avsnitten Advanced och Config.

Avstängning sker också på olika sätt. Ibland räcker det bara att klicka på "Inaktiverad" och ställa in PCI-E-grafikkortet till det första i listan.

Om du är en bärbar datoranvändare, bli inte orolig om du inte kan hitta ett lämpligt alternativ, du kanske inte har en sådan funktion a priori. För alla andra enheter är samma regler enkla - oavsett hur själva BIOS ser ut är fyllningen densamma.

Om du har två grafikkort och de båda visas i enhetshanteraren, är saken ganska enkel: högerklicka på ett av dem och välj "inaktivera". Tänk dock på att displayen kan slockna. Och troligtvis kommer det att göra det.

Detta är dock också ett lösbart problem. Det räcker med att starta om datorn eller genom att.

Utför alla efterföljande inställningar på den. Om den här metoden inte fungerar, återställ dina åtgärder i säkert läge. Du kan också tillgripa den tidigare metoden - via BIOS.

Två program - NVIDIA Control Center och Catalyst Control Center - konfigurerar användningen av en specifik videoadapter.

De är de mest opretentiösa i jämförelse med de andra två metoderna - det är osannolikt att skärmen stängs av, du kommer inte av misstag slå ner inställningarna genom BIOS heller.

För NVIDIA finns alla inställningar i 3D-sektionen.

Du kan välja din föredragna videoadapter för hela operativsystemet och för vissa program och spel.

I Catalyst-programvaran finns en identisk funktion i alternativet "Power" under underpunkten "Switchable Graphics".

Det är alltså inte svårt att byta mellan GPU:er.

Det finns olika metoder, framför allt, både genom program och genom BIOS. Att slå på eller stänga av en eller annan integrerad grafik kan åtföljas av vissa fel, främst relaterade till bilden.

Det kan slockna eller bara verka förvrängt. Inget ska påverka själva filerna i datorn, om du inte klickade på något i BIOS.

Slutsats

Som ett resultat efterfrågas integrerade grafikprocessorer på grund av deras billighet och kompakthet.

För detta måste du betala prestandanivån för själva datorn.

I vissa fall är integrerad grafik helt enkelt nödvändig - diskreta processorer är idealiska för att arbeta med tredimensionella bilder.

Branschledare är dessutom Intel, AMD och Nvidia. Var och en av dem erbjuder sina egna grafikacceleratorer, processorer och andra komponenter.

De senaste populära modellerna är Intel HD Graphics 530 och AMD A10-7850K. De är ganska funktionella, men har några brister. I synnerhet gäller detta den färdiga produktens effekt, prestanda och kostnad.

Du kan aktivera eller inaktivera en grafikprocessor med en inbyggd kärna, eller så kan du göra det själv via BIOS, verktyg och olika program, men datorn själv kan göra det åt dig. Allt beror på vilket grafikkort som är anslutet till själva bildskärmen.

Om du upptäcker ett fel, välj en textbit och tryck på Ctrl + Retur
DELA MED SIG: