Fora

Kombineret R9 280X+ RX580 ydeevne

startergo

Original plakat
20. september 2018
  • 3. februar 2019
Jeg har R9 280X tilsluttet via DVI i slot 1 og RX 580 tilsluttet via DP til DVI-adapter i slot 2.
Jeg kan se opstartsskærmen gennem min R9 280X, men den afskærer ved omkring 75% fremgang af Apples bootlogo.
Når HS er indlæst, udsender kun RX 580 til en skærm.
I Windows 10 fungerer nøjagtig den samme opsætning fint, begge kort udsendes til deres skærme. Jeg kan endda se krydsild aktiveret i Furmarks stresstest.
Går jeg glip af noget her? Hvorfor holder R9 280X op med at udsende i HS sammen med RX 580?

h9826790

3. april 2014


Hong Kong
  • 3. februar 2019
startergo sagde: Jeg har R9 280X tilsluttet via DVI i slot 1 og RX 580 forbundet via DP til DVI-adapter i slot 2.
Jeg kan se opstartsskærmen gennem min R9 280X, men den afskærer ved omkring 75% fremgang af Apples bootlogo.
Når HS er indlæst, udsender kun RX 580 til en skærm.
I Windows 10 fungerer nøjagtig den samme opsætning fint, begge kort udsendes til deres skærme. Jeg kan endda se krydsild aktiveret i Furmarks stresstest.
Går jeg glip af noget her? Hvorfor holder R9 280X op med at udsende i HS sammen med RX 580?

Crossfire 280X med RX580? AFAIK, Crossfire doser kræver ikke 'matched pair' GPU, men begge GPU'er SKAL tilhøre samme familie.

startergo

Original plakat
20. september 2018
  • 3. februar 2019
h9826790 sagde: Crossfire 280X med RX580? AFAIK, Crossfire doser kræver ikke 'matched pair' GPU, men begge GPU'er SKAL tilhøre samme familie.
Jeg var også overrasket, men det er, hvad Furmark sagde: Crossfire aktiveret

startergo

Original plakat
20. september 2018
  • 3. februar 2019
Se medieelementet ' data-single-image='1'>
Reaktioner:h9826790

h9826790

3. april 2014
Hong Kong
  • 3. februar 2019
startergo sagde: Se vedhæftet fil 819716

Tak for delingen. Interessant info.

Crossfire aktiveret.

Begge GPU'er kører på ~100%. (Dette er normalt for Furmark)

Men 280X varmer kun op fra 61C til 64C. (Denne del er normal, forudsat at 280X har en god køler)

RX580 clockhastighed viser 639,8MHz, VDDC 0V, yder dårligere end 280X (afgjort meget forkert).

Prøvede du at fjerne 280X og køre den samme test med kun RX580?

startergo

Original plakat
20. september 2018
  • 4. februar 2019
h9826790 sagde: Tak for deling. Interessant info.

Crossfire aktiveret.

Begge GPU'er kører på ~100%. (Dette er normalt for Furmark)

Men 280X varmer kun op fra 61C til 64C. (Denne del er normal, forudsat at 280X har en god køler)

RX580 clockhastighed viser 639,8MHz, VDDC 0V, yder dårligere end 280X (afgjort meget forkert).

Prøvede du at fjerne 280X og køre den samme test med kun RX580?
Spændingen er 0VDC, måske fordi jeg forsyner den fra SATA-strømmen, og den måler ikke så nøjagtigt:

Se medieelementet ' data-single-image='1'>

h9826790

3. april 2014
Hong Kong
  • 4. februar 2019
startergo sagde: Spændingen er 0VDC, måske fordi jeg forsyner den fra SATA-strømmen, og den måler ikke så nøjagtigt:

Se vedhæftet fil 819791

At VDDC skal læses fra grafikkortet, ikke fra strømkilden. Så der er noget galt der (afgjort forkert læsning, kan være et softwareproblem, ikke nødvendigt hardwarerelateret).

Det ser ud til, at dit kort var termisk/power-drossel. Jeg formoder, at det skyldes, at OEM-kortet har lavere end normal TDP-grænse, hvilket gør, at kortet når strømreguleringspunktet tidligere end normal RX580.

I hvert fald, gennemsnitlig FPS 87 vs 54, crossfire ser ud til at fungere som forventet.

Måske kan alle GCN GPU'er nu krydsfires. Jeg har ikke brugt det i nogle år nu. Ikke helt sikker på det mest opdaterede krav.

startergo

Original plakat
20. september 2018
  • 4. februar 2019
h9826790 sagde: At VDDC skal læses fra grafikkortet, ikke fra strømkilden. Så der er noget galt der (afgjort forkert læsning, kan være et softwareproblem, ikke nødvendigt hardwarerelateret).

Det ser ud til, at dit kort var termisk/power-drossel. Jeg formoder, at det skyldes, at OEM-kortet har lavere end normal TDP-grænse, hvilket gør, at kortet når strømreguleringspunktet tidligere end normal RX580.

I hvert fald, gennemsnitlig FPS 87 vs 54, crossfire ser ud til at fungere som forventet.

Måske kan alle GCN GPU'er nu krydsfires. Jeg har ikke brugt det i nogle år nu. Ikke helt sikker på det mest opdaterede krav.
Kortets TDP er 130W. Måske fordi de bruger den samme driver, er krydsilden aktiveret? Jeg ved, at hvis jeg vælger den grundlæggende videodriver på en af ​​dem, vil de ikke fungere på samme måde. Det, der generer mig, er i HS, at 280 slukker for outputtet. Nogen idé om hvorfor?

h9826790

3. april 2014
Hong Kong
  • 4. februar 2019
startergo sagde: Kortets TDP er 130W. Måske fordi de bruger den samme driver, er krydsilden aktiveret? Jeg ved, at hvis jeg vælger den grundlæggende videodriver på en af ​​dem, vil de ikke fungere på samme måde. Det, der generer mig, er i HS, at 280 slukker for outputtet. Nogen idé om hvorfor?

Men dit skærmbillede viser, at TDP for RX580 er 185W. Vær forsigtig med det. Kortets TDP er på 130W, men det betyder højst sandsynligt, at køleløsningen er god til op til 130W. Og dit kort kan trække op til 185W fra softwareaflæsningen. Og det er bestemt ikke et godt tegn for et enkelt 6-pin kort.

Anyway, jeg har allerede solgt alle mine HD7950, R9 280, R9 380, kan ikke teste det med RX580. Men hvis din 280X kan fungere fejlfrit, når den starter fra den originale ROM, så forårsager Mac EFI tilsyneladende nogle kompatibilitetsproblemer.

startergo

Original plakat
20. september 2018
  • 4. februar 2019
h9826790 sagde: Men dit skærmbillede viser, at TDP for RX580 er 185W. Vær forsigtig med det. Kortets TDP er på 130W, men det betyder højst sandsynligt, at køleløsningen er god til op til 130W. Og dit kort kan trække op til 185W fra softwareaflæsningen. Og det er bestemt ikke et godt tegn for et enkelt 6-pin kort.

Anyway, jeg har allerede solgt alle mine HD7950, R9 280, R9 380, kan ikke teste det med RX580. Men hvis din 280X kan fungere fejlfrit, når den starter fra den originale ROM, så forårsager Mac EFI tilsyneladende nogle kompatibilitetsproblemer.
Det er ligegyldigt, hvilken ROM jeg bruger. Jeg har ingen problemer med at bruge et enkelt kort, når begge er installeret. For så vidt angår strømmen giver de 2 SATA 108W strøm, så der er masser af strøm på de 6 ben. Jeg ved ikke, hvordan den kan trække 185W, hvis den er begrænset i ROM'en?

h9826790

3. april 2014
Hong Kong
  • 4. februar 2019
startergo sagde: Det er ligegyldigt, hvilken ROM jeg bruger. Jeg har ingen problemer med at bruge et enkelt kort, kun når begge er installeret. For så vidt angår strømmen giver de 2 SATA 108W strøm, så der er masser af strøm på de 6 ben. Jeg ved ikke, hvordan den kan trække 185W, hvis den er begrænset i ROM'en?

ROM-standardindstillingen er IKKE begrænset til 130W for dit kort. Det er et foruddefineret tal med 50% PowerTune, hvilket betyder, at hvis 130W med 150% maks. vil kunne trække 195W.
Se medieelementet ' data-single-image='1'>
Som du kan se fra dit vundne skærmbillede, er 'Power max' 150% (dette er PowerTune-grænsen). Og den registrerede TDP er på 185W i det øjeblik. Hvis vi antager, at 185W er +50% af den foruddefinerede TDP. Så skulle det være ~123W. Og så længe PowerTune forbliver på 150 %, kan dit kort muligvis trække op til 185W (hvis ikke termisk drosling osv.).

I Windows giver AMD-driverens kontrolpanel dig mulighed for at se og justere PowerTune-nummeret. Men i macOS vil den kun få det nummer fra ROM'en. I dit tilfælde +50 % max.

Også problemet med dit kort er IKKE at trække for meget fra 6-pin, men fra åbningen.

cMP virker ret godt bygget. Så at trække mere end 75W fra en slot synes ikke at have nogen negativ effekt (i det mindste sandt i kort tid). Hidtil har jeg ikke hørt en eneste sag, der brændte logikkortet på grund af det. En del gaming-pc-bundkort var dog hårdt ramt på grund af det.

Kortet ved ikke, det kan trække hvor meget på 6-pin (f.eks. op til 108W), men ved kun, hvordan det trækker den krævede effekt i henhold til det forprogrammerede mønster. I dit korts tilfælde. Det ser ud til, at kortet stort set bare deler efterspørgslen med 2. Derfor, hvis du virkelig trækker 180W, kan det betyde 90W fra 6-pin og 90W fra slot.

I hvert fald, hvis EFI ikke gør nogen forskel, men multi GPU gør, så lyder det som driverkonflikt.

startergo

Original plakat
20. september 2018
  • 10. februar 2019
h9826790 sagde: ROM-standardindstillingen er IKKE begrænset til 130W for dit kort. Det er et foruddefineret tal med 50% PowerTune, hvilket betyder, at hvis 130W med 150% maks. vil kunne trække 195W.
Se vedhæftet fil 819863
Som du kan se fra dit vundne skærmbillede, er 'Power max' 150% (dette er PowerTune-grænsen). Og den registrerede TDP er på 185W i det øjeblik. Hvis vi antager, at 185W er +50% af den foruddefinerede TDP. Så skulle det være ~123W. Og så længe PowerTune forbliver på 150 %, kan dit kort muligvis trække op til 185W (hvis ikke termisk drosling osv.).

I Windows giver AMD-driverens kontrolpanel dig mulighed for at se og justere PowerTune-nummeret. Men i macOS vil den kun få det nummer fra ROM'en. I dit tilfælde +50 % max.

Også problemet med dit kort er IKKE at trække for meget fra 6-pin, men fra åbningen.

cMP virker ret godt bygget. Så at trække mere end 75W fra en slot synes ikke at have nogen negativ effekt (i det mindste sandt i kort tid). Hidtil har jeg ikke hørt en eneste sag, der brændte logikkortet på grund af det. En del gaming-pc-bundkort var dog hårdt ramt på grund af det.

Kortet ved ikke, det kan trække hvor meget på 6-pin (f.eks. op til 108W), men ved kun, hvordan det trækker den krævede effekt i henhold til det forprogrammerede mønster. I dit korts tilfælde. Det ser ud til, at kortet stort set bare deler efterspørgslen med 2. Derfor, hvis du virkelig trækker 180W, kan det betyde 90W fra 6-pin og 90W fra slot.

I hvert fald, hvis EFI ikke gør nogen forskel, men multi GPU gør, så lyder det som driverkonflikt.

GPU-Z målte kun 130-135W maksimalt forbrug på RX-580. Det viser også korrekt spændingen 1.025VDC maksimum. Jeg prøvede en anden testsoftware, og frekvensen sprang til 1300ish
Det lykkedes mig også at få begge kort til at udsende til skærmene i HS ved at bruge miniDP til VGA-konverter. Så begge skærmporte fungerer korrekt, men DVI'en slukker i konfiguration med 2 kort.

h9826790

3. april 2014
Hong Kong
  • 12. februar 2019
startergo sagde: GPU-Z målte kun 130-135W maksimalt forbrug på RX-580. Det viser også korrekt spændingen 1.025VDC maksimum. Jeg prøvede en anden testsoftware, og frekvensen sprang til 1300ish
Det lykkedes mig også at få begge kort til at udsende til skærmene i HS ved at bruge miniDP til VGA-konverter. Så begge skærmporte fungerer korrekt, men DVI'en slukker i konfiguration med 2 kort.

130-135W GPU-forbrug eller grafikkortforbrug?

Har du tjekket i AMD-driverpanelet, om power tune er 50%.

I hvert fald ser det ud til, at 6xx MHz skyldes strømregulering. AMD frigav rettelsen (som forhindrer, at kortet trækker for meget fra PCIe-slot) via driveropdatering, det er muligt, at dit korts strømforbrug er begrænset af driveren på grund af det. Men i macOS kan dens adfærd være anderledes, fordi der ikke længere er nogen ekstra begrænsning af strømforbruget fra driveren. Uanset hvad, så lav NG som din daglige arbejdsgang ikke kører Furmark, burde det ikke være et problem.

startergo

Original plakat
20. september 2018
  • 12. februar 2019
h9826790 sagde: 130-135W GPU-forbrug eller grafikkortforbrug?

Har du tjekket i AMD-driverpanelet, om power tune er 50%.

I hvert fald ser det ud til, at 6xx MHz skyldes strømregulering. AMD frigav rettelsen (som forhindrer, at kortet trækker for meget fra PCIe-slot) via driveropdatering, det er muligt, at dit korts strømforbrug er begrænset af driveren på grund af det. Men i macOS kan dens adfærd være anderledes, fordi der ikke længere er nogen ekstra begrænsning af strømforbruget fra driveren. Uanset hvad, så lav NG som din daglige arbejdsgang ikke kører Furmark, burde det ikke være et problem.
Jeg tror der er noget galt med Furmarken, da jeg testede med en anden software (glemte hvilken) og kortet kørte med fuld fart i en stresstest. Derudover ser den ikke korrekt spændingstræk. Men ja, GPU-Z målte 135W strømforbrug, hvilket svarer til ROM-grænsen.

h9826790

3. april 2014
Hong Kong
  • 12. februar 2019
startergo sagde: Jeg tror der er noget galt med Furmarken, da jeg testede med en anden software (glemte hvilken) og kortet kørte med fuld fart i en stresstest. Derudover ser den ikke korrekt spændingstræk. Men ja, GPU-Z målte 135W strømforbrug, hvilket svarer til ROM-grænsen.

Udover Furmark kan du prøve OCCT.
Reaktioner:startergo

MIKX

16. december 2004
Japan
  • 25. juni 2019
startergo

Hvad er din GPU-strømkabelopsætning til begge kort? Sidst redigeret: 25. juni 2019