Fora

Hvordan giver det mening: Asus ZenBook Pro UX501 er $1000 billigere, men har bedre specifikationer end mbp2015

Forrige
  • 1
  • 2
  • 3
  • 4
Næste Først Forrige

Gå til side

Næste Sidst

lowendlinux

24. september 2014
Tyskland
  • 29. juni 2015
SHEEPOS sagde: Hvorfor bekymrer apple sig kun om penge ???
Asus ZenBook Pro UX501 er $1000 billigere, men har bedre specifikationer end macbook pro 2015

Det er ret sexet og et godt fund. S

Samuelsan 2001

24. oktober 2013


  • 29. juni 2015
SHEEPOS sagde: så er der nogen grund til, at apple ikke fulgte med maxwell nvidia i år?

Fordi de gik med AMD, forestiller jeg mig, at årsagerne var alt for mange til at nævne her, og at kun de Apple-medarbejdere, der var involveret i den beslutning, ved, hvad de er, og hvordan fordele og ulemper fungerede.

På trods af den NVIDIA-kærlighed, der foregår her (jeg spiller ikke, så jeg kunne ikke være ligeglad med dem) er de nyeste Fury AMD-kort hurtigere i næsten alt. Deres nye arkitektur med indlejret RAM ser ud til at være lidt af et udyr med massive båndbreddemuligheder. Når først disse kommer til det mobile stadium, kunne vi have nogle vidunderlige grafikkort i rMBP'erne og iMac'erne.

lowendlinux

24. september 2014
Tyskland
  • 29. juni 2015
Samuelsan2001 sagde: Fordi de gik med AMD, forestiller jeg mig, at årsagerne var alt for mange til at nævne her, og at kun de Apple-medarbejdere, der var involveret i den beslutning, ved, hvad de er, og hvordan fordele og ulemper fungerede.

På trods af den NVIDIA-kærlighed, der foregår her (jeg spiller ikke, så jeg kunne ikke være ligeglad med dem) er de nyeste Fury AMD-kort hurtigere i næsten alt. Deres nye arkitektur med indlejret RAM ser ud til at være lidt af et udyr med massive båndbreddemuligheder. Når først disse kommer til det mobile stadium, kunne vi have nogle vidunderlige grafikkort i rMBP'erne og iMac'erne.

Fury er stadig for varm til at blive til mobil. Jeg vil vædde på, at vi stadig er et par år ude til det. Jeg er enig i, at '16 og '17 bliver dræbende år for AMD, og ​​det er på tide.

Shirasaki

16. maj 2015
  • 29. juni 2015
Dark Void sagde: Jeg vil gå videre og give nogle af mine erfaringer og råd her:

Bare brug det du kan lide. Hvis du er til Windows, er det fedt. Hvis du foretrækker omkostningseffektiviteten af ​​en Windows-notebook i forhold til, hvad du får, er det også fedt. Mac'er er som standard ikke bedre end pc'er, pc'er er som standard ikke bedre end Mac'er. Ingen grund til at forsvare køb, byggekvalitet eller andre holdninger til, hvad der udgør en computer.

At Asus kan holde dig et år, eller det kan holde dig 3 eller endda 4 - det hele afhænger af, hvad du foretrækker, og hvad du foretrækker at gøre med dine penge. Det er trods alt din computer - ingen grund til at bash eller forsvare, hvad en anden overvejer eller er tilfreds med.

Jeg, for én, i generel tror med nogle få undtagelser, at en computers levetid primært er påvirket af, hvordan den bliver taget hånd om - ikke fordi dens Apple, Asus, Acer, eller hvad har du. Jeg er klar over ideen og virkeligheden med byggekvalitet - men jeg havde en Asus notebook i 3 år, som jeg betalte 650 $ for, en Lenovo Ideapad (også 650 $), der stadig er blevet brugt i min familie i 3 et halvt år nu, og en Hannspree (det er rigtigt - som her nogensinde har hørt om Hannspree ) netbook, som jeg betalte $250 for, som jeg brugte i et stykke tid, og nu bruger et andet familiemedlem den, og som også blev købt for 3 år siden.

Der er ikke noget standardsvar på dette. Mac'er holder ikke X år og Windows notebooks holder ikke Y år - og som altid ... hardware specifikationer er ikke en eneste grund til at købe en notebook. Der er mange andre faktorer, bare gør dit hjemmearbejde og find det, du foretrækker.
Jeg har en Asus notebook, med allerede forældet core i5 2410 m processor, 8 GB ram, gt 540m gpu. Jeg bruger den fra den allerførste dag til den dag, jeg forlader mit hjem hertil i højere grad.

Når jeg tilføjer ram fra 2 GB standard til 8 GB, støder jeg på et utåleligt BSOD-problem. Asus erstatter mig endelig med et nyt bundkort, og så er der overhovedet ikke noget væsentligt problem. Meget solid og kan stadig udføre et anstændigt stykke arbejde, inklusive tungt spil (du kender måske øverstkommanderende, som er en gpu-sult). Tværtimod lider mange af mine skolekammeraters computere af problemer med overophedning eller harddiskfejl.

Jeg er enig i din pointe. Hvis du bruger det forsigtigt, så kan det bare holde længe nok, før det dør. Hvis ikke, kan selv ultradyre rMB blive ubrugelige på få dage. D

Død 0k

23. april 2015
Polen
  • 29. juni 2015
hopefulhandle sagde: Jeg skriver dette på en billig Acer windows 8.1 bærbar. Inden for et år efter køb af dette fejlede DVD/CDR-drevet, taltasterne over tastaturet holdt op med at virke; numrene tre til seks virker ikke, selvom funktionstasterne gør det, og jeg har et langt Ethernet-kabel, der snor sig hen over mit køkkengulv, fordi den trådløse netværksadapter holdt op med at fungere. Alt sammen inden for et år.
trist for din oplevelse
Jeg har stadig en eMachines (et undermærke af Acer) fra 2011, og jeg behandler det på en meget god måde.
Stadig i live og effektiv til de fleste daglige opgaver.

Så det betyder meget, hvordan passer I deres elektronik.

lowendlinux

24. september 2014
Tyskland
  • 29. juni 2015
Indtil for omkring 6 uger siden brugte jeg en Latitude E6500 fra 2009, min nye bærbare computer er en Latitude E6420 fra 2011. PC vil holde lige så længe som Macs

maflynn

Moderator
Medarbejder
3. maj 2009
Boston
  • 29. juni 2015
Dark Void sagde: Der er ikke noget standardsvar på dette. Mac'er holder ikke X år og Windows notebooks holder ikke Y år - og som altid ... hardware specifikationer er ikke en eneste grund til at købe en notebook. Der er mange andre faktorer, bare gør dit hjemmearbejde og find det, du foretrækker.

Det er sagen, mens jeg er mest enig i Apples byggekvalitet, så køber mange her, der fremhæver kvaliteten, typisk nye bærbare computere hvert tredje år. For mig vil jeg hellere bruge 2.000 hvert 3. år.

Med hensyn til Apples kvalitet er min tro på dem blevet rystet, med problemerne med dGPU'en, synes jeg stadig Mac'er er fantastiske computere, og jeg er svært for mig at forestille mig at få noget andet, men hvis jeg bruger over 2.000 for en computer Jeg vil gerne have ro i sindet, at dPGU'en ikke blæser ud om 3 år, eller at den antireflekterende belægning ikke begynder at flage af. S

Samuelsan 2001

24. oktober 2013
  • 29. juni 2015
maflynn sagde: Det er sagen, mens jeg er mest enig i Apples byggekvalitet, køber mange mennesker her, der fremhæver kvaliteten, typisk nye bærbare computere hvert tredje år. For mig vil jeg hellere bruge 2.000 hvert 3. år.

Med hensyn til Apples kvalitet er min tro på dem blevet rystet, med problemerne med dGPU'en, synes jeg stadig Mac'er er fantastiske computere, og jeg er svært for mig at forestille mig at få noget andet, men hvis jeg bruger over 2.000 for en computer Jeg vil gerne have ro i sindet, at dPGU'en ikke blæser ud om 3 år, eller at den antireflekterende belægning ikke begynder at flage af.

Den ro i sindet ville være rart, men du vil bare ikke få det fra nogen, al elektronik kan svigte, og alle massefremstillede varer vil have problemer i nogle enheder, det er livet, jeg er bange for.

Jeg forstår bare ikke hvorfor folk holder æble til langt højere standarder end de gør alle andre...

Du kan ikke bare sige prisen, når alle de andre OEM'er laver computere, der er meget sammenlignelige i deres omkostninger og specifikationer, hvis de tilsyneladende ikke er byggekvalitet og sans for detaljer.

skumring007

5. december 2009
  • 29. juni 2015
Samuelsan2001 sagde: På trods af den NVIDIA-kærlighed, der foregår her (jeg spiller ikke, så jeg kunne ikke være ligeglad med dem) er de seneste Fury AMD-kort hurtigere i næsten alt. Deres nye arkitektur med indlejret RAM ser ud til at være lidt af et udyr med massive båndbreddemuligheder. Når først disse kommer til det mobile stadium, kunne vi have nogle vidunderlige grafikkort i rMBP'erne og iMac'erne.
Fury har næsten ingen overclocking frihøjde er stadig nogensinde så glidende langsommere end den lige så store 980 TI chip, som har en ganske seriøs overclock frihøjde. Fury er meget bedre end 290x/390x, men den har stadig brug for mere strøm end Maxwell på trods af den mere strømbesparende og hurtigere hukommelse. Den er også vandkølet.
De kan lukke ind på Nvidia på Desktops, hvor vandkøling fungerer, og det samlede strømforbrug ikke er så vigtigt, men på notebooks er strømeffektiviteten alt. Og Fury kan ikke slå Maxwell, M370X er stadig en meget ældre teknologi end Fury.
Det handler ikke om at elske Nvidia eller AMD, men bare objektive resultater, hvor Maxwell ganske enkelt er det bedste, der findes lige nu.
Reaktioner:vbedia

koyoot

5. juni 2012
  • 29. juni 2015
Quu sagde: Nå, hvis vi går tilbage til 2013, kan du bemærke, at de i juni på WWDC 13 annoncerede Mac Pro med Dual AMD-grafik. Dette var starten på, at Apple vendte sig væk fra NVIDIA.

I oktober samme år udgav de MacBook Pro 15' med 750m grafik, men dette var den samme chip som 650m, begge kepler, samme pin ud på chippen. Det eneste, Apple skulle gøre, var at bytte chipsene. Meget lidt ændring.

Spol frem til iMac Retina, AMD igen, nu har vi 2015 rMBP, også AMD.

Jeg tror, ​​at det, vi ser her, egentlig ikke er, at Apple vælger AMD, fordi det er bedre, men fordi de kuraterer et tættere forhold til AMD, når det kommer til grafik. Det tætte forhold har resulteret i D300, D500 og D700 til Apples Mac Pro, som stadig er helt Apple eksklusive den dag i dag (selvom de er baseret på HD 7970), og de har også været de første til at få M370X.

NVIDIA ser ud til at være meget mindre fleksibel, de vil ikke blive dikteret til. De vil for eksempel ikke give Apple GTX 980'er eller 780 Ti'er (dengang) omdøbt til Quadro D780'er. Dette er, hvad AMD gjorde for Apple.

Så igen, jeg tror ikke, det har noget at gøre med ydeevne, det handler om et forhold, som de to virksomheder kuraterer, og det skubber NVIDIA ud af Apples systemer, og jeg tror, ​​det er skadeligt, da NVIDIA i øjeblikket har de hurtigste dele i hver termisk konvolut.
Har du faktisk brugt AMD og Nvidia GPU til noget som Final Cut Pro?

Fra min personlige erfaring med opgaver i den virkelige verden er AMD GPU'er hurtigere end Nvidia-genereringer inden for skabelse af indhold. MEGET hurtigere. R9 280X i Mac Pro 5.1 (3,46 GHz, 24 GB RAM) var hurtigere end GTX970. 40 % hurtigere.

Jeg ved, at folk vil vise mig benchmarks fra benchmarks, der viser, hvordan Nvidia GPU'er er bedre end AMD i ansigtsgenkendelse. OKAY. Men Sony Vegas Pro er et benchmark, der simulerer de virkelige opgaver. Igen, det simulerer. Og selv det benchmark viser, at i transkodning, for eksempel, er AMD GPU'er hurtigere end Nvidia. Det eneste, der gør Nvidia bedre i folks øjne, er spilmærkets appel. Men selv det viser ikke hele sandheden. I 4K for eksempel er R9 390X kun 20 % langsommere end GTX980 Ti, som overalt er rost for sin ydeevne. Og som vi allerede har set i gaming, bliver AMD GPU'er bedre for hvert år, mens Nvidia bliver værre. Sammenlign benchmarks for r9 290X vs 780 Ti fra 2013 og fra 2015. De er virkelig forskellige. Nu er R9 290X hurtigere.

Også DirectX, Metal og Vulkan vil ryste tingene op. Vedtagelse af low-overhead API'er var, hvad AMD havde brug for.

dusk007 sagde: Fury har næsten ingen overclocking frihøjde er stadig nogensinde så slidhly langsommere end den lige så store 980 TI chip, som har en ganske alvorlig overclock headroom. Fury er meget bedre end 290x/390x, men den har stadig brug for mere strøm end Maxwell på trods af den mere strømbesparende og hurtigere hukommelse. Den er også vandkølet.
De kan lukke ind på Nvidia på Desktops, hvor vandkøling fungerer, og det samlede strømforbrug ikke er så vigtigt, men på notebooks er strømeffektiviteten alt. Og Fury kan ikke slå Maxwell, M370X er stadig en meget ældre teknologi end Fury.
Det handler ikke om at elske Nvidia eller AMD, men bare objektive resultater, hvor Maxwell ganske enkelt er det bedste, der findes lige nu.
Det viser sig, at du måske ikke har ret. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Tjek det selv ud. Før OC havde GPU'en en samlet score på 12K og en grafikscore på 15,5K.
100 MHz, og GPU'en begynder at FLYE! Scoren er højere end noget andet lige nu på markedet.

Redigere. Om strømeffektiviteten...
Hvis du har en reference Nvidia GPU, så ja, den vil bruge mindre strøm end AMD GPU. Reference GTX 970 med BIOS clock cap vil dog være 3 gange langsommere end R9 280X. Hvis du har non reference GTX 970, vil der ikke være nogen clock cap i BIOS, og det vil kun være 40% langsommere. Problemet er: Det vil trække 270W strøm i OPENCL arbejde.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Her har du et bevis. Sidst redigeret: 29. juni 2015

koyoot

5. juni 2012
  • 29. juni 2015
Quu sagde: Jeg tænkte det samme, men hvis du rent faktisk ser på Maxwell OpenCL benchmarks, så tramper alle NVIDIAs kort AMD.

Virkelig. Se på 970 eller 980 eller Titan eller Titan X eller 980 Ti. Langt over alle AMD-kortene i OpenCL-benchmarks. Samme situation på mobilversionerne, 950m og 960m.

De ældre NVIDIA kepler-kort var forfærdelige ved OpenCL absolut vrøvl, 70%-90% langsommere end AMD. Men Maxwell-kortene er 10-50 % hurtigere end AMD på de samme markedssegmenter.

Selv var jeg overrasket over at finde ud af dette, da jeg for nylig undersøgte benchmarks, tjek dette ud: https://i.imgur.com/wiK5ZSG.png'bbCodeBlock-expandLink js-expandLink'>
De er ikke hurtigere i REAL WORLD TASKS! Brug Maxwell GPU til Final Cut Pro, og du vil smide den væk og gå tilbage til AMD-løsningen. Jeg har testet GTX970 og R9 280X i Final Cut Pro, og AMD GPU var 40% hurtigere!

Sony Vegas Pro benchamark viser kun et glimt af forskellen mellem AMD og Nvidia GPU i omkodning, men det er en ret stor skala.

WHO

2. april 2007
  • 29. juni 2015
koyoot sagde: Har du faktisk brugt AMD og Nvidia GPU til noget som Final Cut Pro?

Jeg har ikke. Jeg har kun set på benchmarks for generel OpenCL-ydelse. Hvis du har nogle links til benchmarks, der viser forskelle i videosuiter, ville jeg være interesseret i at se på dem for at uddanne mig selv.

koyoot sagde: De er ikke hurtigere i REAL WORLD TASKS! Brug Maxwell GPU til Final Cut Pro, og du vil smide den væk og gå tilbage til AMD-løsningen. Jeg har testet GTX970 og R9 280X i Final Cut Pro, og AMD GPU var 40% hurtigere!

Sony Vegas Pro benchamark viser kun et glimt af forskellen mellem AMD og Nvidia GPU i omkodning, men det er en ret stor skala.

Igen, hvis du har nogle benchmarks, vil jeg med glæde se på dem.

koyoot

5. juni 2012
  • 29. juni 2015
Jeg kan kun give dig det, jeg har testet på egen hånd. Ingen af ​​de anmeldelser, jeg har set, testede de virkelige verdens benchmarks, bortset fra den virkelige verdens arbejdsbelastningssimulering af Sony Vegas Pro. Og det er benchmarks for at gå efter det.

WHO

2. april 2007
  • 29. juni 2015
Jeg tror, ​​at noget at overveje er, at Apple faktisk ikke sender GTX 970 eller 980 i nogen af ​​deres systemer, så jeg ville ikke forvente, at Final Cut Pro ville synge på den. Jeg ville heller ikke forvente, at tredjepartsudviklere fokuserede på den hardware.

Men hvis alle OpenCL-benchmarks viser, at NVIDIA er hurtigere, så er der sandsynligvis noget om det. OpenCL er trods alt bare et API til at udføre arbejdsbelastninger på GPU'en.

koyoot

5. juni 2012
  • 29. juni 2015
Nej. Ikke alle.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'js-selectToQuoteEnd'>

WHO

2. april 2007
  • 29. juni 2015
koyoot sagde: Nej. Ikke alle.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'bbCodeBlock-expandLink js-expandLink'>

Okay, først og fremmest, rolig. For det andet har jeg ikke nævnt noget om ansigtsgenkendelse, det er alt du. Det OpenCL-benchmark, jeg postede et par sider tilbage, er en OpenCL-scenegengivelse. Du kan se den her, hvis du har lyst til at kigge:
https://i.imgur.com/wiK5ZSG.png'js-selectToQuoteEnd '>

koyoot

5. juni 2012
  • 29. juni 2015
Jeg postede ikke det link på grund af Fury. Du har der Grenada/Hawaii GPU'er og GM204. Også Grenada viser sig at være hurtigere i nogle opgaver end GTX Titan X.

Også Luxmark v2.1 er gammel benchmark. Luxmark v3 er den samme, men nyere og mere kompleks. Det er som at sammenligne scores af 3dMark Vantage med 3dMark FireStrike. Den anden er nyere, mere kompleks og viser lidt mere end den gamle.

Tredje. Jeg er fuldstændig rolig. Jeg køber bare ikke alt, hvad der står i anmeldelser. Hvis du vil tro, at Maxwell GPU'er er bedre i computeren, hvilket de ikke er, er det op til dig. Jeg ved, at ikke alt, hvad der kommer i anmeldelser, er sandt, og det bliver altid virkelig forældet med hver ny version af drivere/teknologi, der kommer.

WHO

2. april 2007
  • 29. juni 2015
koyoot sagde: Jeg postede ikke det link på grund af Fury. Du har der Grenada/Hawaii GPU'er og GM204. Også Grenada viser sig at være hurtigere i nogle opgaver end GTX Titan X.

Også Luxmark v2.1 er gammel benchmark. Luxmark v3 er den samme, men nyere og mere kompleks. Det er som at sammenligne scores af 3dMark Vantage med 3dMark FireStrike. Den anden er nyere, mere kompleks og viser lidt mere end den gamle.

Tredje. Jeg er fuldstændig rolig. Jeg køber bare ikke alt, hvad der står i anmeldelser. Hvis du vil tro, at Maxwell GPU'er er bedre i computeren, hvilket de ikke er, er det op til dig. Jeg ved, at ikke alt, hvad der kommer i anmeldelser, er sandt, og det bliver altid virkelig forældet med hver ny version af drivere/teknologi, der kommer.

Jeg siger ikke, at jeg ikke tror på de benchmarks, du delte. Jeg tror bare ikke, det er så sort og hvidt, som du antyder, mange af forskellene er inden for et par procentpoint, hvis vi udelukker Fury X, hvilket jeg ikke synes, vi skal, fordi det sandsynligvis vil blive brugt i Mac Pro-opdatering.

Og jeg er enig i, at de nyere benchmarks bør fokuseres på. Jeg er ikke en Luxmark-fanboy, jeg ved ikke noget om det, jeg googlede bare OpenCL Maxwell, og det var tophittet.

Nyd lidt limonade og nyd det varme vejr.

skumring007

5. december 2009
  • 29. juni 2015
koyoot sagde: Det viser sig, at du måske ikke har ret. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Tjek det selv ud. Før OC havde GPU'en en samlet score på 12K og en grafikscore på 15,5K.
100 MHz, og GPU'en begynder at FLYE! Scoren er højere end noget andet lige nu på markedet.
Du vil måske tage et nærmere kig. Scoren hoppede fra 14k standard til 17k, mens Maxwell OC rammer 19,4k (mens den er luftkølet)
http://uk.hardware.info/reviews/615...-flag-ship-graphics-card-overclocking-results
Fury er stor værdi på desktops, fordi du får et pænt og relativt ganske vandkølingssystem, som alene ville sætte dig en del pesetos tilbage. AMD sagde også, at hukommelse oc er meningsløst på disse GPU'er, så jeg er i tvivl om disse overclocking-resultater. Jeg tjekkede et par forumtråde, og ingen kunne finde noget, der bekræfter disse resultater. Man klarede ikke sådan en overclock og fik intet værdifuldt ud af en 50Mhz hukommelse overclock.
koyoot sagde: Rediger. Om strømeffektiviteten...
Hvis du har en reference Nvidia GPU, så ja, den vil bruge mindre strøm end AMD GPU. Reference GTX 970 med BIOS clock cap vil dog være 3 gange langsommere end R9 280X. Hvis du har non reference GTX 970, vil der ikke være nogen clock cap i BIOS, og det vil kun være 40% langsommere. Problemet er: Det vil trække 270W strøm i OPENCL arbejde.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Her har du et bevis.
En 280X er et 20-30 % langsommere kort i gennemsnit end et 970 i 3D-arbejde. OpenCL-arbejde og en stresstest er ikke det samme. I teorien kunne du få sådanne belastningssecnarioer, men i virkeligheden kommer de fleste CL-bænke ikke i nærheden af ​​det.
Meget af den svaghed, Nvidia viser i sådanne computerscenarier, er udelukkende driveren.
Sammenlign quadro M6000 med noget som Firepro W9100.
http://www.tomshardware.de/quadro-m...ikkarte-benchmarks,testberichte-241756-7.html
Maxwell er ret god i alle disse scenarier, så det sker, at Nvidia ikke ønsker, at deres forbrugerkort skal være gode i arbejdsstationsscenarier. Da Apple er ansvarlig for en betydelig del af driveren på OSX, ville de ikke have en helt målrettet forringet ydeevne i den slags belastningsscenarier under OSX. Sandsynligvis ikke helt Windows-ydeevne, men ikke den skarpe forskel mellem arbejdsstation og forbrugerydelse. M

mickeydean

9. december 2011
  • 29. juni 2015
Vi er på det punkt, hvor Apple skal forsøge at føre markedet. Jeg forstår med hensyn til omsætning og logistik, at det gør tingene i cyklusser, mens pc-producenterne er mere adrætte. 'Pro'-markedet kunne passes bedre med muligheder for mere. Jeg tror ikke, at have 750m handler om en bestemt vision for computere, men snarere om at købe i bulk og bruge en billigere, svagere chip til strømbesparelser, pris osv. Der er dem, der ville betale for 970m, men designet nu værdi form frem for funktion til en vis grad.

koyoot

5. juni 2012
  • 29. juni 2015
Dusk, fortæl mig hvorfor, Luxmark v2 viser, at GM200 er hurtigere end Hawaii GPU, og Luxmark v3 viser, at Hawaii GPU er hurtigere end GM200? Begge er de samme chips. Der er ingen forringelse af ydeevnen, for Maxwell i DP er ...t. De adskilles kun ved navne. Hvordan er det muligt, at den ældre bænk viser fordelene ved Maxwell GPU, og den nyere viser fordelene ved Hawaii GPU?

http://scr3.golem.de/screenshots/15...uxmark-v3- (complex-scene, -gpu-only) -chart.png'js-selectToQuoteEnd '> J

joe-h2o

24. juni 2012
  • 29. juni 2015
inhalexhale1 sagde: 960m er 60% hurtigere end m370x. Jeg synes ikke det er overvurderet, men snarere et foretrukket kort til den lavere ende AMD, Apple valgte til denne opdatering. 950m er også et meget bedre kort. Jeg er enig i klagerne. Apple tager samme pris som altid, og selvom det nye kort er mere kraftfuldt, er det et skridt ned i den samlede klasse.

960M er også 50 % mere strømkrævende end 370x, som ikke flyver i et i forvejen stramt TDP-design. Det bedste Apple ville være i stand til at gøre er 950M, som ligner AMD's tilbud, måske en smule bedre. Hvorfor de ikke gik efter Nvidia aner jeg ikke.

lowendlinux

24. september 2014
Tyskland
  • 29. juni 2015
Mine herrer Jeg tror ikke, vi kommer til at løse dette her og for at sammensætte de ting, vi nu taler om high-end desktop GPU'er i MacBook Pro-sektionen.
Reaktioner:håbefuldt håndtag

koyoot

5. juni 2012
  • 29. juni 2015
Jeg ville ikke gå så langt med strømforbrug. GTX960 skal være inden for 35-45W strømforbrugskonvolut. Og ved at se på notebookcheck anmeldelse af MBP, ser det ud til, at strømforbruget er ret højt, fordi det kan overskride selv grænsen på 85W strømforsyning med 6W. Så jeg vil ikke sige, at den er mere strømkrævende end M370X.

Jeg vil heller ikke sige, at den er 60 % hurtigere end M370X, fordi ydeevnen i Final Cut Pro vil være meget højere på AMD-chip end nogen Maxwell GPU, der er tilgængelig for et 45W strømbudget.

I spil vil muligvis Nvidia GPU være endnu 60% hurtigere. Men spil er ikke alt.

WHO

2. april 2007
  • 29. juni 2015
koyoot sagde: Jeg ville ikke gå så langt med strømforbrug. GTX960 skal være inden for 35-45W strømforbrugskonvolut. Og ved at se på notebookcheck anmeldelse af MBP, ser det ud til, at strømforbruget er ret højt, fordi det kan overskride selv grænsen på 85W strømforsyning med 6W. Så jeg vil ikke sige, at den er mere strømkrævende end M370X.

Jeg vil heller ikke sige, at den er 60 % hurtigere end M370X, fordi ydeevnen i Final Cut Pro vil være meget højere på AMD-chip end nogen Maxwell GPU, der er tilgængelig for et 45W strømbudget.

I spil vil muligvis Nvidia GPU være endnu 60% hurtigere. Men spil er ikke alt.

GTX 960m er 75 Watt, 950m er 45 Watt, M370X er 50 Watt (tilsyneladende). Forrige
Næste Først Forrige

Gå til side

Næste Sidst