lab501 forum

lab501 forum (https://forum.lab501.ro//index.php)
-   Placi video (https://forum.lab501.ro//forumdisplay.php?f=6)
-   -   Noutati despre placile video Nvidia (https://forum.lab501.ro//showthread.php?t=29)

Maryus3D 01-10-2009 21:48

G92 pleaca de la GTS250\9800GTX+ in jos :p. Eu vreau Quadro mod pentru GT300 NOW !!!!!!!!!!!!!!!!!!!!!!!!! =))

matose 01-10-2009 21:50

Ar trebui sa ai in primul rand GT300 si apoi sa se lanseze modelul Quadro echivalent. Nu crezi? :D

Enz0 01-10-2009 21:52

Era pur si simplu o referire la scorul scos de 4870 si 4890 comparat cu PPD-ul scos de "nemuritoarea" serie G92.Imi cer scuze daca te-am indus in eroare cu post-urile mele.Trebuia sa grupez rezultatele in F@H si astfel nu ajungeam sa ne zapacim de tot.
Cred ca am ajuns sa vorbim impreuna si sa ne intelegem separat :)))
@Maryus
Da, crezi ca poti sa ne explici cum va functiona MOD-ul?
Cum transformi din SIMD in MIMD?That is the question :>

Se pare ca placa video prezentata de Huan este o placa video ce nu functioneaza
http://bbs.chiphell.com/attachments/...a839825a46.jpg
Quote:

the retention screws for the gpu are missing and white is showing through. styrofoam?
Mai punem si faptul ca un power conector e lipit cum trebuie si celalalt e lipit cu super glue?Take a look la patratelul rosu.
Paper Launch FTW =))
http://www.semiaccurate.com/forums/showthread.php?t=844

Maryus3D 01-10-2009 22:28

Enz0 uite aici nu are nici o treaba cu SIMD sau MIMD http://lab501.ro/forum/showthread.php?t=310 in grafica ATi sucks big time deci nvidia o duce bine in GPGPU computing, in grafica, in gaming cu Physx, iar ATi o duce prost in grafica, prost in GPGPU computing si binisor in gaming si asta nu e de ieri :(. Concluzia mea este ca ATi traieste dupa o mana de gameri pe cand nvidia de peste tot.

@matose asa este dar na sunt nerabdator :p.

Enz0 01-10-2009 22:31

Stiu de mod-ul ala :)
La fel cum spunea Matose, ca sa faci un MOD de quadro trebuie sa ai un GT300, pentru ca din orice alta placa...nu ai cum(de aia am zis ... de faza SIMD vs MIMD).
Dupa cum vezi mai sus... GT300 nu prea exista(a fost o lansare doar pe hartie si ceva sliduri pentru ca placa video folosita a fost doar o macheta)
nVIDIA trebuie sa le dea ceva fanBOIlor pentru ca altfel, vor alerga disperati la ATI, asa ca au ales...o carcasa frumos lucioasa lipita cu superglue =))

Maryus3D 01-10-2009 22:34

1 Attachment(s)
Da :D oricum ideea cu ECC mi se pare geniala + un CUDA extrem de puternic o sa rupa in Premiere in After Effects. Sigur vor optimiza Mental Ray pe GT300 o sa-l faca ceva de genu http://furryball.aaa-studio.cz/about-furry-ball/ pai un GTX285 rupe un i7 :D. Asta imi palce la nvidia chestii de marketing dar usefull.

i7 vs GTX285
Attachment 2279

Furry ball asta fiind nou nu-i asa de incredere dar Mental Images care este cu nvidia ar putea sa faca ceva asemanator. Mental Ray este matur :).

Monstru 01-10-2009 22:40

Quote:

Dupa cum vezi mai sus... GT300 nu prea exista(a fost o lansare doar pe hartie si ceva sliduri pentru ca placa video folosita a fost doar o macheta)
S-a lansat GT300??? La naiba, noi nu stiam...

pme 01-10-2009 22:43

[QUOTE=Enz0;8271]Dupa cum vezi mai sus... GT300 nu prea exista(a fost o lansare doar pe hartie si ceva sliduri pentru ca placa video folosita a fost doar o macheta)

ce zici de cum se misca macheta asta http://www.youtube.com/watch?v=79mvSWRocq4 ?

cred ca cea mai desteapta miscare NVIDIA va fi sa lase Ati sa arunce pe piata noua placa video 5870, sa inceapa criticile si testele dure odata cu trecerea perioadei de entuziasm si apoi sa scoata acest "FERMI" care se pare ca are ceva potential in el.

DiaboRO 01-10-2009 22:57

Quote:

Originally Posted by Enz0 (Post 8275)
Eu unul pana nu vad placa video (asa cum am vazut 5870 in PC ruland un simulator de aviatie pe 6 ecrane) filmata, pusa la munca..... nu cred nimic.In special daca vine din partea nVIDIA.

Asta spuneam si eu ... nVidia tot ameninta de ceva timp ca vine cu ceva care sa fie cu adevarat nou ... :cool:

Enz0 01-10-2009 23:03

Inca ceva ce ma face sa fierb.nVIDIA prin ultimele drivere a anulat suportul PhysX daca placa video principala nu apartine nVIDIA.De ce a facut asta?Pai, MSI anunta placa de baza cu Lucid Hydra,Lucid se bat cu pumnii in piept ca fac si dreg multe si ca pot combina sub Win 7 ATI+nVIDIA=LOVE(vezi Anandtech).
Presupunem ca Fermi este un foarte bun cGPU dar in gaming nu straluceste..Nu ti se pare normal sa faci acelasi lucru ce l-a facut nVIDIA?
Decat sa cumpere lumea 5870 si sa foloseasca FERMI ca PhysX accelerator, mai bine ii obligi sa iti cumpere placa video si le "dai voie" sa foloseasca PhysX(pentru ca Havok au adormit).
Sunt multe chestii la care cei de la nVIDIA s-au ganfit si nu mi se pare normal ce au facut, mai ales in conditiile in care au "oferit" PhYsX la liber.Daca au inceput sa recurga la chestii din astea, totusi cred ca le e putin frica.
Sunt deja foarte multe situri unde vezi oameni care se plang ca au cumparat 5870 si au vrut sa foloseasca vechile placi(8800GT/GTX/Ultra samd) ca PhysX accelerator pentru ca inca au putere in ele, dar nu reusit acest lucru.De ce? Ask nVIDIA

Triplu_Z 01-10-2009 23:08

Quote:

Originally Posted by Enz0 (Post 8271)
La fel cum spuna fost o lansare doar pe hartie

Nu a avut loc nici o lansare PUNCT.A fost doar asa o conferimiar d-aia ... sa zica nVidia ca a lor e mai mare ca a alora de la ATI.De ce crezi ca defapt au prezentat un plastic dildo ?

Monstru 01-10-2009 23:19

Enzo - putin mai mult respect nu strica, daca nu vrei sa ne indispui. Inteleg parerea ta despre suportul din driveri, si asta chiar este un subiect de discutat, dar partea cu lansarea se pare ca esti singurul care nu a inteles-o pe deplin. Incearca sa te gandesti mai mult inainte sa postezi si sa fi putin mai politicos. Multumesc.

nr4 01-10-2009 23:42

Am vizionat primele doua parti ale conferintei si pot spune ca s-au prezentat elemente extrem de interesante pe partea de GPU computing.
Pur si simplu s-au prezentat idei, concepte, aplicatii existente si viitorul debugger Nexus.
Partea de gaming nu a fost adusa in discutie, deci nu s-a facut nici o comparatie cu ATI.

Pe partea hardware s-a prezentat un produs Tesla bazat pe arhitectura Fermi. Ca e real sau nu acel exemplar, este neimportant.

Enz0 02-10-2009 00:12

Pai daca te pui sa faci o lectura despre cat de bine se intelege MIMD cu 3d-ul sau cu postura de cGPU, iti dai seama defapt incotro se indreapta nVIDIA.
UNde? Simplu... in aceeasi directie ca si Lara The Bee doar ca are avantajul unei vaste experiente in 3D si are avantajul unui GPU care e feroce in calcule.
Un profesor de informatica mi-a facut o analogie in lumea reala.Diferenta dintre un CPU si GPU.
Pune intr-o sala 100 de studenti si da-le o problema de matematica, apoi in alta sala un profesor de matematica ce trebuie sa rezolve aceeasi problema.
Cine va termina primul? Cei 100 sau profesorul?Dar daca le dai celor 100 de studenti cate o problema fiecaruia de rezolvat?Dar daca ii dai profesorului 100 de probleme diferite de rezolvat?
Exact asa sta situatia si la CPU vs GPU.Acel profesor are imaginatie, poate face mai multe lucruri deodata dar este limitat, poate inventa formule si poate da un raspuns mai rapid decat un student care a trebuit instruit si i s-au predat formule pentru a putea rezolva acea problema(a trebuit creeat un program care sa invete GPU cum sa calculeze), in schimb cand ii dai 100 de probleme acelui profesor sa rezolve, va fi batut la timp de acei 100 de studenti.
Un CPU normal este limitat la calcule paralele, dar stie sa faca mult mai multe fara sa fim nevoiti sa scriem fiecare linie de comanda pentru executia unei operatii, in schimb cand vine vorba de randarea grafica.Verificati CPU test inca odata in 3Dmark06 si vedeti o parte din performantele Larrabee.

Jocker 02-10-2009 06:24

Este destul de buna comparatia cu stadiul actual dintre CPU si GPU.

lucassp 02-10-2009 09:29

Quote:

Originally Posted by Enz0 (Post 8300)
Un CPU normal este limitat la calcule paralele, dar stie sa faca mult mai multe fara sa fim nevoiti sa scriem fiecare linie de comanda pentru executia unei operatii, in schimb cand vine vorba de randarea grafica.Verificati CPU test inca odata in 3Dmark06 si vedeti o parte din performantele Larrabee.

Unitatea vectoriala din fiecare nucleu Larrabee e de ~4 ori mai jmechera decat cea din i7. Si se anunta 32 de nuclee. De aici o sa vina puterea de randare a Larrabee. Iar in GPGPU lucrurile ar trebui sa fie mult simplificate datorita nucleelor x86. Spre exemplu x264 ruleaza lejer pe 8-16 nuclee in momentul de fata cu API-urile actuale. O portare pe Larrabee ar fi infinit mai simpla decat una pe DirectX Compute/OpenCL/CUDA. Chiar daca nucleele din Larrabee o sa fie "in order" (sa nu uitam ca si IBM Xenon si Cell au la baza tot nuclee "in order") un compilator bun va face treaba.

Eu am dubii legate de capacitatea Intel de a scrie un driver/layer pentru DirectX 11/OpenGL :).

Enz0 02-10-2009 11:33

Modul in care Larrabee se ocupa de rasterizare e expus foarte pe larg aici:
http://www.ddj.com/architect/217200602
E o lectura foarte frumoasa.
Quote:

As I mentioned earlier, software rasterization will never match dedicated hardware peak performance and power efficiency for a given area of silicon, but so far, it's proven to be efficient enough. It also has a significant advantage, in that because it uses general-purpose cores, the same resources that are used for rasterization can be used for other purposes at other times, and vice versa. As Tom Forsyth puts it, because the whole chip is programmable, we can effectively bring more square millimeters to bear on any specific task as needed -- up to and including the whole chip. In other words, the pipeline can dynamically reconfigure its processing resources as the rendering workload changes. If we get a heavy rasterization load, we can have all the cores working on it. It wouldn't be the most efficient rasterizer per square millimeter, but it would be one heck of a lot of square millimeters of rasterizer, all doing what was most important at that moment; in contrast to a traditional graphics chip with a hardware rasterizer, where most of the circuitry would be idle when there was a heavy rasterization load. A little while later, when the load switches to shading, the whole Larrabee chip can become a shader if necessary. Software simply brings a whole different set of strengths and weaknesses to the table.
Pentru Intel va fi mai greu cu partea de grafica pentru ca rasterizarea se va face din software.Fiecare nucleu sau chiar tot cipul poate deveni shader atunci cand e nevoie dar totul va trebui facut din soft.
nVidia in schimb incearca cealalta parte a monedei.Pastreaza abilitatile de GPU dar introduce functii noi pentru o procesare de date mult mai eficienta.

Parerea mea e ca e foarte greu sa le faci pe amandoua perfect.Ori renunti la performantele grafice si te axezi mai mult pe paralel computing, ori te axezi pe 3D rendering si neglijezi partea de paralel computing.Nu stiu cum vor face ca un GPU sa faca si partea de Shading si partea de rasterization perfect.
Ati a incercat ambele parti incepand cu seria 2000.Din cate vedem in data sheet avem o putere teoretica de calcul foarte mare dar in practica e aproape inexistenta.

In final ajungem la o concluzie destul de nasoala:avem posibilitatea sa creeam cipuri foarte complexe cu puteri de calcul foarte mari, le putem folosi in operatii foarte complexe dar.... partea de programare a ramas foarte in urma.

De cand a iesit ATI cu seria 2000 s-a pus problema folosirii cat mai eficiente a fiecarui procesor scalar.Pentru acest lucru ai nevoie de un driver cat mai capabil care sa struneasca 100% fiecare procesor scalar/shader unit/cuda core sau cum s-or mai chema.

Atat timp cat partea de programare/implementare API ramane in urma, poti sa ai CGPU-uri cu puteri de calcul teoretice si de 10TFlops...pentru ca le ai degeaba.Vor fi folosite doar in limita implementarii si instructiunilor primite.

eXpander 02-10-2009 13:16

Uite cum se descurca Larabee in RayTracing:

[yt]http://www.youtube.com/watch?v=G-FKBMct21g[/yt]

Sub 30 fps-uri in Quake Live intr-o scena statica... hmmm...

Uite cum se descurca Nvidia:

[yt]http://www.youtube.com/watch?v=pt1jKQpcAXM[/yt]

25fps intr-o scena relativ simpla... Cu siguranta ca in scena de Quake Live s-ar fi descurcat si mai prost.

@ Enz0: cand mai scrii mesaje lungi, mai lasa si tu spatii intre paragrafe, ca e groaznic de obositor sa citesc.

Enz0 02-10-2009 15:20

http://www.tgdaily.com/content/view/38145/135/
E veche stirea dar parca si ATI a demonstrat ray tracing cu 4800.
Quote:

Originally Posted by TgDaily
In terms of performance, the Radeon 2900XT 1GB rendered Transformers scenes in 20-30 frames per second, in 720p resolution and no Anti-Aliasing. With the Radeon 3870, the test scene jumped to 60 fps, with a drop to 20 fps when the proprietary Anti-Aliasing algorithm was applied. Urbach mentioned that the Radeon 4870 hits the same 60 fps – and stays at that level with Anti-Aliasing (a ray-tracer is not expecting more than 60 fps.) JulesWorld’s technology also works on Nvidia GeForce 8800 cards and above, but the lack of a tessellation unit causes a bit more work on the ray-tracer side.


eXpander 02-10-2009 15:24

Pai toata lumea a demonstrat RayTracing. Am expus doar Nvidia, pentru ca suntem pe un thread despre Nvidia, si Larabee pentru ca s-a adus vorba de Larabee ;)

Eu abia astept sa vad raytracing randat real-time in aplicatii reale, nu doar tech-demo-uri. Insa, dupa cum se vede in filmuletul cu Larabee, se pare ca mai avem destul de mult de asteptat pana sa ajungem la raytracing real-time intr-un joc.

lucassp 02-10-2009 15:36

E un joc pe PS3 unde anumite reflexii sunt facute cu ray tracing...dar am uitat jocul :P

Enz0 02-10-2009 15:38

Pai primul raytracing asa cum trebuie a fost Ruby de la AMD daca nu ma insel.
http://www.amd.com/us-en/assets/cont...D_Ruby_S04.swf
nVIDIA a mai incercat ceva ray tracing cu un Bugatti Veyron dar daca stai sa te gandesti ca au folosit 3 quadro in SLI pentru a randa o scena la 60FPS te cam apuca durerea de cap.
Quote:

This animation was running on three GeForce GPUs, each with almost 1 Tflop of processing horsepower. That’s about 2.7 Tflops to sustain animation that was very close to photorealistic. (1500-2000 instructions per component, all in HD. 100 shader instructions per component, 4 components per pixel [R G B alpha], 1.5 Flops per instruction on average, 60 frames per second, etc—that adds up to 500 shader Gflps:
A doua prezentare a fost ceva mai in forta.
Quote:

Luebke's and Parker's Ray tracing demo has two million, whereas the car and the environment have one million each - approximately the numbers that the Unreal Engine 3 can display. For this process Nvidia's Quadro Plex 2100 D4 Visual Computing System with four GPUs is used. The system displays the vehicle and the city at a resolution of 1,920 x 1,080 pixels with 30 frames per second. Color Shader, shadows, reflections and refractions are calculated with five "jumps” per light ray. Bump mapping, variable light sources and up to 4x adaptive Anti Aliasing are additional features of the demo. The objects were created with Maya and imported into the Ray tracing engine with the application Collada.

http://www.pcgameshardware.com/aid,6...cing-API/News/

Maryus3D 02-10-2009 17:23

Nu exista 3 way Quadro SLI si aia cu Ruby cred ca e randare normala pe CPU :).

Enz0 02-10-2009 23:14

Poate ca ai dreptate, dar inseamna ca cei de la Dell au innebunit de tot.Am facut ceva cercetari si tot pe un sistem de la ei a fost facut testul.E posibil sa aiba vreun sistem ce nu a iesit pe piata sau au fost folosite placi video 8800GTX/9800GTX si cei ce au redactat articolul au avut eroare de tipar?God Knows.
http://www.nvidia.com/object/product...100_d4_us.html
Uita-te la specifications.
Cel din urma a fost facut cu Quadro FX 4700 X2.Cat despre acel RUBY, iti spun sigur ca nu a fost randare pe CPU.Cauta mai multe pe Goagal sa vezi mai bine cum a fost randat.

Maryus3D 03-10-2009 11:06

Da Quadro Plex :D ala e visu' sunt 4 GPU-uri G92 acolo. Poate ca o fi raytracing si la ATi. Ce vreau sa spun ca intre FirePro sau Radeon la fel si GeForce si Quadro cand vine vorba de GPGPU cpmuting nu exista nici o diferenta numai daca e o nesimtire in drivere. Eu unu nu-s expert in randari dar n-am auzi de ray tracing pe DX sau OpenGL aia e o prostie. Ray tracing o face Mental Ray din cate stiu. Exista cateva motoare de randare cam ca mental ray care folosesc GPU prin CUDA sau Stream si chiar daca un radeon este cam la fel de bun cu un Quadro asta nu inseamna ca ATi rullz si nvidia e scump. Nvidia are un fix ei nu pronunta de GeForce cand vine vorba de ceva mai serios si intr-un fel e mai bine asa numai ca e foarte scump. Dar vorba aia nu te obliga nimeni :p.

Enz0 03-10-2009 15:26

Pai din cate am citit pe diverse situri, s-a facut randarea prin DX9 pipeline cu ajutorul tesselators la ATI.Nu stiam ca DX9 suporta tesselation dar cica au reusit baietii. Pe partea de Raytracing ATI sta mai bine ca nVIDIA.A demonstrat-o si 3870 si 2900XT(cand a aparut).Oricum situatia cred ca se va schimba odata cu iesirea cGPU de la nVIDIA.Raytracing loves paralel computing

Maryus3D 03-10-2009 17:15

Ce fel de Raytracing asta nu inteleg. Daca ATi a batut nvidia la Raytracing prin DX sau OpenGL aia e egal 0. Important e GPGPU computing fara DX sau OpenGL :p. Eu de aia nu sunt sigur. Dar un lucru e sigur ATi sucks la GPGPU computing avand nevoie de o optimizare grea si speciala pentru a intelege arhitectura lor ca sa nu mai ramana prea multe nuclee in idle.

matose 03-10-2009 17:39

Arhitectura NVIDIA e mai potrivita pentru GPGPU datorita structurii shaderelor cat si a memoriei cache incorporata in fiecare unitate shader ;)! PPD-ul obtinut in folding cat si sporul adus de CUDA confirma acest lucru

Enz0 03-10-2009 17:56

La urma urmei nu conteaza cum este executat atat timp cat rezultatele sunt aceleasi. De exemplu, te intereseaza pe tine cum fac eu OC la CPU daca ajung la aceeasi frecventa ca si tine?Nu cred.Conteaza rezultatul final.

Avem 3 candidati la aceasta provocare.Intel, nVidia si AMD.Daca fiecare alege alta cale dar rezultatul final este acelasi...atunci tot ce conteaza sunt performantele.

Da, AMD are o putere teoretica mult mai mare in calcule decat nVIDIA dar implementarea proasta a driverelor si lipsa de interes a celor de la ATI au dus la marginalizarea placilor video ATI, si in final "excluderea"(in ghilimele :D ) lor din categoria GPGPU(Tu ti-ai cumpara un Radeon fiind constient de aceste lucruri cand vine vorba de munca?Nu cred).

Nu placile sunt de vina.
Ideea ATI de a creea un GPU cu putere de calcul, dimensiuni mici si cost redus este extraordinara, dar lipsa lor de interes denota o prostie care umbreste performantele placilor Radeon.
nVidia are o echipa PR extraordinara.Ei chiar stiu sa scoata bani si din piatra seaca.
"All is fair In love, business and war", asta ar trebui sa fie LOGO-ul lor.

matose 03-10-2009 18:01

Nu e vorba doar de drivere, hardware-ul poate o parte mare din vina. Una peste alta rezultatul final nu este acelasi... aici ma refer strict la putere de calcul nu la jocuri :)

Maryus3D 03-10-2009 19:17

Intradevar ATi au ,,teoretic" (in ghilimele : )) ) placi mai puternice dar practic... este atat vina placilor cat si a driverilor + a developerilor. Ei nu stau sa optimieze o aplicatie in numar asa mare de nuclee fiind foarte greu pentru ei, prefera mai putine nuclee si putere asemanatoare desi de ex HD4870 este mult mai buna ca GTX260 216. Dar GTX isi poate folosi puterea la maxim HD4870 nu :(. Atunci eu nu vad rostul sa imi cumpar ATi puternic dar care nu-si poate folosi toata puterea. E ca si cum ai compara un taur cu un leopard. :D

ferike 03-10-2009 23:54

Quote:

Arhitectura NVIDIA e mai potrivita pentru GPGPU datorita structurii shaderelor cat si a memoriei cache incorporata in fiecare unitate shader ! PPD-ul obtinut in folding cat si sporul adus de CUDA confirma acest lucru
ai dreptate matose, si apropo de GPGPU, numarul 2 de le lista asta: http://www.top500.org/list/2009/06/100

tocmai vor implementa Fermi, cu scopul:
Quote:

Oak Ridge's supercomputer will be used for research in energy and climate change and is expected to be 10 times more powerful than today's fastest supercomputer, according to a joint statement from Oak Ridge and Nvidia. The architecture would use both graphics processing units (GPUs) from Nvida and central processing units (CPUs), according to Nvidia. Intel and Advanced Micro Devices, among others, make the CPUs.
sursa: http://news.cnet.com/8301-13924_3-10364534-64.html

LE: cat de freaksi sunt astia de la ORNL:
http://www.top500.org/site/systems/1333
http://www.nccs.gov/computing-resources/jaguar/

Adaugati la reteta de mai sus cateva "sute de kile" de Tesla-uri Ferimi si clar va iesi ce departe cel mai tare supercomputer, nu? :)

pme 04-10-2009 12:57

ce poate DIRECTX11
 
un pic de pofta :) un filmulet cu ce stie DirectX11 http://www.youtube.com/watch?v=Rm7cZ...eature=related

Oare mai vrea cineva placi video non directX11 :)) ?

matose 04-10-2009 13:04

Inca o victima a marketing-ului....

Asa a fost si cu DX10 si nici acum nu sunt jocuri suficiente iar imbunatatirile nu sunt chiar asa spectaculoase :)

mascotzel 04-10-2009 13:40

Quote:

Originally Posted by pme (Post 8586)
un pic de pofta :) un filmulet cu ce stie DirectX11 http://www.youtube.com/watch?v=Rm7cZ...eature=related

Oare mai vrea cineva placi video non directX11 :)) ?

e un video prerandat acolo,n-are nici o legatura

pme 04-10-2009 18:01

Quote:

Originally Posted by matose (Post 8589)
Inca o victima a marketing-ului....

Asa a fost si cu DX10 si nici acum nu sunt jocuri suficiente iar imbunatatirile nu sunt chiar asa spectaculoase :)

corect, dar macar sa visam frumos :)

pme 06-10-2009 18:31

stie cineva macar orientativ cand ar trebui sa apara GT300? vreo informatie cat de cat pertinenta despre data lansarii?
Se pare ca dupa trecerea euforiei initiate de lansarea Ati 5870 posesorii incep sa se declare destul de dezamagiti: nu pyshics, memorie doar 1Gb etc...

Maryus3D 06-10-2009 18:32

Peste o luna doua cel mult, vor fi nevoiti ca altfel vor pierde in fata concurentei :).

pme 06-10-2009 18:34

Quote:

Originally Posted by Maryus3D (Post 8909)
Peste o luna doua cel mult, vor fi nevoiti ca altfel vor pierde in fata concurentei :).

poate ca uneori este mai avantajos sa le lasi timp concurentilor sa se faca de ras apoi apari ca un salvator :) si vinzi la ce pret vrea muschii tai...
asta daca nu cumva problemele sunt totusi tehnologice

oare o versiune de Vantage directx11 o fi in lucru?

xdan 06-10-2009 19:08

GT300 Fermi suporta si DDR3.....:)
http://www.fudzilla.com/content/view/15833/1/
Cred ca lucru asta ar putea fi un atu pentru Nvidia...
Poate face niste jonglerii cu niste configuratii mai de mainstream
Ceva de genul 320biti 1.2 GDDR3 2600....384SP(32*12)...:)
Pana la urma GDDR3 sunt mult mai ieftini ca GDDR5 ...si un bus mai mare 320biti nu cred ca ar penaliza mult performanta...GDDR3
Iar daca dupa cum se presupune GT300 e cu 30-40% peste 5870(50-60%-5850) atunci o placa cu specificatiile nu chiar injumatatite ar putea bate 5850 si ar putea fi la pretul de 220-240$(fata de GT300-400$ estimat...)...In fine 1-2luni si vom vedea...


All times are GMT +3. The time now is 03:03.

Powered by vBulletin® Version 3.8.6
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.