lab501 forum

lab501 forum (https://forum.lab501.ro//index.php)
-   Placi video (https://forum.lab501.ro//forumdisplay.php?f=6)
-   -   Noutati despre placile video Nvidia (https://forum.lab501.ro//showthread.php?t=29)

Maryus3D 01-10-2009 21:48

G92 pleaca de la GTS250\9800GTX+ in jos :p. Eu vreau Quadro mod pentru GT300 NOW !!!!!!!!!!!!!!!!!!!!!!!!! =))

matose 01-10-2009 21:50

Ar trebui sa ai in primul rand GT300 si apoi sa se lanseze modelul Quadro echivalent. Nu crezi? :D

Enz0 01-10-2009 21:52

Era pur si simplu o referire la scorul scos de 4870 si 4890 comparat cu PPD-ul scos de "nemuritoarea" serie G92.Imi cer scuze daca te-am indus in eroare cu post-urile mele.Trebuia sa grupez rezultatele in [email protected] si astfel nu ajungeam sa ne zapacim de tot.
Cred ca am ajuns sa vorbim impreuna si sa ne intelegem separat :)))
@Maryus
Da, crezi ca poti sa ne explici cum va functiona MOD-ul?
Cum transformi din SIMD in MIMD?That is the question :>

Se pare ca placa video prezentata de Huan este o placa video ce nu functioneaza
http://bbs.chiphell.com/attachments/...a839825a46.jpg
Quote:

the retention screws for the gpu are missing and white is showing through. styrofoam?
Mai punem si faptul ca un power conector e lipit cum trebuie si celalalt e lipit cu super glue?Take a look la patratelul rosu.
Paper Launch FTW =))
http://www.semiaccurate.com/forums/showthread.php?t=844

Maryus3D 01-10-2009 22:28

Enz0 uite aici nu are nici o treaba cu SIMD sau MIMD http://lab501.ro/forum/showthread.php?t=310 in grafica ATi sucks big time deci nvidia o duce bine in GPGPU computing, in grafica, in gaming cu Physx, iar ATi o duce prost in grafica, prost in GPGPU computing si binisor in gaming si asta nu e de ieri :(. Concluzia mea este ca ATi traieste dupa o mana de gameri pe cand nvidia de peste tot.

@matose asa este dar na sunt nerabdator :p.

Enz0 01-10-2009 22:31

Stiu de mod-ul ala :)
La fel cum spunea Matose, ca sa faci un MOD de quadro trebuie sa ai un GT300, pentru ca din orice alta placa...nu ai cum(de aia am zis ... de faza SIMD vs MIMD).
Dupa cum vezi mai sus... GT300 nu prea exista(a fost o lansare doar pe hartie si ceva sliduri pentru ca placa video folosita a fost doar o macheta)
nVIDIA trebuie sa le dea ceva fanBOIlor pentru ca altfel, vor alerga disperati la ATI, asa ca au ales...o carcasa frumos lucioasa lipita cu superglue =))

Maryus3D 01-10-2009 22:34

1 Attachment(s)
Da :D oricum ideea cu ECC mi se pare geniala + un CUDA extrem de puternic o sa rupa in Premiere in After Effects. Sigur vor optimiza Mental Ray pe GT300 o sa-l faca ceva de genu http://furryball.aaa-studio.cz/about-furry-ball/ pai un GTX285 rupe un i7 :D. Asta imi palce la nvidia chestii de marketing dar usefull.

i7 vs GTX285
Attachment 2279

Furry ball asta fiind nou nu-i asa de incredere dar Mental Images care este cu nvidia ar putea sa faca ceva asemanator. Mental Ray este matur :).

Monstru 01-10-2009 22:40

Quote:

Dupa cum vezi mai sus... GT300 nu prea exista(a fost o lansare doar pe hartie si ceva sliduri pentru ca placa video folosita a fost doar o macheta)
S-a lansat GT300??? La naiba, noi nu stiam...

pme 01-10-2009 22:43

[QUOTE=Enz0;8271]Dupa cum vezi mai sus... GT300 nu prea exista(a fost o lansare doar pe hartie si ceva sliduri pentru ca placa video folosita a fost doar o macheta)

ce zici de cum se misca macheta asta http://www.youtube.com/watch?v=79mvSWRocq4 ?

cred ca cea mai desteapta miscare NVIDIA va fi sa lase Ati sa arunce pe piata noua placa video 5870, sa inceapa criticile si testele dure odata cu trecerea perioadei de entuziasm si apoi sa scoata acest "FERMI" care se pare ca are ceva potential in el.

DiaboRO 01-10-2009 22:57

Quote:

Originally Posted by Enz0 (Post 8275)
Eu unul pana nu vad placa video (asa cum am vazut 5870 in PC ruland un simulator de aviatie pe 6 ecrane) filmata, pusa la munca..... nu cred nimic.In special daca vine din partea nVIDIA.

Asta spuneam si eu ... nVidia tot ameninta de ceva timp ca vine cu ceva care sa fie cu adevarat nou ... :cool:

Enz0 01-10-2009 23:03

Inca ceva ce ma face sa fierb.nVIDIA prin ultimele drivere a anulat suportul PhysX daca placa video principala nu apartine nVIDIA.De ce a facut asta?Pai, MSI anunta placa de baza cu Lucid Hydra,Lucid se bat cu pumnii in piept ca fac si dreg multe si ca pot combina sub Win 7 ATI+nVIDIA=LOVE(vezi Anandtech).
Presupunem ca Fermi este un foarte bun cGPU dar in gaming nu straluceste..Nu ti se pare normal sa faci acelasi lucru ce l-a facut nVIDIA?
Decat sa cumpere lumea 5870 si sa foloseasca FERMI ca PhysX accelerator, mai bine ii obligi sa iti cumpere placa video si le "dai voie" sa foloseasca PhysX(pentru ca Havok au adormit).
Sunt multe chestii la care cei de la nVIDIA s-au ganfit si nu mi se pare normal ce au facut, mai ales in conditiile in care au "oferit" PhYsX la liber.Daca au inceput sa recurga la chestii din astea, totusi cred ca le e putin frica.
Sunt deja foarte multe situri unde vezi oameni care se plang ca au cumparat 5870 si au vrut sa foloseasca vechile placi(8800GT/GTX/Ultra samd) ca PhysX accelerator pentru ca inca au putere in ele, dar nu reusit acest lucru.De ce? Ask nVIDIA

Triplu_Z 01-10-2009 23:08

Quote:

Originally Posted by Enz0 (Post 8271)
La fel cum spuna fost o lansare doar pe hartie

Nu a avut loc nici o lansare PUNCT.A fost doar asa o conferimiar d-aia ... sa zica nVidia ca a lor e mai mare ca a alora de la ATI.De ce crezi ca defapt au prezentat un plastic dildo ?

Monstru 01-10-2009 23:19

Enzo - putin mai mult respect nu strica, daca nu vrei sa ne indispui. Inteleg parerea ta despre suportul din driveri, si asta chiar este un subiect de discutat, dar partea cu lansarea se pare ca esti singurul care nu a inteles-o pe deplin. Incearca sa te gandesti mai mult inainte sa postezi si sa fi putin mai politicos. Multumesc.

nr4 01-10-2009 23:42

Am vizionat primele doua parti ale conferintei si pot spune ca s-au prezentat elemente extrem de interesante pe partea de GPU computing.
Pur si simplu s-au prezentat idei, concepte, aplicatii existente si viitorul debugger Nexus.
Partea de gaming nu a fost adusa in discutie, deci nu s-a facut nici o comparatie cu ATI.

Pe partea hardware s-a prezentat un produs Tesla bazat pe arhitectura Fermi. Ca e real sau nu acel exemplar, este neimportant.

Enz0 02-10-2009 00:12

Pai daca te pui sa faci o lectura despre cat de bine se intelege MIMD cu 3d-ul sau cu postura de cGPU, iti dai seama defapt incotro se indreapta nVIDIA.
UNde? Simplu... in aceeasi directie ca si Lara The Bee doar ca are avantajul unei vaste experiente in 3D si are avantajul unui GPU care e feroce in calcule.
Un profesor de informatica mi-a facut o analogie in lumea reala.Diferenta dintre un CPU si GPU.
Pune intr-o sala 100 de studenti si da-le o problema de matematica, apoi in alta sala un profesor de matematica ce trebuie sa rezolve aceeasi problema.
Cine va termina primul? Cei 100 sau profesorul?Dar daca le dai celor 100 de studenti cate o problema fiecaruia de rezolvat?Dar daca ii dai profesorului 100 de probleme diferite de rezolvat?
Exact asa sta situatia si la CPU vs GPU.Acel profesor are imaginatie, poate face mai multe lucruri deodata dar este limitat, poate inventa formule si poate da un raspuns mai rapid decat un student care a trebuit instruit si i s-au predat formule pentru a putea rezolva acea problema(a trebuit creeat un program care sa invete GPU cum sa calculeze), in schimb cand ii dai 100 de probleme acelui profesor sa rezolve, va fi batut la timp de acei 100 de studenti.
Un CPU normal este limitat la calcule paralele, dar stie sa faca mult mai multe fara sa fim nevoiti sa scriem fiecare linie de comanda pentru executia unei operatii, in schimb cand vine vorba de randarea grafica.Verificati CPU test inca odata in 3Dmark06 si vedeti o parte din performantele Larrabee.

Jocker 02-10-2009 06:24

Este destul de buna comparatia cu stadiul actual dintre CPU si GPU.

lucassp 02-10-2009 09:29

Quote:

Originally Posted by Enz0 (Post 8300)
Un CPU normal este limitat la calcule paralele, dar stie sa faca mult mai multe fara sa fim nevoiti sa scriem fiecare linie de comanda pentru executia unei operatii, in schimb cand vine vorba de randarea grafica.Verificati CPU test inca odata in 3Dmark06 si vedeti o parte din performantele Larrabee.

Unitatea vectoriala din fiecare nucleu Larrabee e de ~4 ori mai jmechera decat cea din i7. Si se anunta 32 de nuclee. De aici o sa vina puterea de randare a Larrabee. Iar in GPGPU lucrurile ar trebui sa fie mult simplificate datorita nucleelor x86. Spre exemplu x264 ruleaza lejer pe 8-16 nuclee in momentul de fata cu API-urile actuale. O portare pe Larrabee ar fi infinit mai simpla decat una pe DirectX Compute/OpenCL/CUDA. Chiar daca nucleele din Larrabee o sa fie "in order" (sa nu uitam ca si IBM Xenon si Cell au la baza tot nuclee "in order") un compilator bun va face treaba.

Eu am dubii legate de capacitatea Intel de a scrie un driver/layer pentru DirectX 11/OpenGL :).

Enz0 02-10-2009 11:33

Modul in care Larrabee se ocupa de rasterizare e expus foarte pe larg aici:
http://www.ddj.com/architect/217200602
E o lectura foarte frumoasa.
Quote:

As I mentioned earlier, software rasterization will never match dedicated hardware peak performance and power efficiency for a given area of silicon, but so far, it's proven to be efficient enough. It also has a significant advantage, in that because it uses general-purpose cores, the same resources that are used for rasterization can be used for other purposes at other times, and vice versa. As Tom Forsyth puts it, because the whole chip is programmable, we can effectively bring more square millimeters to bear on any specific task as needed -- up to and including the whole chip. In other words, the pipeline can dynamically reconfigure its processing resources as the rendering workload changes. If we get a heavy rasterization load, we can have all the cores working on it. It wouldn't be the most efficient rasterizer per square millimeter, but it would be one heck of a lot of square millimeters of rasterizer, all doing what was most important at that moment; in contrast to a traditional graphics chip with a hardware rasterizer, where most of the circuitry would be idle when there was a heavy rasterization load. A little while later, when the load switches to shading, the whole Larrabee chip can become a shader if necessary. Software simply brings a whole different set of strengths and weaknesses to the table.
Pentru Intel va fi mai greu cu partea de grafica pentru ca rasterizarea se va face din software.Fiecare nucleu sau chiar tot cipul poate deveni shader atunci cand e nevoie dar totul va trebui facut din soft.
nVidia in schimb incearca cealalta parte a monedei.Pastreaza abilitatile de GPU dar introduce functii noi pentru o procesare de date mult mai eficienta.

Parerea mea e ca e foarte greu sa le faci pe amandoua perfect.Ori renunti la performantele grafice si te axezi mai mult pe paralel computing, ori te axezi pe 3D rendering si neglijezi partea de paralel computing.Nu stiu cum vor face ca un GPU sa faca si partea de Shading si partea de rasterization perfect.
Ati a incercat ambele parti incepand cu seria 2000.Din cate vedem in data sheet avem o putere teoretica de calcul foarte mare dar in practica e aproape inexistenta.

In final ajungem la o concluzie destul de nasoala:avem posibilitatea sa creeam cipuri foarte complexe cu puteri de calcul foarte mari, le putem folosi in operatii foarte complexe dar.... partea de programare a ramas foarte in urma.

De cand a iesit ATI cu seria 2000 s-a pus problema folosirii cat mai eficiente a fiecarui procesor scalar.Pentru acest lucru ai nevoie de un driver cat mai capabil care sa struneasca 100% fiecare procesor scalar/shader unit/cuda core sau cum s-or mai chema.

Atat timp cat partea de programare/implementare API ramane in urma, poti sa ai CGPU-uri cu puteri de calcul teoretice si de 10TFlops...pentru ca le ai degeaba.Vor fi folosite doar in limita implementarii si instructiunilor primite.

eXpander 02-10-2009 13:16

Uite cum se descurca Larabee in RayTracing:

[yt]http://www.youtube.com/watch?v=G-FKBMct21g[/yt]

Sub 30 fps-uri in Quake Live intr-o scena statica... hmmm...

Uite cum se descurca Nvidia:

[yt]http://www.youtube.com/watch?v=pt1jKQpcAXM[/yt]

25fps intr-o scena relativ simpla... Cu siguranta ca in scena de Quake Live s-ar fi descurcat si mai prost.

@ Enz0: cand mai scrii mesaje lungi, mai lasa si tu spatii intre paragrafe, ca e groaznic de obositor sa citesc.

Enz0 02-10-2009 15:20

http://www.tgdaily.com/content/view/38145/135/
E veche stirea dar parca si ATI a demonstrat ray tracing cu 4800.
Quote:

Originally Posted by TgDaily
In terms of performance, the Radeon 2900XT 1GB rendered Transformers scenes in 20-30 frames per second, in 720p resolution and no Anti-Aliasing. With the Radeon 3870, the test scene jumped to 60 fps, with a drop to 20 fps when the proprietary Anti-Aliasing algorithm was applied. Urbach mentioned that the Radeon 4870 hits the same 60 fps – and stays at that level with Anti-Aliasing (a ray-tracer is not expecting more than 60 fps.) JulesWorld’s technology also works on Nvidia GeForce 8800 cards and above, but the lack of a tessellation unit causes a bit more work on the ray-tracer side.


eXpander 02-10-2009 15:24

Pai toata lumea a demonstrat RayTracing. Am expus doar Nvidia, pentru ca suntem pe un thread despre Nvidia, si Larabee pentru ca s-a adus vorba de Larabee ;)

Eu abia astept sa vad raytracing randat real-time in aplicatii reale, nu doar tech-demo-uri. Insa, dupa cum se vede in filmuletul cu Larabee, se pare ca mai avem destul de mult de asteptat pana sa ajungem la raytracing real-time intr-un joc.


All times are GMT +3. The time now is 15:49.

Powered by vBulletin® Version 3.8.6
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd.