![]() |
G92 pleaca de la GTS250\9800GTX+ in jos :p. Eu vreau Quadro mod pentru GT300 NOW !!!!!!!!!!!!!!!!!!!!!!!!! =))
|
Ar trebui sa ai in primul rand GT300 si apoi sa se lanseze modelul Quadro echivalent. Nu crezi? :D
|
Era pur si simplu o referire la scorul scos de 4870 si 4890 comparat cu PPD-ul scos de "nemuritoarea" serie G92.Imi cer scuze daca te-am indus in eroare cu post-urile mele.Trebuia sa grupez rezultatele in [email protected] si astfel nu ajungeam sa ne zapacim de tot.
Cred ca am ajuns sa vorbim impreuna si sa ne intelegem separat :))) @Maryus Da, crezi ca poti sa ne explici cum va functiona MOD-ul? Cum transformi din SIMD in MIMD?That is the question :> Se pare ca placa video prezentata de Huan este o placa video ce nu functioneaza http://bbs.chiphell.com/attachments/...a839825a46.jpg Quote:
Paper Launch FTW =)) http://www.semiaccurate.com/forums/showthread.php?t=844 |
Enz0 uite aici nu are nici o treaba cu SIMD sau MIMD http://lab501.ro/forum/showthread.php?t=310 in grafica ATi sucks big time deci nvidia o duce bine in GPGPU computing, in grafica, in gaming cu Physx, iar ATi o duce prost in grafica, prost in GPGPU computing si binisor in gaming si asta nu e de ieri :(. Concluzia mea este ca ATi traieste dupa o mana de gameri pe cand nvidia de peste tot.
@matose asa este dar na sunt nerabdator :p. |
Stiu de mod-ul ala :)
La fel cum spunea Matose, ca sa faci un MOD de quadro trebuie sa ai un GT300, pentru ca din orice alta placa...nu ai cum(de aia am zis ... de faza SIMD vs MIMD). Dupa cum vezi mai sus... GT300 nu prea exista(a fost o lansare doar pe hartie si ceva sliduri pentru ca placa video folosita a fost doar o macheta) nVIDIA trebuie sa le dea ceva fanBOIlor pentru ca altfel, vor alerga disperati la ATI, asa ca au ales...o carcasa frumos lucioasa lipita cu superglue =)) |
1 Attachment(s)
Da :D oricum ideea cu ECC mi se pare geniala + un CUDA extrem de puternic o sa rupa in Premiere in After Effects. Sigur vor optimiza Mental Ray pe GT300 o sa-l faca ceva de genu http://furryball.aaa-studio.cz/about-furry-ball/ pai un GTX285 rupe un i7 :D. Asta imi palce la nvidia chestii de marketing dar usefull.
i7 vs GTX285 Attachment 2279 Furry ball asta fiind nou nu-i asa de incredere dar Mental Images care este cu nvidia ar putea sa faca ceva asemanator. Mental Ray este matur :). |
Quote:
|
[QUOTE=Enz0;8271]Dupa cum vezi mai sus... GT300 nu prea exista(a fost o lansare doar pe hartie si ceva sliduri pentru ca placa video folosita a fost doar o macheta)
ce zici de cum se misca macheta asta http://www.youtube.com/watch?v=79mvSWRocq4 ? cred ca cea mai desteapta miscare NVIDIA va fi sa lase Ati sa arunce pe piata noua placa video 5870, sa inceapa criticile si testele dure odata cu trecerea perioadei de entuziasm si apoi sa scoata acest "FERMI" care se pare ca are ceva potential in el. |
Quote:
|
Inca ceva ce ma face sa fierb.nVIDIA prin ultimele drivere a anulat suportul PhysX daca placa video principala nu apartine nVIDIA.De ce a facut asta?Pai, MSI anunta placa de baza cu Lucid Hydra,Lucid se bat cu pumnii in piept ca fac si dreg multe si ca pot combina sub Win 7 ATI+nVIDIA=LOVE(vezi Anandtech).
Presupunem ca Fermi este un foarte bun cGPU dar in gaming nu straluceste..Nu ti se pare normal sa faci acelasi lucru ce l-a facut nVIDIA? Decat sa cumpere lumea 5870 si sa foloseasca FERMI ca PhysX accelerator, mai bine ii obligi sa iti cumpere placa video si le "dai voie" sa foloseasca PhysX(pentru ca Havok au adormit). Sunt multe chestii la care cei de la nVIDIA s-au ganfit si nu mi se pare normal ce au facut, mai ales in conditiile in care au "oferit" PhYsX la liber.Daca au inceput sa recurga la chestii din astea, totusi cred ca le e putin frica. Sunt deja foarte multe situri unde vezi oameni care se plang ca au cumparat 5870 si au vrut sa foloseasca vechile placi(8800GT/GTX/Ultra samd) ca PhysX accelerator pentru ca inca au putere in ele, dar nu reusit acest lucru.De ce? Ask nVIDIA |
Quote:
|
Enzo - putin mai mult respect nu strica, daca nu vrei sa ne indispui. Inteleg parerea ta despre suportul din driveri, si asta chiar este un subiect de discutat, dar partea cu lansarea se pare ca esti singurul care nu a inteles-o pe deplin. Incearca sa te gandesti mai mult inainte sa postezi si sa fi putin mai politicos. Multumesc.
|
Am vizionat primele doua parti ale conferintei si pot spune ca s-au prezentat elemente extrem de interesante pe partea de GPU computing.
Pur si simplu s-au prezentat idei, concepte, aplicatii existente si viitorul debugger Nexus. Partea de gaming nu a fost adusa in discutie, deci nu s-a facut nici o comparatie cu ATI. Pe partea hardware s-a prezentat un produs Tesla bazat pe arhitectura Fermi. Ca e real sau nu acel exemplar, este neimportant. |
Pai daca te pui sa faci o lectura despre cat de bine se intelege MIMD cu 3d-ul sau cu postura de cGPU, iti dai seama defapt incotro se indreapta nVIDIA.
UNde? Simplu... in aceeasi directie ca si Lara The Bee doar ca are avantajul unei vaste experiente in 3D si are avantajul unui GPU care e feroce in calcule. Un profesor de informatica mi-a facut o analogie in lumea reala.Diferenta dintre un CPU si GPU. Pune intr-o sala 100 de studenti si da-le o problema de matematica, apoi in alta sala un profesor de matematica ce trebuie sa rezolve aceeasi problema. Cine va termina primul? Cei 100 sau profesorul?Dar daca le dai celor 100 de studenti cate o problema fiecaruia de rezolvat?Dar daca ii dai profesorului 100 de probleme diferite de rezolvat? Exact asa sta situatia si la CPU vs GPU.Acel profesor are imaginatie, poate face mai multe lucruri deodata dar este limitat, poate inventa formule si poate da un raspuns mai rapid decat un student care a trebuit instruit si i s-au predat formule pentru a putea rezolva acea problema(a trebuit creeat un program care sa invete GPU cum sa calculeze), in schimb cand ii dai 100 de probleme acelui profesor sa rezolve, va fi batut la timp de acei 100 de studenti. Un CPU normal este limitat la calcule paralele, dar stie sa faca mult mai multe fara sa fim nevoiti sa scriem fiecare linie de comanda pentru executia unei operatii, in schimb cand vine vorba de randarea grafica.Verificati CPU test inca odata in 3Dmark06 si vedeti o parte din performantele Larrabee. |
Este destul de buna comparatia cu stadiul actual dintre CPU si GPU.
|
Quote:
Eu am dubii legate de capacitatea Intel de a scrie un driver/layer pentru DirectX 11/OpenGL :). |
Modul in care Larrabee se ocupa de rasterizare e expus foarte pe larg aici:
http://www.ddj.com/architect/217200602 E o lectura foarte frumoasa. Quote:
nVidia in schimb incearca cealalta parte a monedei.Pastreaza abilitatile de GPU dar introduce functii noi pentru o procesare de date mult mai eficienta. Parerea mea e ca e foarte greu sa le faci pe amandoua perfect.Ori renunti la performantele grafice si te axezi mai mult pe paralel computing, ori te axezi pe 3D rendering si neglijezi partea de paralel computing.Nu stiu cum vor face ca un GPU sa faca si partea de Shading si partea de rasterization perfect. Ati a incercat ambele parti incepand cu seria 2000.Din cate vedem in data sheet avem o putere teoretica de calcul foarte mare dar in practica e aproape inexistenta. In final ajungem la o concluzie destul de nasoala:avem posibilitatea sa creeam cipuri foarte complexe cu puteri de calcul foarte mari, le putem folosi in operatii foarte complexe dar.... partea de programare a ramas foarte in urma. De cand a iesit ATI cu seria 2000 s-a pus problema folosirii cat mai eficiente a fiecarui procesor scalar.Pentru acest lucru ai nevoie de un driver cat mai capabil care sa struneasca 100% fiecare procesor scalar/shader unit/cuda core sau cum s-or mai chema. Atat timp cat partea de programare/implementare API ramane in urma, poti sa ai CGPU-uri cu puteri de calcul teoretice si de 10TFlops...pentru ca le ai degeaba.Vor fi folosite doar in limita implementarii si instructiunilor primite. |
Uite cum se descurca Larabee in RayTracing:
[yt]http://www.youtube.com/watch?v=G-FKBMct21g[/yt] Sub 30 fps-uri in Quake Live intr-o scena statica... hmmm... Uite cum se descurca Nvidia: [yt]http://www.youtube.com/watch?v=pt1jKQpcAXM[/yt] 25fps intr-o scena relativ simpla... Cu siguranta ca in scena de Quake Live s-ar fi descurcat si mai prost. @ Enz0: cand mai scrii mesaje lungi, mai lasa si tu spatii intre paragrafe, ca e groaznic de obositor sa citesc. |
http://www.tgdaily.com/content/view/38145/135/
E veche stirea dar parca si ATI a demonstrat ray tracing cu 4800. Quote:
|
Pai toata lumea a demonstrat RayTracing. Am expus doar Nvidia, pentru ca suntem pe un thread despre Nvidia, si Larabee pentru ca s-a adus vorba de Larabee ;)
Eu abia astept sa vad raytracing randat real-time in aplicatii reale, nu doar tech-demo-uri. Insa, dupa cum se vede in filmuletul cu Larabee, se pare ca mai avem destul de mult de asteptat pana sa ajungem la raytracing real-time intr-un joc. |
All times are GMT +3. The time now is 15:49. |
Powered by vBulletin® Version 3.8.6
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd.