Stránka 16 z 89

Napsal: 13 srp 2008 13:18
od cryme
Tím mi ale neodpovídáš na otázku. Proč AMD a Intel vyvýjejí akceleraci přes CPU, když vidí, že není tak efektivní, jak přes GPU?

Chápu, že se procesor při většině FPS nudí a nemá co dělat, ale výsledky PhysXu jsou docela jasné.

Napsal: 13 srp 2008 13:24
od Solitary
Nikdo nevyvijel akceleraci pres CPU. Havoc byl vytvoren uz nejaky cas drive. Vsak si vzpomen na prvni hry, ktere meli Havoc a ragdoll. A zkratka, co je vypocetni srdce pocitace? CPU, tedy tu fyziku muselo pocitac CPU, logicky... grafika donedavna delala jen to na co byla primarne urcena... pocitala grafiku. To az v poslednich letech se graficke akceleratory zacali menit. Zacala s tim ATI, kdyz vyvinula svuj GPGPU system (to co dnes Nvidia nazyva CUDA, ktery je pouzivan od 8.rady Geforce, tak ATI uz podobny system ma pritomny na svych kartach delsi dobu) coz umoznuje vyuzivat GPU na jine vypocty nez graficke. Napriklad ATI uz nekolik let umoznuje pocitat svymi GPU Folding@home (jestli znas) ... to se resi prave pres tento system.

Havoc byl v nedavnych letech odkoupen Intelem, ktery ho ale nechal pracovat i nadale samostatne. Intel se ted s AMD podelil u tuto technologii a zacalo se pracovat na GPU klientu (do toho GPGPU systemu) ktery tez umozni Havoc zpracovavat i pres GPU. To ze muzes pak fyziku zpracovavat pres GPU (ktere je nesrovnatelne vykonejsi nez typicky x86 CPU) dovoli udelat fyziku mnohem slozitejsi, jelikoz na to bude vykon. Coz je dalsi duvod, proc je PhysX tak narocne.

Napsal: 13 srp 2008 13:29
od cryme
Díky za odpovědi :)

Napsal: 13 srp 2008 14:49
od Ghost
solitary: velky rozdiel medzi vznikom GPGPU api pre ati a nvidiu nie je. CTM od ati sa objavilo koncom roka 2006 a CUDA zaciatkom roka 2007. este je tusim aj OpenCL od apple a mozno aj ine. skor ci neskor z toho vznikne jedno SDK, ktoremu sa nakoniec prisposobia vsetci.

co sa tyka folding@home tak GPGPU api od ati/nvidie pre vypocty zacali pouzivat az tak tusim pol roka dozadu. na ATI grafikach zo serie R5xx to chodilo predtym tusim cez api directx.

Napsal: 13 srp 2008 19:06
od Solitary
Co jsem cetl tak ATI s CTM seklo a da se na OpenCL.

Napsal: 13 srp 2008 19:18
od NeoPlex
hm sry za mystifikaci. Trosku spatne jsem pochopil spravny princip

Napsal: 13 srp 2008 19:19
od Ghost
solitary: neseklo http://www.cdr.cz/a/25073 minuly rok premenovali CTM na Stream SDK. do tohto SDK akurat pridaju aj podporu pre OpenCL podobne ako pridala nvidia PhysX do svojho CUDA.

Napsal: 14 srp 2008 00:02
od Zax19
zajímavé informace
vim, že je to hodně amaterská otázka, ale pokud bude tedy fyziku obstarávat GPU, co zbyde na CPU? Vím, že je to irelevantní, protože Steam engine je skvěle HW vyváženej v poměru výkon/nároky, ale Half-Life ep.2 už teď hraju bez rozdílu od maximální frekvence 2.4GHz na poloviční takty (CPU, paměti)
Jinak možete mě odkázat na nějaké preludium do charakteru práce CPU a GPU?
Díky :)

Napsal: 14 srp 2008 16:10
od Wlko
Zdravím,
chtěl bych se zeptat, jestli bude nějaký signifikantní rozdíl mezi ati mobility radeon 3470 a ati mobility radeon 3470 xt. Koupil jsem totiž notebook s tím, že tam bude xt, ale je tam jen 3470

Napsal: 14 srp 2008 16:23
od Chlebovnik
Pokud je mi známo, tak žádná 3470XT neexistuje. U řad 3xxx už ATI od označení XT ustoupila. Jinak mezi staršími HD2600 a HD2600XT byl nárůst výkonu cca. o 1/3 ve prospěch XT verze.

Napsal: 14 srp 2008 16:29
od Wlko

Napsal: 14 srp 2008 16:36
od Chlebovnik
Podle mě mají chybu v popisku.

Napsal: 14 srp 2008 16:43
od Wlko

Napsal: 14 srp 2008 16:54
od Vojťas
Když tu chybu udělá už výrobce nebo distributor na svém webu, tak se to pak rozleze skoro všude ...

Napsal: 14 srp 2008 16:59
od Thorus
Můžu se zeptat kde stahovat drivery na mobilné grafické karty Nvidia? To jsou ty normální forceware co se dají stáhnout na nvidia.com nebo musím nějaké speciální?