Mirror's Edge: PhysX-jämförelse och systemkrav
Tycker detta gör väldigt mycket i en annars väldigt livlös miljö. Men att det krävs hårdvara med PhysX-stöd är löjligt. Visst avbelastar det processorn en del, men det har bevisats förr att det funkar hur bra som helst på en vanlig inte allt för klen processor. Effekterna är ju trots allt sällan särskillt omfattande, utan bara lite små saker här och där (Tråkigt och obegripligt nog).
Kommer tex ihåg hur hyfsat bra det gick att lira Cellfactor med min gamla Athlon 3200+ (Klockad som fan iof) Och processor-tekniken har kommit en bra bit sen dess.
jag tror ärligt talat att man kan göra exakt samma sak med en vanlig processor. bara att det blir tyngre om den ska beräkna den fysiken med. det jag menar är att physX inte gör allt det möjligt. den bara hjälper till.
PhysX är en mjukvara (API/middleware). Den supportar fysikfunktioner via CPU, det skulle vara lite svårt att ha spel som använder det på nuvarande konsoller annars. Men för att göra beräkningarna snabbare så fanns även en proprietär hårdvara och nu senare även stöd för att göra dem på vissa NVidia GPU.
det låter som du vet vad du talar om. dock så överrenstämmer det inte med vad jag hört/vet , så om du vill att jag ska tro på dig får du allt ta och skicka en trovärdig källa till dit uttalande.
Från wikipedia:
"PhysX is a proprietary realtime physics engine middleware SDK developed by NVIDIA.
The software was originally developed by Ageia as the NovodeX SDK. PhysX can also refer to a PPU add-in card designed by Ageia to accelerate PhysX-enabled video games.
Video games supporting hardware acceleration by PhysX can be accelerated by either a PhysX PPU or a CUDA-enabled GeForce GPU, thus offloading physics calculations from the CPU allowing it to perform other tasks faster, and as such, the whole system can provide a higher framerate, resulting in a smoother gaming experience.
In August 2008, NVIDIA released drivers that allow GeForce 8 series and above video cards to implement PhysX processing."
Nothing is Power without Control
jag tror ärligt talat att man kan göra exakt samma sak med en vanlig processor. bara att det blir tyngre om den ska beräkna den fysiken med. det jag menar är att physX inte gör allt det möjligt. den bara hjälper till.
PhysX är en mjukvara (API/middleware). Den supportar fysikfunktioner via CPU, det skulle vara lite svårt att ha spel som använder det på nuvarande konsoller annars. Men för att göra beräkningarna snabbare så fanns även en proprietär hårdvara och nu senare även stöd för att göra dem på vissa NVidia GPU.
det låter som du vet vad du talar om. dock så överrenstämmer det inte med vad jag hört/vet , så om du vill att jag ska tro på dig får du allt ta och skicka en trovärdig källa till dit uttalande.
Från wikipedia:
"PhysX is a proprietary realtime physics engine middleware SDK developed by NVIDIA.
The software was originally developed by Ageia as the NovodeX SDK. PhysX can also refer to a PPU add-in card designed by Ageia to accelerate PhysX-enabled video games.
Video games supporting hardware acceleration by PhysX can be accelerated by either a PhysX PPU or a CUDA-enabled GeForce GPU, thus offloading physics calculations from the CPU allowing it to perform other tasks faster, and as such, the whole system can provide a higher framerate, resulting in a smoother gaming experience.
In August 2008, NVIDIA released drivers that allow GeForce 8 series and above video cards to implement PhysX processing."
så killen ovan höll med mig eller vadå?
samma sak kunde likaväl ha gjorts genom processorn men nu kommer det bara fungera ihop med en nvidia gpu. havoc ftw.
så killen ovan höll med mig eller vadå?
samma sak kunde likaväl ha gjorts genom processorn men nu kommer det bara fungera ihop med en nvidia gpu. havoc ftw.
Gör man effektfysik på GPU istället för CPU så får man betydligt mycket mer beräkningskraft för pengarna (JFR att köpa en till processor mot att köpa ett extra grafikkort).
Havok jobbade ju på en egen GPUfysiklösning, tills dess att Intel köpte Havok och den lades ner i tysthet.
Lite info om FLOPS på GPU och CPU: [http://folk.uio.no/johans/publications/Seland.2007.Simula.pdf]
Hugget ur dokumentet:
4 core CPU (Core 2 4x3GHz): 96 Gflops(peak)
GPU (Nvidia G80): 330 Gflops (observed)
Enligt benchamarks de har gjort så fick de 10 till 30ggr prestandaökning när de exekverade på GPU istället för CPU.
Har svårt att tänka mig att man kan göra samma sak på CPU när det är så stor prestandaskillnad. Särskillt om man ska göra det på "en överbliven CPU-kärna" som flera pratar om med tanke på att en kärna ligger kring 25 Gflops.
Detta är ju bland dom första spelen som att ha något stöd för det.
Vad mer kan man vänta sig...
Första? Finns massor sedan flera år tillbaka.
Visst är väl GPU'n bättre än CPU'n för dessa beräkningar, men det är ju inte så att dom direkt utnyttjar det. Ge oss en riktig fysik-fest istället för fladdrande tygbitar. Då snackar vi framsteg. Det mesta som syns i denna filmen har redan gjorts med andra vanliga fysik-motorer som inte kräver någon speciell hårdvara.
Innan nvidia tog över physx medföljde det physx drivrutiner när man installerade ett spel med stöd för det. Då såg det ut så här:
http://www.youtube.com/watch?v=v8LpC0rrUC8
Och som ni säkert kommer ihåg så behövde man inte något PhysX kort för att köra detta program.
Mirrors edge fyisken ser exakt ut sådär, tyg som ser ut som resårband men klibbar och faller sönder som utkavlad deg gör.
så killen ovan höll med mig eller vadå?
samma sak kunde likaväl ha gjorts genom processorn men nu kommer det bara fungera ihop med en nvidia gpu. havoc ftw.
Jag bara förklarade att PhysX redan supportar fysikberäkningar på CPU (precis som t.ex. Havok) men att det mesta snacket har handlat om deras eget expansionskort. Det finns spel på konsoll som använder PhysX och då enbart jobbar med konsollens CPU. I och med att NVidia köpt upp Ageia (och PhysX) så har de styrt utvecklingen mot att köra fysikberäkningar på GPU istället.
Eftersom Havok numera är köpt av Intel så kommer de förstås att fortsätta jobba med enbart CPU-support för deras fysik.
så killen ovan höll med mig eller vadå?
samma sak kunde likaväl ha gjorts genom processorn men nu kommer det bara fungera ihop med en nvidia gpu. havoc ftw.
Jag bara förklarade att PhysX redan supportar fysikberäkningar på CPU (precis som t.ex. Havok) men att det mesta snacket har handlat om deras eget expansionskort. Det finns spel på konsoll som använder PhysX och då enbart jobbar med konsollens CPU. I och med att NVidia köpt upp Ageia (och PhysX) så har de styrt utvecklingen mot att köra fysikberäkningar på GPU istället.
Eftersom Havok numera är köpt av Intel så kommer de förstås att fortsätta jobba med enbart CPU-support för deras fysik.
Aegia drev det inte alls mot att kunna köra sin teknologi på en CPU utan på en dedikerad PPU. Deras instickskort blev dock en flopp. Aegia går att köra på en CPU också men inte alls med samma möjligheter som en dedikerad GPU/PPU har. Det handlar om hur avancerat man vill göra det. Än så länge är där inga spel direkt som använder sig av dess möjligheter ens i närheten av vad de är kapabla till.
Nvidia har valt rätt väg att gå för att pusha fram spelutvecklingen. Intel gick fel väg. Cpun har idag redan för mycket att göra i många fall, att lägga så pass tung fysikberäkning på den kan de bara glömma. Vilket de också gjort tror jag.
...kan de bara glömma. Vilket de också gjort tror jag.
Knappast, det har snarare fått Intel att vädra morgonluft. Tycker som att det låter som en ypperlig möjlighet att försöka få oss att köpa fler processorkärnor.
Ska även bli intressant att se vad som händer när Intel lanserar sitt försök att slå sig in i GPU-kriget (jag gissar på en flopp eftersom Nvidia och ATI redan har så stor marknadsandel).
Lite sorgligt att det utvecklas åt det håll som det gör, mot att det finns tre aktörer varav två sitter och gör både hårdvara och mjukvara, och mjukvaran är begränsad när den inte används med den egna hårdvaran.
Detta gör så att spelutvecklarna knappt kan använda mjukvaran fullt ut.
Någon som har hört talas om tesselering på GPU'n? Nähe? inte så konstigt. Det har länge funnits stöd för det på ATI-kort, men ingen utvecklare kan använda det eftersom Nvidia inte har någon motsvarighet. detta kan även bli gpu-fysikens öde.
Det bästa hade varit om hårdvaruutvecklare och mjukvaruutvecklarna hade varit oberoende av varandra, så att mjukvaran kunde gjorts kompatibel med all hårdvara.