Armand LeHess 0 Posté(e) le 13 juillet 2006 Partager Posté(e) le 13 juillet 2006 Lors de sa sortie le Havok 2.0 avait fait la une des news informatiques avec ses possibilités énormes. La version 3 est passée relativement inaperçue bien qu'elle ait vu arriver la gestion multicore. Avec le Havok 4.0, c'est le multicore, le 64 bits en natif et l'exploitations des SM3.0 qui sont également au programme. La génération de jeux utilisant cette technologie devrait arriver en fin d'année et au début de l'année prochaine avec des titres tels que Hellgate London ou encore le prochain Remedy, Alan Wake. Remedy avait été le premier à utiliser le Havok 2.0 (dans Max Payne 2) peu avant Painkiller et autres Hl². Le fait que la suite Havok 4 utilise les fonctions Shader Model 3 des cartes graphiques (NVidia 6xxx et 7xxx et Radeon 1xxx) devrait donner un avantage à Havok face au PPU d'Aegia, bien que la technologie Aegia ait été exploitée 1 an plus tôt. Plus d'infos sur Clubic ou sur le site d' Havok Lien à poster
black_fett 0 Posté(e) le 13 juillet 2006 Partager Posté(e) le 13 juillet 2006 Personnellement, je ne suis pas sûr qu'utiliser les Shaders Models 3 pour les calculs physiques soit une bonne chose, pour le consommateur. Je pense que la solution d'Aegia avait le mérite de tenter de révolutionner un peu le matos informatique, un comme a pu le faire créative en son temps. Malheureusement, le manque de soutient, une carte au prix exorbitant (quoique... j'y reviendrai) et surtout (faute d'optimisations et d'exemples concrets) des performances décevantes... tous ces éléments permettent à la solution d'Havok de prendre le dessus. Havok permet au constructeur de carte 3D de relancer un peu plus leurs ventes, à mon avis. Effectivement, une seule carte 3D ne pourra soulager - à elle seule - le CPU, sous peine de réduire les performances du rendu 3D... Pour être vraiment efficace, le dispositif nécessite non pas une carte 3D, mais deux, via les technologies respectives des constructeurs : le SLI pour nVidia et le CrossFire d'ATI. La débauche de puissance ainsi disponible permet alors de s'occuper largement et des calcules 3D et des calculs Physique ! Cependant, s'il nous faut DEUX cartes graphiques, celles ci dépassant facilement les 400€ l'unité... les quelques 300€ (en comptant large) de la carte d'Aegia restent très compétitifs (400*2 > 300+400). Lien à poster
Armand LeHess 0 Posté(e) le 13 juillet 2006 Auteur Partager Posté(e) le 13 juillet 2006 Ouais, mais je pense que 2 6800 GT en SLI ça devrait quand même suffire pour afficher de l'U3 en 1280*1024 ! Lien à poster
black_fett 0 Posté(e) le 13 juillet 2006 Partager Posté(e) le 13 juillet 2006 Parlons du future ! Parlons des futures cartes 3D, compatibles DirectX 10... Je suis d'accord avec toi, dans l'immédiat, la solution de Havok est sacrement intéressante, surtout pour les personnes déjà équipées du SLI ou CrossFire... Pour les autres, le gain apporté par le rachat d'une seconde carte graphique sera double. Mais, pour les générations à venir, je ne suis pas certain que ce soit la meilleurs solution ; que ce soit la plus rentable pour un consommateur désireux de changer de configuration ; que ce soit bon pour le marché de l'informatique (oui, grâce au Havok, nVidia et ATI monopolisent encore une autre parcelle... Aegia aurait (peut être) permis à d'autres constructeurs de se développer). Ce n'est que mon humble avis... Mais faut relancer le niveau ; faut qu'on participe... Alors on essaye ! Lien à poster
LemonSyDe 0 Posté(e) le 14 juillet 2006 Partager Posté(e) le 14 juillet 2006 Tout le monde de plusieurs CG pour faire de la physique... Pourquoi ne pas utiliser un des coeurs de nos futurs CPU pour traiter la physique dans un jeu ???? Ceux-ci ne demanderont pas 2 voire 4 cores à temps plein pour fonctionner. Lien à poster
Diffty+ 0 Posté(e) le 14 juillet 2006 Partager Posté(e) le 14 juillet 2006 Une carte pour gérer la physique à elle seule... Ca me parait un peu exagéré... Lien à poster
black_fett 0 Posté(e) le 15 juillet 2006 Partager Posté(e) le 15 juillet 2006 Tout le monde (parle ?) de plusieurs CG pour faire de la physique... Pourquoi ne pas utiliser un des coeurs de nos futurs CPU pour traiter la physique dans un jeu ???? Ceux-ci ne demanderont pas 2 voire 4 cores à temps plein pour fonctionner. Quand les jeux seront programmer de tels façons qu'ils fonctionneront avec plusieurs processus... c'est un peu ce qui se passera.Au passage, je rappelle qu'en l'absence de puces dédiés aux calculs physiques, c'est le CPU qui prend tout... Diffty > Soit je comprends pas ta remarque, soit c'est toi qui n'as pas bien compris la mienne... Pour reprendre l'exemple de la 6800GT, une seule commence déjà à peiner dans les nouveaux titres (j'en ai une...), alors si tu crois qu'elle pourra en plus soulager le CPU des calculs physiques... edit : J'entends par "peiner" le fait que je commence à enlever pas mal d'options pour que ça reste fluide... Lien à poster
momo 18 Posté(e) le 15 juillet 2006 Partager Posté(e) le 15 juillet 2006 Boba Fett> les calculs physique sont essentiellement du travail du des matrices, ce genre de boulot est généralement rapide à resoudre sur des processeurs vectoriels. maintenant, devines ce qu'est un GPU ? le seul veritable problème néanmoins est que la precision d'un GPU est loin d'être géniale enfin bref : http://www.gpgpu.org/ Lien à poster
black_fett 0 Posté(e) le 15 juillet 2006 Partager Posté(e) le 15 juillet 2006 momo > Oui, oui (au pays des jouets), je savais... Enfin... plus ou moins... Mais voilà : [modechirac] Utiliser un GPU pour des calculs physiques n'est pas une mauvaise idée, ou une mauvaise solution. Cependant, ce n'est peut être pas la meilleurs. [/modechirac] Enfin, je dis ça... faut bien que quelqu'un défende un peu Aegia, non ? Lien à poster
momo 18 Posté(e) le 16 juillet 2006 Partager Posté(e) le 16 juillet 2006 ben l'engin d'aegia n'est rien de plus qu'un GPU sans affichage et sans AGP. l'obstacle principal des calculs via GPU est justement le désquilibre entre lecture et ecriture sur le bus AGP, face au PCI-e, on élimine l'obstacle principal aux calculs les plus complexes. Du coup, l'engin aegis n'a plus vraiment d'interet. (et bon, c'est un truc beaucoup trop spécialisé avec des resultats difficilement visibles pour le pequin moyen, donc comme les cartes son 96bits, ça a peu de chances de marcher) Lien à poster
black_fett 0 Posté(e) le 17 juillet 2006 Partager Posté(e) le 17 juillet 2006 momo > ok, ok... Donc, en fait... peu d'arguements sont en faveur d'Aegia, si je comprends bien... A moins, peut être, qu'ils ne baissent drastiquement le prix de la carte. Lien à poster
momo 18 Posté(e) le 18 juillet 2006 Partager Posté(e) le 18 juillet 2006 nope : le seul "espoir" serait de l'integrer directement dans une carte graphique, avec la création d'un joli standard genre OpenPhysics. Serieusement, j'aurai plus tendance à parier sur le saarcor que le ppu, là .. bon, c'est vrai qu'ils ne bossent pas dans le même domaine mais le saarcor simplifie les puces des gpu, simplifie les moteurs 3D et augmente la qualité graphique visiblement. Par contre, ce n'est encore qu'un projet universitaire. Lien à poster
Messages recommandés