Wault 6 Posté(e) le 15 novembre 2012 Partager Posté(e) le 15 novembre 2012 Le SP1 je crois que je l'ai installé depuis un petit moment en fait, tu as raison. La politique de M$ de ne plus porter les nouvelles versions de DX commence sérieusement à gonfler. J'essaierai d'installer les trucs dont parle le gars dans l'article juste avant de changer mon CPU puisque je n'aurai plus à craindre pour mon OS. Lien à poster
Carambar 18 Posté(e) le 16 novembre 2012 Auteur Partager Posté(e) le 16 novembre 2012 J'ai vu l'information ailleurs. Effectivement, ça commence à être gonflant de la part de MS, et je sens que je vais prendre de la distance avec le monde du jeu... A moins que Windows 8 ne se vende mal, et que MS ne réalise qu'il s'est tiré une balle dans le pied... Sans parler des éditeurs de jeux qui se limiteront peut-être d'eux-mêmes à DX11.0 ? J'ai aussi lu qu'il était déjà possible, via bidouille, de faire tourner DX10 sous XP. C'est un peu tard que je l'apprends, mais il sera alors peut-être possible de faire la même chose avec DX11.1 et Seven ? Lien à poster
momo 18 Posté(e) le 16 novembre 2012 Partager Posté(e) le 16 novembre 2012 Wault> d'un autre côté, cette politique a poussé Valve à tenter le portage de ses jeux sous linux, et de découvrir qu'OpenGL est désormais plus rapide que DirectX. Lien à poster
tbr 13 Posté(e) le 17 novembre 2012 Partager Posté(e) le 17 novembre 2012 Ah ? Parce que cela n'a pas toujours été le cas ? Lien à poster
Wault 6 Posté(e) le 17 novembre 2012 Partager Posté(e) le 17 novembre 2012 Non. Sous Windows OpenGL ne propose qu'une fraction des possibilités de Dx11, et toujours beaucoup plus lent ! Et ce, depuis au moins deux voire trois ans. Exemple, le moteur de bench Heaven qui permet de tester Dx9, Dx11 et OpenGL. Je perds dans les 10FPs minimum en OpenGL pour un rendu inférieur en qualité. Et je ne pense pas que les gars soient des petits rigolos vu qu'ils veulent vendent leur moteur de jeu au maximum. C'est la faute des pilotes en fait. AMD n'ayant plus de pognon, je suis certain que le dev OpenGL doit être tout seul (à supposer même qu'il y ait un spécialiste OpenGL chez AMD...) Quant à nVidia... ai-je besoin de mettre le gif de Linus Torvalds ! nVidia se consacre visiblement au calcul GPGPU et délaisse un tantinet le reste à ce que j'ai crû comprendre. Dx11.1 est juste une amélioration de DX11. En d'autres termes, l'installer sur Seven semble idiot dans le sens où c'est l'infrastructure même du système qui permet le gain de performance. M'enfin ça reste à prouver. Je ne sais pas si c'est Valve qui affirme que OpenGL est plus rapide que Dx11, mais outre le fait que ça ne veut pas dire grand chose en soit, je veux pas être méchant, mais les moteurs de jeu Valve ne sont pas à proprement parler "modernes". Enfin bref... Le principe même d'OpenGL sous-entend que l'on peut faire avec tout ce que fait Dx11 et même plus (le site http://www.geeks3d.com/ en est un bon exemple). Mais qu'on y arrive à le faire aussi bien... là j'ai du mal y croire, surtout du fait des pilotes. J'espère que c'est vrai, car pouvoir me passer totalement de Windows fait partie de mes rêves depuis fort fort longtemps. Mais honnêtement, je n'y crois pas un seul instant. Pas pour les rendus véritablement "modernes". Je ne demande qu'à être totalement détrompé dans un avenir proche. Lien à poster
momo 18 Posté(e) le 17 novembre 2012 Partager Posté(e) le 17 novembre 2012 'That the Linux version runs faster than the Windows version (270.6) seems a little counter-intuitive, given the greater amount of time we have spent on the Windows version,' the team explained. 'However, it does speak to the underlying efficiency of the kernel and OpenGL. Interestingly, in the process of working with hardware vendors we also sped up the OpenGL implementation on Windows: Left 4 Dead 2 is now running at 303.4 FPS with that configuration.' Lien à poster
Wault 6 Posté(e) le 18 novembre 2012 Partager Posté(e) le 18 novembre 2012 J'ai envie d'y croire. Surtout au fait que les pilotes OpenGL puissent enfin devenir équivalents aux pilotes D3D ! ça serait cool. Mais L4D 2 quoi... Je n'ai pas le jeu, je l'ai vu sur l'ordi de mon père... le rendu est tout sauf "moderne"... J'insiste, c'est comme HL² à son époque... le jeu était superbe grâce à son design et ses textures, mais technologiquement il était déjà à la ramasse. Ensuite il y a des choses qui ne dépendant pas directement du moteur de jeu, ni des pilotes graphiques. Exemple avec Doom III que je faisais tourner sous XP et Linux à l'époque. Et bien les perfs sous Linux étaient moins bonnes (bien que parfaitement jouables) parce qu'une partie du code du jeu était liée à du code spécifique à visuel C++ ou quelque chose comme ça, et que l'équivalent n'avait pas été fait sous GCC. En d'autres termes, il faut que les développeurs jouent le jeu totalement, et ne se contentent pas de fournir un truc générique, optimisé VC++ pour CPU Intel SSE 4 ! Mais bon, c'est quand-même vraiment encourageant de voir Valve autant s'investir dans le truc, et avec la relativement mauvaise image de W8 auprès des gamers, on va peut-être assister à une perte du monopole de Windows sur les jeux PC, et ça, ça serait vraiment cool (pour ceux qui ont des Mac aussi d'ailleurs). Lien à poster
tbr 13 Posté(e) le 18 novembre 2012 Partager Posté(e) le 18 novembre 2012 Oui, ce serait même super mais le PC (j'entends "sous Windows") restera encore longtemps l'ordi de prédilection pour le jeu vidéo ne serait-ce que parce qu'il coûte à priori moins cher que... le Mac, même si ce dernier, à qualité/finition/... équivalentes ne l'est pas sur la longueur. Mais ça, c'est un autre sujet un peu trollesque. Je ne crois donc pas, à moins que Apple baisse ses marges -- ce qui est plutôt l'inverse --, que le PC/Windows perde sa suprématie, même si OpenGL devient ou est devenu meilleur que DX Lien à poster
DEF 27 Posté(e) le 22 novembre 2012 Partager Posté(e) le 22 novembre 2012 Un article au sujet de cette évolution de DirectX http://www.hardware.fr/focus/75/directx-11-1-ni-geforce-600-ni-windows-7.html Lien à poster
Wault 6 Posté(e) le 28 novembre 2012 Partager Posté(e) le 28 novembre 2012 J'hésite entre plusieurs claviers rétro-éclairés. Vous auriez des avis sur le sujet ? Il faut que l'intensité de la lumière soit réglable si possible, qu'il soit adapté au jeu, et fasse le moins de bruit possible MAIS qu'il soit mécanique (je ne supporte pas les claviers de portables par exemple). Oui, je demande le mouton à 5 pattes, je sais ! J'ai vu quelques tests sur CowCotLand, mais pour le gars ils sont tous géniaux ou presque alors bon... pour se faire un avis... http://www.cowcotland.com/articles/1063-3/qpad-en-rouge-c-est-plus-ou-moins-efficace-qu-en-bleu.html http://www.cowcotland.com/articles/1163-4/test-clavier-mecanique-gigabyte-osmium.html http://www.cowcotland.com/articles/1195-3/clavier-mecanique-cm-storm-quick-fire-pro.html J'avoue qu'un clavier avec un écran pour afficher les T° (voire autre chose, il parait que certains jeux utilisent ces petits écrans pour afficher des infos) serait un luxe que j'hésite à découvrir mais mon clavier actuel n'est plus satisfaisant. Le rétroéclairage me manque vu que je suis souvent dans le noir, mais surtout, il me faut bien appuyer sur certaines touches pour qu'elles soient pris en compte et ça devient gonflant. N'hésitez-pas à présenter des trucs "différents", on ne sait jamais. Je suis un noob complet sur le sujet à part du vague "j'ai cru voir un article qui faisait mention de...". Lien à poster
stranger 2 Posté(e) le 28 novembre 2012 Partager Posté(e) le 28 novembre 2012 Ils ont tous des switch Cherry rouge, soit les moins "bruyant", cela dit, j'ai moi même des rouges et s'il n'y a pas le clic des bleu/marron/noir le clavier se fait tout de même entendre. Sinon t'as bientôt le logitech G710+ qui doit arriver en décembre Lien à poster
tbr 13 Posté(e) le 29 novembre 2012 Partager Posté(e) le 29 novembre 2012 Alors que je descendais mon sac poubelle quotidien au local, j'ai trouvé ça Il n'y à plus de cartes, à part la "mère", plus de AirPort et plus non plus d'alimentation mais ce n'est rien car je comptais utiliser le boîtier lui-même pour faire un hackintosh, genre Mac Pro du type kapahunsou... ou presque. En plus, les boîtiers de ces ordis sont quand même mieux organisés et conçus site tout ce que j'ai pu voir ici et là. Rien que le système d'ouverture, basculé... 1 Lien à poster
Carambar 18 Posté(e) le 16 décembre 2012 Auteur Partager Posté(e) le 16 décembre 2012 Je me demande pourquoi on ne trouve pas plus de systèmes d'ouvertures avec accès facile à tous les composants... A moins que ce ne soit un brevet Apple ? Lien à poster
Wault 6 Posté(e) le 16 décembre 2012 Partager Posté(e) le 16 décembre 2012 Je pense plutôt que c'est parce que ça ne peut marcher que si c'est prévu pour des composants précis. J'ai vu au boulot un serveur DELL avec des trucs bien pratiques comme ça (ce n'est donc pas seulement Apple qui le propose), mais si j'avais voulu y placer ma carte graphique actuelle, par exemple, ben tintin ! Lien à poster
tbr 13 Posté(e) le 16 décembre 2012 Partager Posté(e) le 16 décembre 2012 Exact. Les composants Apple, dans ce genre de boîtier, sont hyper calibrés. Il n'y a qu'à voir le nouvel iMac pour piger le truc. Ça rentre avec 462 litres d'huile et trois chausse-pied et après, tout est superbement intégré... Et indémontable. Il suffi de trouver des composants les plus équivalents possibles. Pas facile. Lien à poster
Carambar 18 Posté(e) le 16 décembre 2012 Auteur Partager Posté(e) le 16 décembre 2012 Je vois. Finalement je préfère ma tour assemblée au petits oignons. Lien à poster
Wault 6 Posté(e) le 17 décembre 2012 Partager Posté(e) le 17 décembre 2012 Oui, surtout qu'en y mettant le prix, on a des trucs vraiment pas mal niveau finition. Mon nouveau boîtier acheté cet été m'a agréablement surpris de ce côté là. Le montage des composants dedans a été un vrai plaisir, le fait de pouvoir faire passer les câbles derrière la carte-mère, par exemple, donne un sentiment de "propreté" de l'ensemble. Faudra que je fasse une photo de l'intérieur de la bête avec le Silver-Arrow Sbe monté sur le FX8350, d'ailleurs ! ^_^ Lien à poster
tbr 13 Posté(e) le 17 décembre 2012 Partager Posté(e) le 17 décembre 2012 J'envie ces génies tels que Steve Wozniak qui ont été assez dingues, en leur temps, pour carrément créer leur ordinateur de la carte-mère au boîtier. Maintenant, on achète tout et on assemble à qui mieux mieux. C'est pas franchement bandant. Comme si on ne pouvait plus espérer faire son truc à soi, "pour le fun". Je n'ai (et n'aurai) absolument jamais aucune des notions — à part la créativité — pour faire mon propre ordi (de A à Z) mais je chercherai toujours à dépasser les limites, quitte à me tromper. En fait, si je pouvais, je ferais le design de mon propre matos... Tôle, pliage, soudures, etc. Lien à poster
Dark 9 Posté(e) le 17 décembre 2012 Partager Posté(e) le 17 décembre 2012 Je pense plutôt que c'est parce que ça ne peut marcher que si c'est prévu pour des composants précis. J'ai vu au boulot un serveur DELL avec des trucs bien pratiques comme ça (ce n'est donc pas seulement Apple qui le propose), mais si j'avais voulu y placer ma carte graphique actuelle, par exemple, ben tintin ! Les PC de bureau Dell s'ouvraient aussi comme ça, enfin horizontalement. C'était d'ailleurs les seuls PC "de marque" que j'acceptais de réparer au boulot. Lien à poster
Wault 6 Posté(e) le 17 décembre 2012 Partager Posté(e) le 17 décembre 2012 Dark> On a dû voir le même type de machine DELL ! C'est clair que ça fait "propre". Lien à poster
Carambar 18 Posté(e) le 17 décembre 2012 Auteur Partager Posté(e) le 17 décembre 2012 J'ai aussi cru remarquer que les PC Dell semblent correctement agencés et ventilés, mais je n'ai pas regardé à l'intérieur des serveurs... tbr> Pas bandant ? Mais j'aime bien "penser" une machine de A à Z, moi. Définir mes besoin et faire le mieux possible en fonction de mon budget. Et après des semaines de réflexion, d'épluchage de tests, la commande... et on assemble tout ça fébrilement, on branche, et la magie opère... Ca démarre ! C'est "ouvert", tu changes ce que tu veux facilement, tu n'as pas à renvoyer la machine complète au SAV si un bidule quelconque tombe en panne. JuggerWault> N'hésite pas à poster tes photos. Dans un sujet dédié, dans "celui qui a la plus grosse", ou ailleurs. Lien à poster
tbr 13 Posté(e) le 17 décembre 2012 Partager Posté(e) le 17 décembre 2012 Carambar > Ne te méprends pas. "Pas bandant" signifie pour moi que l'assemblage des composants, fût-il "compliqué" par la multiplicité des éléments ne me suffit pas . C'est trop... facile, manière de dire, plus que de devoir en plus réaliser ce dans quoi il devront être placés. Sans tomber dans le côté Jacky'sTouch ou arbre de Noël. La fonction fait la forme. Du design, pas de la pseudo déco. Bref, l'assemblage en soi n'est pas ce qui m'amuse mais le fait de pouvoir créer quelques choses... de "bandant". Chacun son truc. Lien à poster
PPN 3 Posté(e) le 17 décembre 2012 Partager Posté(e) le 17 décembre 2012 tbr> Je ne sais pas si c'est dû à ta méconnaissance du sujet, mais je crois que tu es atteint de romantisme réactionnaire . Déjà, faut arrêter l'amalgame : jamais le commun des mortels n'a fait autre chose que d'acheter des composants et les assembler, quand ce n'est pas directement acheter la machine assemblée. La conception de composant, c'est le territoire des ingénieurs spécialisés dans le domaine. D'une. De deux, fondamentalement, l'assemblage et la conception, ce n'est pas si différent. C'est juste une question de niveau auquel on se positionne. Mêmes les ingénieurs (et Steve Wozniak compris) ne font qu'assembler des systèmes à partir d'IP. La seule différence entre hier et aujourd'hui, c'est que les systèmes sont devenus tellement complexes qu'au lieu d'assembler des résistances, et des condos, des mémoires, on assemble des cartes ASIC, des blocs FPGA, et des procs ARM... Et de ce côté, il existe encore des initiatives : http://www.bunniestudios.com/blog/?p=2686 Avec les standards d'aujourd'hui, tu ne peux juste pas espérer créer quelque chose à partir de rien sans des moyens déraisonnables (en humain et en temps). Il y en a qui ont essayé, ils ont eu des problèmes. Lien à poster
Dude76 19 Posté(e) le 18 décembre 2012 Partager Posté(e) le 18 décembre 2012 Autant j'ai toujours eu un peu de mal avec les tarifs DELL, autant il et vrai que quand tu ouvres la machine (hors portables ), c'est limite du Légo. Disques sur racks plastiques, quart de cylindre pour orienter le flux d'air des processeurs directement vers l'extérieur quand c'était sur l'arrière, etc. Et le tout agrémenté par du clipsable / déclipsable avec une telle facilité que même celui qui a une tremblotte de tous les diables y arrive en se curant le nez en même temps. C'est limite du montage sans vis (doit bien y en avoir quelques-unes, mais de mémoire j'avais pas eu besoin d'en chercher l'ombre d'une, même pour le maintien des cartes, y'avait juste un bras à déclisper). Lien à poster
tbr 13 Posté(e) le 18 décembre 2012 Partager Posté(e) le 18 décembre 2012 tbr> Je ne sais pas si c'est dû à ta méconnaissance du sujet, mais je crois que tu es atteint de romantisme réactionnaire . Que veux-tu, on ne se refait pas. Je trouve juste dommage que... Bon, tu as raison. M'enfin, je parle pas simplement de bidouiller un boitier existant pour en faire un truc "différent" mais de carrément en créer un qui soit unique parce que adapté aux composants que j'aurai choisi... à défaut d'utiliser celui (du G4 Silver) que j'ai récupéré dans le local poubelle de l'immeuble où je réside. Bref, je vais assembler, certes, mais dans quelques choses d'original. ... Je mens ! En fait, j'ai juste l'envie (de le faire), pas les moyens, pas le temps, pas la place, pas le matos pour faire ce genre de truc. Mais c'est vrai que ça me titille(rait) l'esprit, ne serait-ce qu'en concept/idée plus ou moins aboutie sur le papier (plans, etc.). Bref, le boitier du G4 va subir mes outrageuses manipulations et on verra bien ce que ça donnera. Faut juste que je trouve qu'y mettre (pour un Hack performant pseudo MacPro) et surtout quand et avec quel fric commencer. Lien à poster
Messages recommandés