Aller au contenu

Veuillez patientez...

Mjonir

VIP
  • Compteur de contenus

    1 165
  • Inscription

  • Dernière visite

Tout ce qui a été posté par Mjonir

  1. Si ça ne t'a pas frappé ce n'est donc pas la technologie dont je parle jusque là que tu as essayé. Dans les cinémas ce qui est utilisé est une diffusion sur 2 spectres de lumière différents, mais dans ton cas si ça t'a paru un peu plus sombre c'est très certainement la technologie par polarisation de la lumière, qui forcément fait perdre toutes les ondes non-alignées... ou presque, ce qui provoque un effet de ghosting diminuant fortement la qualité perçue de la 3D et amenant des maux de tête. Ce dont je parle est une technologie active, c'est à dire que les lunettes effectuent véritablement un travail grâce aux obturateurs LC. Avec cette technologie on perd facilement plus de la moitié (plutôt 2/3 ou 3/4 au pif) de la luminosité ambiante. Ce n'est pas du tout gênant pour le média bien réglé, mais c'est frappant par rapport à l'extérieur. Idéalement oui. mais quand tu parles de projection de groupe, cela concerne peu les jeux vidéo et beaucoup plus les films. Pour les films la convergence est fixe (forcément, ça a été filmé avec un écart de caméra bien précis, pas moyen de le changer ), la profondeur a donc déjà un intervalle un peu plus fixe... mais ensuite oui, il faut bien adapter à tout le monde, et c'est pour cela que dans des projections comme au cinéma l'effet est nivelé par le bas pour contenter tout le monde. C'est bien pour ça que je dis que la 3D "à la maison" est de bien meilleure qualité pour 2 raisons: 1) Technologie plus couteuse au niveau des lunettes mais plus performante (les cinémas ont beaucoup de lunettes à acheter et peu d'investissement dans la projection... à la maison c'est pas le cas) / 2) Réglages personnels plus affinés. Ca malheureusement, y a difficilement moyen de faire autrement à l'heure actuelle. La seule façon de réaliser des profondeurs différents selon les personnes est de trouver moyen pour que l'image envoyée par l'écran soit différente et ciblée à chaque personne... je te laisse imaginer que c'est pas gagné ^^' [quot]Tiens sinon le FN de l'actu JV fait un dossier sur la 3D au cinoche et chez soi.
  2. Désolé, c'est ma façon de parler mais c'est toujours sous-entendu. Effectivement, mais c'est seulement signe qu'on commence à se comprendre sur ce qu'on voulait dire Pour avoir un effet optimal, il faut au moins configurer au départ la diagonale de l'écran et la distance, mais ça c'est encore peu répandu et ce n'est pas de ça que je parle. Ce dont je parle est essentiellement la profondeur, c'est à dire en gros l'écartement sur l'affichage entre les deux images, c'est vraiment le réglage le plus important du relief. Il faudrait également configurer de la même façon la convergence (écart entre les deux prises de vue dans le jeu), les deux vont fort ensemble. Dans les deux cas c'est à la fois une question qui dépend du contenu, de la préférence personnelle et d'entrainement du cerveau, et ça s'applique à toutes les technologies de stéréoscopie. Pouvoir augmenter la profondeur permet d'avoir un bien meilleur effet de profondeur, mais il faut laisser le temps au cerveau de s'habituer pour progressivement augmenter et trouver pour le média l'équilibre entre confort et effet. Une profondeur mal réglée et c'est le mal de tête ou la perte d'effet. Une convergence mal gérée et c'est du ghosting. Avec le fait que la technologie utilisée est différente, c'est également une raison pour laquelle les effets obtenus dans les cinémas par exemple sont souvent mal adaptés, et surtout gardés au minimum... Mais tu n'as pas répondu à ma question: les lunettes que tu as essayées assombrissaient-elles lorsque tu regardais à travers? Je ne suis pas sûr que ça arrive avant très longtemps si ça arrive jamais... mais personnellement pour du jeu console par exemple je ne me verrais pas repasser de la HD en SD, c'est un peu ça l'idée ^^' Franchement oui, car ça a vraiment tué le projet dans l'oeuf avant qu'il ne puisse s'installer, faire parler de lui et atteindre des prix démocratiques. Et dans tous les cas, ici l'intérêt est clair, même en oubliant la technologie en elle-même le marketing fait autour ne laisse aucun doute. Comme je l'ai dit, j'ai vu les chiffres chez EVS, pour ce qui est de la diffusion des médias on est exactement dans le même schéma que le passage SD -> HD et 720p -> 1080p.
  3. Sans vouloir parler à la place d'uman, ce qu'il semble dire c'est comme ce que j'ai dit à mon propre post que ATI peut sortir sa technologie, ça ne changera rien Comme je l'ai déjà dit le secteur est extrêmement lent et les innovations ne sont même pas encore en projet... d'ici à ce qu'arrive une alternative viable, y aura bien le temps de voir passer Ce n'est justement pas encore le standard technologique puisque la 3D chez les particuliers est encore quasi inexistente. Mais c'est la technologie qui propose la meilleure qualité excepté potentiellement du matériel monté sur la tête avec des écrans différents pour chaque oeil... mais ça me semble évident que c'est pas trop à considérer. C'est clair et net entre les obturateurs LCD et les technologies de stéréoscopie précédentes y a pas photo sur la qualité, je te l'affirme... pour le reste tu peux toujours vérifier pour t'en convaincre Si tu veux parler économie politique, évidemment que la fonction d'utilité n'est la même pour personne. Mais tu as bien compris ce que je veux dire, ça ne fait déjà que 3 fois que je me répète, si tu ne veux pas que je me contente de retaper une citation faudra bien faire marcher un peu de bon sens et comprendre que c'est un raccourci pour ce que j'ai dit avant. L'idée est que cela peut vite être intéressant sous certaines conditions pour les quelques euros de plus à mettre... bref, j'vais pas retaper encore une fois, relis si t'as pas saisi ^^' Pareil, j'suis pas idiot et toi non plus, t'as bien compris que je sais que c'est différent pour tout le monde, mais à ce prix là on revient à ce que j'ai mis au début: on peut franchement qualifier de gadget hors de prix quasiment tous les produits à notre disposition, ça tout le monde est bien au courant et ça mène pas à grand chose de nous le redire Nan il s'agissait du jeu. Sur Xbox. Sur une télé bientôt en vente. Dans des conditions de jeu classique. En gros l'installation moyenne d'ici 5-10 ans. Le principe est justement pour le relief de pouvoir s'adapter à toutes les conditions, toutes les chambres, les salons, n'importe quelle configuration. Si le système exige des paramètres trop précis de distance, luminosité, angle par rapport à l'écran, ça ne pourra jamais décoller. Attention que celui-ci est assez très pourri question performances... Pour avoir vu le résultat sur PC je serais franchement pas étonné que le framerate ait pas été au rendez-vous du tout. As-tu pu régler toi-même les paramètre de 3D, spécialement la profondeur en temps réel lors de ton jeu? Si non, ben c'est bien ce que je disais. Je ne parle pas de paramètres extérieurs mais bien des paramètres de configuration de la génération des images, du type de l'écartement entre les deux. Question d'ailleurs pour être sûr, car ça m'étonnerais pas que ce soit pas forcément ça non plus, les lunettes que tu as essayées est-ce qu'elles rendaient l'environnement plus sombre lorsque tu regardais dedans? Les grands principes je saisis bien, mais dans les applications concrètes, j'ai justement du mal à imaginer un exemple significatif? Sans parler que l'exemple devrait ne pas être trop extrême pour permettre quand même aux personnes non-équipées ou incapables de percevoir l'effet de relief de quand même pouvoir jouer :/ Les lunettes nvidia existent depuis bien longtemps, ils ressortent justement de la vieille technologie en réalité. La nouveauté est du coté des écrans, cette technologie ayant été suffisamment mise au point juste au moment où on est passé de l'écran CRT à l'écran LCD, ces derniers incapables jusqu'à récemment d'afficher suffisament d'images. Désolé de te décevoir, mais non. Si j'avais envie de mordre, j'aurais pas à me cacher pour le faire...
  4. Je vois vraiment mal comment. Question technologie, rien n'est meilleur que les lunettes à obturateurs LCD. La seule chose qu'ils peuvent faire c'est soit augmenter la fréquence (mais ça il me semble que c'est même déjà possible sans aucun soucis avec celles que j'ai, ça se joue au niveau des écrans, et vu que les 120Hz sont à peine arrivés on ne risque pas de voir mieux de si tôt), soit augmenter la batterie (40h actuellement)... pas grand chose d'autre La technologie ne se fait pas ou très peu au niveau du jeu mais surtout au niveau de la carte graphique. Les jeux eux sont déjà en 3D internement, ce qu'ils peuvent faire c'est adapter les jeux pour par exemple éliminer tout objet 2D, le point le plus ennuyant à l'heure actuelle étant les jeux disposant d'un crosshair en 2D non désactivable (pour ainsi le remplacer par les crosshairs nvidia). Mais ce genre de choses s'applique à tout. La 3D dans les cinémas n'a rien à voir, c'est pas la même technologie. Si paire de lunette universelle il y a, c'est forcément les obturateurs LCD, c'est à la fois la technologie la plus performante et la plus adaptée à l'usage particulier. ... amorti c'est aussi une notion de sport, de mécanique, de mathématique, te fais pas plus bête que ce que tu n'es ^^' J'en ai en gros parlé ici: La matériel a des utilités bien plus grandes que le seul relief et relief sur PC, et pour peu qu'on ait utilité de ces autres possibilités, comme le simple fait d'avoir prévu d'acheter un écran, fait en sorte que l'investissement supplémentaire n'est quasiment rien. Normal, les films ne sont pas adaptés à ça, et des démonstrations ne sont pas du tout adaptées à ça. J'en avais parlé ailleurs: La fatigue oculaire n'existe que dans 2 cas: Soit le framerate est insuffisant (ce qui est déjà un peu le cas dans les films, 24 images par seconde ce n'est pas super fluide) soit la profondeur n'est pas réglée au niveau de préférence/entrainement du spectateur. Autrement il n'y en a vraiment aucune Je comprends pas, tu ne réponds pas du tout par rapport à ce que j'ai dit? J'ai dit qu'il y avait difficilement moyen d'intégrer cela au gameplay... toi tu me parles de distribution? Si je comprends bien apparemment tu crois qu'il n'y a que quelques jeux qui bénéficient de cette fonctionnalité? Si c'est le cas, la liste n'est pas petites, tous les jeux récents le sont généralement: http://www.nvidia.fr/object/GeForce_3D_ ... es_fr.html Si ça ne se démocratise pas encore plus, c'est parce que la technologie le permettant est "nouvelle", c'est-à-dire que les LCD disposant d'une fréquence suffisante arrivent seulement tout juste. Sache également que Nvidia propose sur tous ses nouveaux drivers d'activer une "3D Vision Discover" qui utilise la technologie anaglyphe pour permettre un aperçu de l'effet 3D sans investissement avec les simples lunettes à 1€... mais pour l'effet qu'on connaît, sans parler de la perte de performances (il faut un effet un traitement supplémentaire à la génération des 2 images pour les transformer en une seule image colorée). Ca le soucis c'est que les gens ne sont pas au courant et que forcément, c'est pourri ^^'
  5. BH: En gros ton idée est que la 3D relief n'est pas intéressante en ce moment car "elle deviendra obsolète" et n'est pas utilisée en terme de gameplay. Concernant ton histoire de standards, ce n'est pas comparable, le secteur de la stéréoscopie est un secteur a évolution extrêmement lente jusqu'ici... parier sur de nouvelles technologies miracles, c'est comme je le dis quelque chose qui risque de ne pas arriver de si tôt, étant donné qu'elles n'existent même pas encore sur papier ou demandent un investissement disproportionné. Je comparerais plus ça à dire que "ceux qui ont fait l'investissement dans une voiture à essence y a 5 ans ont mal investi car lorsque l'électrique sera démocratisé ils l'auront dans l'os" En achetant malin, l'investissement est franchement très minime et très amorti... et les sous mis en plus permettent comme je l'ai dit à des jeux merdiques graphiquement de devenir extraordinaires. L'effet de relief peut à lui seul justifier de (re)jouer à un jeu. Je vois par contre assez mal comment s'en servir coté pur gameplay, et certainement pas ni à court ni à moyen terme (déjà qu'en plus ils se font déjà fustiger par les daltoniens pour utiliser des couleurs dans les mini-jeux ^^')... La comparaison ici est plutôt le passage d'un son mono à un son surround (même si l'effet est même plus important que ça, le sens de la vue ayant bien plus d'importance). Pas vraiment utilisé en terme de gameplay, mais un outil très efficace d'immersion.
  6. Je vois bien ce qu'il veut dire, ce que je demande c'est qu'il explicite ce qu'il sous-entend par là.
  7. Qu'est-ce que tu veux dire par là?
  8. Eh bien à chaque fois quand tu cliques tu as les différents types de support disponibles. C'est vrai qu'il faut garder à l'esprit qu'il s'agit d'une technologie assez neuve, le développement est encore à des stades de prototypes et de codes libres, c'est plutôt dirigé aux développeurs et aux scientifiques, pas encore au grand public. Il faut dire qu'il s'agit d'un travail significatif, ce n'est pas comme si les GPUs étaient magiquement ajoutés à la puissance de calcul, le code doit être fortement modifié, débogué et optimisé pour s'adapter à la tâche. Si les gains n'étaient pas aussi épatants il me semble que ce serait même difficilement considéré. Par exemple j'ai un modèle climatique en cours de programmation (enfin, il vient juste d'être terminé), j'avais fortement envisagé une implémentation CUDA mais ma deadline est début Avril... résultat c'est largement pas le temps que pour développer un bonus pareil, même contre le goût du travail bien fait
  9. Qu'est-ce que tu ne comprends pas?
  10. Pour le moment c'est plutôt les jeux les moins prévus pour la 3D qui ont les meilleurs rendus justement... Je réagis juste à ce que tu considères comme un "constat" qui est plutôt un n'importe quoi. Bien sûr que c'est loin d'être indispensable... ça s'appelle le loisir. Tu sous-entends que pour toi on pourrait tourner avec des graphismes de N64 que ça changerait rien, le reste c'est pas indispensable et c'est de la branlette? La technologie sera TOUJOURS plus au point et TOUJOURS moins chère... pareil, avec une logique comme ça, t'as acheté ta N64 et t'es content toi ^^' Ca n'a rien à voir avec le fait de frimer genre "j'l'ai avant tout le monde". C'est un achat tout à fait rentable et durable à tous les points, ce que je viens d'expliquer... c'est précisément en ce moment que l'achat sera le plus durable. Est-ce que je devrais trouver triste que certains préfèrent passer 2 semaines à dépenser leur fric dans une ville à l'autre bout du monde plutôt que de faire un investissement concret et durable? Ca s'appelle les priorités ^^' T'as jeté un coup d'oeil dans la CUDA showcase sur le site de nvidia?
  11. C'est même beaucoup plus qu'épargner le processeur, c'est avant tout augmenter la vitesse à laquelle les calculs sont réalisés. L'architecture des GPUs est très différente de celle des CPUs et est bien plus performante lorsqu'il s'agit de calcul mathématique complexe comme du calcul vectoriel ou matriciel. L'idée est donc non seulement d'avoir de la puissance de calcul supplémentaire en ajoutant les GPUs aux CPUs, mais également de faire tourner ces calculs bien plus vite! (Souvent des dizaines, voire des centaines de fois plus vite! Comme je l'ai dit ça peut aller jusqu'à des milliers!)
  12. Ah non, tu te trompes lourdement là dessus, et surtout pour l'exemple que tu signales! De nos jours les GPUs des carte graphiques font bien plus que la génération d'images 3D, il s'agit véritablement d'unités de calcul surpuissantes pour le calcul vectoriel et matriciel. Il est possible de programmer des applications directement sur le GPU grâce à CUDA, c'est très utile pour des tas d'applications comme le calcul scientifique que je pratique. ... et aussi justement sur le traitement vidéo & audio. Déjà maintenant avec les carte graphiques depuis un moment le décodage/encodage des vidéo ne se fait plus sur le CPU, mais bien sur le GPU, largement plus puissant pour ce genre de tâches. Il n'appartient qu'à toi d'aller plus loin encore en prenant des logiciels ou patchant tes logiciels existants pour les rendre compatibles CUDA. Les gains en terme de vitesse de calcul sont monstrueux EDIT: Pour info, dans les types de gains de vitesse tellement monstrueux que c'en est ridicule le record est "GPU-based Acceleration of the Genetic Algorithm", 2600 fois plus rapide sur le GPU Personnellement le genre de calcul que je fais est plutôt "seulement" de l'ordre d'une à plusieurs centaines de fois plus rapide
  13. Désolé d'acheter ce qui me plait, ce genre de commentaires gratuits on peut franchement les placer à tous les niveaux ^^' C'est franchement une amélioration du jeu non négligeable, ça surpasse de loin l'effet donné par des filtres anti-aliasing, un filtrage anistropique et des textures haute résolution combinés. Des jeux merdiques graphiquement en 2D deviennent tout à coup excellents en 3D. De plus, 500€ est le prix d'une carte graphique de jeu l'investissement est donc bien justifié sachant qu'en plus ce matériel peut facilement être utilisé à d'autres fins. L'écran en lui-même permet de faire du dual screen, ou alors l'investissement est très très amorti si il s'agit d'un achat de premier écran. Un écran 120Hz est également extrêmement appréciable hors 3D, à ce niveau beaucoup de critères de qualité d'image (comme ceux qui jugent du ghosting) n'ont même plus de sens comparé à des écrans "normaux". Tout est beaucoup plus fluide, ce qui réduit également la fatigue occulaire. Les lunettes elles sont un investissement qui se regagnera dans le futur, pour être passé chez EVS (entreprise qui a en gros le monopole des technologies de retransmission et progressivement aussi de studio), les graphes projettés montrent que le passage 2D/3D suit exactement le même schéma que le passage SD/HD. Bref, c'est très loin d'être gadget... personnellement je ne pars pas en vacance, je mange peu et sobre, je ne fais rarement des sorties mais j'investi dans du matériel qui me le rend bien au quotidien et surtout à très long terme.
  14. Nvidia avait déjà entièrement développé la technologie il y a longtemps, cependant le passage général depuis les moniteurs CRT aux moniteurs LCD a tué le projet dans l'œuf, la fréquence de rafraichissement de presque tous les écrans LCD n'étant pas suffisante pour générer assez d'images (50/60 FPS = 100/120 Hz). Seuls une petite poignée de moniteurs LCD 120Hz sont disponibles actuellement (on peut compter le premier de Samsung, ensuite plus tard le ViewSonic que j'utilise (meilleures couleurs), et récemment un Alienware). Pour le reste il faut se tourner vers les autres technologies (projecteurs/plasma, etc.). En LCD comme je viens de le dire, il n'y a que très peu d'écrans ayant des fréquences de rafraichissement suffisantes, et ils sont très spécifiques (tu ne risques certainement pas d'en avoir un sans le savoir). Les écrans supérieurs à ça, du genre les fameuses TV "200 Hz" voire maintenant "600 Hz" sont un pur coup marketing, il s'agit en fait d'une puce intégrée qui interpole des images intermédiaires, pas d'un vrai affichage captant 120 images différentes par seconde. C'est d'ailleurs un traitement qui peut être dégradant par rapport à l'image... Faut plutôt compter de l'ordre de 500€ pour les deux. 180€ pour les lunettes et 270€ pour l'écran + frais de port. L'écran seul peut servir, car afficher 120 images par seconde est un gain de fluidité très appréciable à l'oeil, par contre les lunettes seules ne serviraient à rien. Ben évidemment, mais quand tu as 500€ à rajouter pour avoir un écran adapté et les lunettes, tu as généralement aussi déjà eu les sous pour une bonne machine Je tiens cependant à préciser qu'il s'agit là d'une technologie active dont la qualité est bien supérieure à la 3D que la plupart des gens connaissent comme celle présentée en cinéma
  15. Eh bien sache que grâce à mes super pouvoirs, je vais durant cette nuit aligner l'heure de nos pays sur l'heure des forums HFr, parce que c'est ici qu'est la vraie heure, le reste du monde se trompe!
  16. Rien n'empêche de jouer au pad sur PC
  17. Je viens de tester Halo 2 PC en 3D... résultat mitigé, d'un coté il y a un gros soucis qui fait que je n'ai pas tenu 5 minutes: La caméra se retrouve de façon telle que l'arme en main n'est plus visible, ce qui est très gênant. Le HUD est également 2D, mais cela est acceptable étant donné que cela ajoute un peu à l'immersion (ça fait un effet "casque de Spartan"). Cependant, l'effet de profondeur est vraiment très très très bon sur Halo 2, même si il y a souvent des plans trop décalés lors des cinématiques. Autrement c'est vraiment très plaisant à voir... reste à espérer un nouveau Halo sur PC un de ces jours
  18. Je l'étais, je n'ai rien reçu :/
  19. ... faudra m'expliquer comment on peut "perdre" une résolution? ^^'
  20. Voilà, j'ai enfin fait mon interview... j'espère que j'ai pas fait trop long, je me suis vraiment retenu
  21. Au pire utiliser Opera Turbo, celui-ci rapporte un gain de vitesse de 4x
  22. Même si je n'avais lu aucun des deux, je préfère le test d'uman à celui de ME2. Celui d'uman est un test, clair et net... de l'autre coté on a plutôt droit à un roman donné par des convaincus (avec la moitié du texte en gras, ce qui est assez gênant à mon gout). Un test c'est pour dire si c'est bien ou c'est pas bien, je crois que ceux qui ont le courage de lire le test de ME2 l'ont soit déjà acheté, soit ont fermement l'intention de le faire Edit Tim.Monroe :
  23. Card Captor Sakura et Chobits sont quand même des grands noms Mais c'est clair qu'il y a pas mal de trucs à mon sens bien plus impressionnants que ce qui est présenté là, mais évidemment ce sera toujours subjectif OVH? Ces clampins pas foutus de changer une ligne de configuration serveur en un an de négociations avec moyens financiers investis? Haha, bon courage!
  24. Bah si, même plusieurs? (Au moins deux grosses et d'autres petites)
×
×
  • Créer...