MSFS CHOIX carte graphique

WASP46

ELEVE PILOTE
Messages
4
Réactions
0
Points
2
bonjour,
mon matériel :
Intel Core i7 9700K @ 3.60GHz

PL2280W (1680x1050@60Hz)
PL2280W (1680x1050@60Hz)
4095MB NVIDIA GeForce GTX 970 (MSI)

j'envisage un changement de CG maxi 450€
vous me conseillez laquelle ?

Merci
 
Bonjour,

Quels sont les modèles qui te sont proposés dans cette gamme de tarif?
 
Bonjour.
Dans ces prix (en neuf), tu as cela chez NVidia avec pas mal de VRAM. Pour AMD attendre l'avis des spécialistes.
RTX 3060
 
Bonjour,
Tu restes sur ces deux écran dans cette définition? Pas de VR ?
Dans ce cas, j'aurai tendance a dire, fonce sur de l'occasion genre 1080Ti pour afficher cette définition ca sera largement suffisant.

Remi
 
Comme le dis Tojdank, dans cette gamme de tarif, la RTX 3060 est disponible en 12 Go ou 8Go .

Par rapport à une 1080 ti, tu auras une carte récente qui consomme peu (entre 180 et 200 W) donc tu devrais pouvoir garder ton alimentation si tu n'as pas trop de périphériques. De plus tu bénéficieras des dernières avancées des RTX.
 
Lagaffe n a pas tord, surtout si tu souhaites utiliser msfs2020 qui utilisera à terme le raytracing et le dlss, deux technologie que tu aura sur ta carte rtx et pas sur la 1080.
Étant principalement sous plane, cela ne m était pas utile.
 
Merci à vous tous !!

il faut que je me forme car je ne sais pas ce qu'est le 4k , la seule chose que je sais; mon fils à une télé comme ça et elle est hyper nette .
je suppose que le 4k n'est pas possible sur genre d'écran 22p prolite iiyama
 
je suppose que le 4k n'est pas possible sur genre d'écran 22p prolite iiyama
Salut !

Tu commences à trouver des écrans 4K (3840x2160 pixels) à partir de 24" , il y a beaucoup plus de modèles en 27" et tailles supérieures ; au delà de 38" , il vaut mieux passer à un téléviseur 4K ...
Pour info , une liste d'écrans classée par prix croissants chez LCDC :
Le premier prix est à 300€ ; ils ont tous un pied réglable en hauteur , une dalle VA ou IPS .

 
je suppose que le 4k n'est pas possible sur genre d'écran 22p prolite iiyama
Pour compléter la réponse de Frédéric, le 4K n'est intéressant que si l'on désire avoir une grande dalle...(y)
Sinon, autant rester en 2K!... Cela évite de manipuler des pixels pour rien au niveau du pipeline graphique (4 fois moins...:whistle:).
Et, comme tout se paye dans ce bas monde!...;)


Je te dis cela, car dans ta question initiale, tu as bien précisé :
j'envisage un changement de CG maxi 450€
 
Dernière édition:
Sinon, autant rester en 2K. Cela évite de manipuler des pixels pour rien au niveau du pipeline graphique (4 fois moins...:whistle:)

Si tu as la place , je te conseille de partir sur un 27" au minimum ; le pied réglable en hauteur a un cout d'environ 50/60€ mais ça me semble indispensable .

La liste d'écran en 2560x1440 ...
 
Bonjour,

je suppose que le 4k n'est pas possible sur genre d'écran 22p prolite iiyama
Pour répondre à ta question : non un IIyama Prolite 22p n'est pas capable d'afficher de la 4k. Tu ne précise pas le modèle exact mais ce genre d'écran a en général une résolution maximum de 1920x1080 (communément appelée Full HD ou FHD).
En ce moment le prix des cartes graphiques n'arrêtent pas de baisser. Il y a moyen de faire de belles affaires en s'aidant d'un site comme dealabs par exemple. Il y avait par exemple des 3070 ti à 460 € il y a 3 jours.
En faisant un out petit effort sur le budget, tu as une Radeon 6700 XT à 478 € :
 
Salut , un extrait comparatif des performances des cartes graphiques sur MSFS sur Tom's Hardware (il y a d'autres tableaux) :


cliquer pour agrandir .
comparatif_msfs_1080 medium.png
comparatif_msfs_1080 ultra.png

comparatif_msfs_1440 ultra.png
comparatif_msfs_uhd ultra.png
 
C'est un peu Bidon leur truc il ne peut pas y avoir des références bien établies ..

Je m'explique les composants pour faire fonctionner MSFS là est le quack ..

pour exemple avec ma config CG M2V CM PROC je suis à l'identique voir un poil de plus sur le 3ème tableau 2560X1440 que les résultats énoncés Mais aussi en Beta DX12 et pas 11
 
C'est un peu Bidon leur truc il ne peut pas y avoir des références bien établies
T'es un peu raide de clamer que le test est bidon (de kérozène) , c'est un test avec une config pc précise , ça donne quand même une idée des perfs d'un paquet de cartes :
Our 2022 graphics card testbed consists of a Core i9-12900K CPU, MSI Z690 DDR4 motherboard, 32GB Corsair DDR4-3600 CL16 memory, and Crucial P5 Plus 2TB SSD, with a Cooler Master PSU, case, and CPU cooler.

Je m'explique les composants pour faire fonctionner MSFS là est le quack ..
Là , tu t'exprimes pas bien , j'ai rien compris ....
 
les composants PC Carte Mère Mémoire etc sont différents d'une config à l'autre .. d'où des bench différents ..

Voili voilou
 
Non, justement, le principe de ces benchs c'est d'utiliser une base commune et de changer seulement la carte graphique. Le but n'est pas de te dire combien de FPS tu auras avec telle carte dans ton PC. L'intérêt c'est d'avoir une idée des performances des différentes cartes les unes par rapports aux autres.
 
les composants PC Carte Mère Mémoire etc sont différents d'une config à l'autre .. d'où des bench différents ..

Voili voilou
Là , tu ne m'apprends rien , comparer avec des configs différentes n'est pas très raisonnable ...
 
Je rejoins complétement mon Ami Patou... :LOL:
Ces tests sont complétement "Bidons" et sont présentés comme suivant une règle cartésienne de métrologie afin de mieux convaincre le chaland.:giggle:

L'intérêt c'est d'avoir une idée des performances des différentes cartes les unes par rapports aux autres.
Il n'y a absolument pas besoin de ces tests pour faire un quelconque comparatif de puissance entre deux CG.
Il suffit simplement de lire et comparer leurs architectures (chez un même fondeur...). Cela ne va pas plus loin que de lire des Datasheets!...
En plus, c'est très facile car ce sont des architectures massivement parallèles.;)

Non, justement, le principe de ces benchs c'est d'utiliser une base commune et de changer seulement la carte graphique. Le but n'est pas de te dire combien de FPS tu auras avec telle carte dans ton PC.
Un peu, si.... Et, c'est justement pour cela que ces boites de bench sont en relation étroite avec les fondeurs.
Cela fait partie de l'opération marketing à chaque nouveau lancement.
Le but étant de dire que la petite dernière est :
Super bien meilleures que celle que vous avez... Et, qu'il est indispensable, voir urgent que vous en changiez le plus rapidement possible!...

Ni plus, ni moins!...:p


Tiens, je vais même te prendre un exemple concret que je connais particulièrement bien afin d'illustrer cela... Le mien!...:whistle:
Dernièrement, j'ai fait évoluer ma configuration passant d'une RTX 2080Ti vers une RTX 3090Ti qui est grosso merdo deux fois plus puissante.
J'ai fait comme eux... J'ai retiré l'ancienne et j'ai plugué la nouvelle.
Comme mon simulateur sous Prepar3D est lancé au travers d'une base référentielle, j'étais donc à ISO périmètre!...

Ben... Je suis plus con qu'eux car j'avais perdu 30 voir 40% de FPS par rapport à mon ancienne CG sous les mêmes conditions.:giggle:
Et, c'était prévisible car les goulots d'étrangement et leurs conséquences se déplacent tout au travers du pipeline graphique.
;G)
 
Dernière édition:
Comme je dis c'est totalement * Scotland * c'est Bises Ness ..
 
Ben... Je suis plus con qu'eux car j'avais perdu 30 voir 40% de FPS par rapport à mon ancienne CG sous les mêmes conditions.:giggle:
Et, c'était prévisible car les goulots d'étrangement et leurs conséquences se déplacent tout au travers du pipeline graphique.
Bien , mon cher Alain , je vais finir par le croire ! :p :LOL:
 
Ben... Je suis plus con qu'eux car j'avais perdu 30 voir 40% de FPS par rapport à mon ancienne CG sous les mêmes conditions.:giggle:
Et, c'était prévisible car les goulots d'étrangement et leurs conséquences se déplacent tout au travers du pipeline graphique.
;G)
Je suis preneur d'une explication, étant comme tu le sais peu versé en hardware, parce que que ça n'augmente pas, ca je l'envisage aisément, mais que ca diminue ça je pige pas ?!?
On a un tuyaux derrière une chaudière qui laisse passer 5L/seconde. On met une chaudière qui peut envoyer 10L/s. À caise du tuyau on reste à 5L, non? Pourquoi ça descent à 3L ?!?

Merci 😅
 
On a un tuyaux derrière une chaudière qui laisse passer 5L/seconde. On met une chaudière qui peut envoyer 10L/s. À caise du tuyau on reste à 5L, non? Pourquoi ça descent à 3L ?!?
Donc, c'est plus compliqué qu'une chaudière...:p
Je suis preneur d'une explication, étant comme tu le sais peu versé en hardware, parce que que ça n'augmente pas, ca je l'envisage aisément, mais que ca diminue ça je pige pas ?!?
En fait là, c'est plutôt le Software qui nous joue des tours à ce niveau, car au bout du bout nous n'avons pas une équation linéaire sur une valeur de rendement globale avec vos "PUTAIN" de FPS!...:whistle::whistle::whistle:

Ce qu'il faudrait comparer au minimum, c'est de nombre de DrawCall traité par unité de temps. C'est déjà beaucoup moins sexy pour l'acheteur Lamda!...:LOL:
Avec cet indicateur, tu aurais un bien meilleur comparatif entre carte pour une même configuration.
C'est d’ailleurs le but de tous ces indices que nous donnent les outils de bench... Malheureusement, les éditeurs ne sont pas très loquaces sur la construction de ceux-ci afin de conserver leurs parts de marché.

Concernant, ce phénomène, voici une réponse que j'avais faite à l'époque un peu sur le même sujet :
Voici ma réponse...

Sans entrer dans le détail, n’oublie pas que l'état d'un thread dans ton OS peut passer par des phases (états) de "Waiting".

Depuis que FSX (et son comparse Prepar3D) est passé en multi-core/multi-threadé, il y a des choses à affiner dans le .cfg à chacune de grosse évolution de ce type afin que le moteur prenne pleinement en compte ses évolutions hardwares. C'est d'ailleurs dans cet esprit que l'équipe de P. Taylor à l'époque les avaient externalisées dans le fichier de config.
Tous les logiciels bien conçus doivent intégrer cette possibilité!...;)
Cela serait beaucoup trop compliqué, voir pratiquement impossible de faire un produit "auto-configurable" avec toutes les variantes de matériel potentiel possible.
C'est d'ailleurs pour cela que les concepteurs préfèrent une BlackBox...

Bon Frédérique... Ne t'en fait pas pour moi!...:giggle:
Je suis passé prendre des conseils à l’Église, à la Mosquée et enfin à la Synagogue... Tous, m'ont conseillé de me rendre au Temple car ils avaient entendu parler d'un moine qui connaissait bien Prepar3D.:D

Et là, miracle mon simulateur tourne à merveille avec 22 FPS bloquées, comme antérieurement.;G)
 
Dernière édition:
Bonjour,

Vraiment très intéressant ce que tu exposes
Dans le lien que tu mets tu parles de "ressources gpu", lesquelles étaient principalment à prendre e ncompte: de quoi s'agit-il exactement, comment et où obtenir des infos sur les cartes ?
Les dernières générations de cg étaient vendues comme pouvant prendre en charge des opérations jusque là effectuées par le cpu, cela entrainant une baisse de charge du cpu et de facto de meilleurs fps, du coup, exact ?

Guy
 
Oui en effet software mais la partie software qui gère la 3d, via driver et compagnie, je la met dans le même sac de trucs obscurs pour moi :)
Merci pour le lien de l'explication dont j'étais passé à côté !
Ca va, je ne suis pas dans la team FPS je m'en fiche pas mal tant que c'est fluide à l'oeil je suis content, ouf !
 
Il n'y a absolument pas besoin de ces tests pour faire un quelconque comparatif de puissance entre deux CG.
Il suffit simplement de lire et comparer leurs architectures (chez un même fondeur...).
Et tu compares comment entre 2 fondeurs ? Et même chez un même fondeur, tout le monde n'a pas les clés pour déchiffrer les datasheets.

Un peu, si.... Et, c'est justement pour cela que ces boites de bench sont en relation étroite avec les fondeurs.
Cela fait partie de l'opération marketing à chaque nouveau lancement.
On ne parle pas de boîte de bench ici mais de de tests faits par des testeurs indépendants via des mesures prises dans le jeu (via un vol reproductible pour MSFS par exemple).
Tests qui souvent permettent de se rendre compte que les gains annoncés par les fondeurs ne le sont que sur 1 ou 2 jeux et qu'au final il faut s'attendre à bien moins.

Les FPS ne sont peut-être pas le meilleurs indicateurs mais c'est ce qu'il y a de plus parlant pour comparer la puissance des cartes. Et au final ça ne marche pas si mal que ça : on voit quand même que quand on en demande beaucoup à la carte graphique (en UHD typiquement), plus la carte est puissante, plus les FPS augmentent.
 
Les dernières générations de cg étaient vendues comme pouvant prendre en charge des opérations jusque là effectuées par le cpu...
Ce n'est pas d'aujourd'hui... C'est depuis le début des CG.
Dès le départ, elles ont pris à leurs charges des traitements qui étaient fait (ou pas!...) initialement par le processeur.

Le but étant d'utiliser un processeur spécialisé et surtout complétement différent au niveau de son architecture. Celui-ci est (était...) beaucoup simple au niveau de celle-ci qu'un CPU.
Ce qui fait qu'il est beaucoup plus facile d'augmenter sa puissance en multipliant les unités d’exécution puisqu'il est massivement parallèle.

Tous le monde, depuis le départ également, travaille dans ce sens du transfert de charge.
En fait, c'est un ensemble non dissociable d'acteurs qui travaillent de concert :
- Les fondeurs de GPU,
- Les concepteurs d'OS,
- Les fabricants de carte mère,
- Les fondeurs de CPU (Design de leurs architectures).

C'est pourquoi, les couches d'API (DirectX, OpenGL, Vulcan...) évoluent au rythme des évolutions de ce transfert.
Sont également touché, des couches intermédiaires dans les OS afin de remplir ces nouvelles fonctionnalités (ex. : Gestion virtuelle de la VRAM, Management du/des Ring Buffer, ...).
Ceux-ci sont complétement transparent du grand public, car il est impossible de construire une communication dessus!...:poop:


..., cela entrainant une baisse de charge du cpu et de facto de meilleurs fps, du coup, exact ?
Dès que j'ai vu cela dans ta phase, j'ai eu une poussé d'urticaire...:love::love::love:
 
Dernière édition:
Désolé pour l'urticaire, c'était pas le but !
Moi, ca me paraissait logique: si tu baisses d'un coté la charge du cpu et que c'est lui qui détermine les fps...
Ca doit pas être si simple, j'imagine (y)
 
Retour
Haut