- 19/12/09, 02:38 #21Je suis avec toi Pierre, seulement avec 144 Mo embarqué...
@ Hal Gill, si tu veut discuté, discute en PV, merci.
- 19/12/09, 02:48 #22Message de QB122
- 19/12/09, 02:54 #23Je pense que sa intéresse Marie aussi ce que je dis...
J'ai le même Mac qu'elle. Je le branche tous les jours à un écran de 23 pouces en VGA et de temps en temps à un vidéoprojecteur pour des présentations et il n'y a aucun problème!!
DVI, VGA, pour son utilisation et le type d'écran qu'elle achète, on voit pas la différence à l'oeil nu...
- 19/12/09, 02:59 #24Je tiens à rappeler que j'aimerai aussi mater des vidéos (dvd, streaming, tv sur Internet) sur cet écran (en même temps que je ferais d'autres choses sur l'écran de mon lap top par exemple, donc même si je ne joue pas aux jeux, cet élément est peut-être important nan?
Pour vous donner une idée de mon utilisation: en écrivant ce message, je mate en même temps les Guignols en streaming dans une fenêtre réduite en haut de mon PC (donc, tout petit, donc relou)
- 19/12/09, 03:03 #25
- 19/12/09, 03:07 #26AnonymeT'as pas eu l'adapteur avec ton mac?
C'est possible que sur les macbook il ne fasse plus partit du package
- 19/12/09, 03:10 #27Aucun soucis,
je commencerais par signaler que la différence en VGA et DVI est bien une différence.
Je m'explique :
Le VGA et le DVI est déjà deux types de signaux différente.
Dont l'un est analogique et le second numérique.
Le VGA fait partie de l'ancienne époque, ayant a sa disposition 256 couleurs.
Tendis que le DVI est destinée aux nouveaux écrans de type LCD,
intégrant l'intermédiaire entre VGA et HD,
celui ci supporte des fréquences plus importante avec une gestion numérique,
plus riche que les 256 couleurs..
Il y y'a donc bien une différence, entre VGA et DVi (D pour la plus part).
EDIT: la différence peut être visuel, suffit de ce basé sur expérience VGA puis DVI.Dernière modification par QB122 ; 19/12/09 à 13:04.
- 19/12/09, 03:12 #28
- 19/12/09, 03:17 #29En effet, c'est juste que en vue de ta carte graphique supporter par ton Mac,
je crains que celui-ci ne puisse pas gérer du DVI-D en pleine résolution.
En VGA par contre, la gestions graphique (quantité graphique) diffère complètement.
Car elle sauras limiter a 256 couleurs et ta carte graphique devrais gérer des résolutions plus grande que ton 13" sans le moindre ralentissement perceptible.
De même que les tarifs sont beaucoup plus dégressif en VGA que en DVI,
puis ce que ces écrans sont en déstockage et réponde parfaitement à tes demandes.
- 19/12/09, 03:19 #30
- 19/12/09, 06:21 #31
Bon, pour être clair, si une sortie DVI est prévue sur son portable, c'est parce qu'il est capable d'encaisser cette sortie la. Le fait qu'il soit mini n'est qu'une conséquence de l'économie de place sur les MAC.
En plus, quoi qu'il arrive, l'ordinateur ne saura pas ce qu'il y aura après le port de sortie miniDVI, vu que l'adaptateur va transformer le signal numérique(DVI) en analogique (VGA). Au final, la carte graphique de l'ordi calculera bien la même chose, et l'adaptateur transformera directement le signal juste après.
Après, que choisir entre un écran avec prise VGA et un avec prise DVI voir même HDMI...
L'écran VGA a quelques avantages : Il est compatible avec tout. Si tu achète ton adaptateur, tu pourra aussi l'utiliser dans le cadre d'une présentation power point par exemple vu que les video projecteur son souvent en VGA. Je sais que comme ils sont plus anciens, ils ont souvent un prix plus bas pour les écrans uniquement analogique, en particulier parce qu'ils échappent à une taxe débile sur les produits numérique.
L'écran DVI est sorti bien après pour améliorer l'image, le passage au tout numérique est sencé faire gagner de la qualité. En vérité, je ne pense pas que tu vois une quelconque différence à l'oeil nu sur des surface d'écran aussi petites.(en dessous de 30 ou 40 pouces j'entends)
L'idéal pour moi est d'acheter un écran comme celui dont je t'ai donné le lien. 21 ou 22 pouces, c'est assez grand pour faire tout ce que tu veux, y compris regarder des films, ou la TV.
Avantage d'avoir 3 prises : VGA, DVI et HDMI
- Avoir le VGA est une possibilité de rester compatible avec les vieux PC, ca peut paraitre nul, mais ca peut servir.
- Avoir le DVI c'est les technologie actuelle. Si tu achete un PC maintenant, il aura une sortir DVI.(ou mini DVI)
- Avoir le HDMI, c'est être compatible avec les technologies de demain. Ca te permet par exemple de brancher tous périphériques HD(lecteur blueray, ordi, ...) dessus. On trouve aussi des décodeurs TNT avec sortie HDMI et dans ce cas la, ton écran d'ordi se transforme en écran de TNT. (ce qui fait une télé HD pour moins de 40€)
Voila, donc essaye d'avoir un écran avec au moins une entrée HDMI et une DVI, c'est le mieux pour le futur.
Et ne t'inquiète pas Marie, tu as une utilisation tout ce qu'il y a de plus basique de ton écran et tes besoins sont résolus depuis plus de 10 ans par les cartes graphiques et les écrans.
POUR LES GEEK : Petite précision par rapport à la mémoire, même en générant des points en 32 millions de couleurs sur du Full HD la carte vidéo suffira.
1920 * 1080 *32 bits = 64Mbits, soit 8 Mo de mémoire vive nécessaires... on est loin des 144 Mo que permet la carte.
-
- 19/12/09, 13:00 #32Salut,
D'où tien tu cette formule ?
S'agit t-il de mémoire dédié ou partagé ?
Est ce que la formule tien compte du GPU ?
En tous les cas, même ci la carte arrive a faire tourné du DVI voir HDMI,
je doute vraiment sur l'impacte que cela auras en visuel.
Après je met pas en doute ta formule, loin de là.
Mais bon, j'ai toujours travailler en minimum 256Mo en DVI,
sachant qu'il s'agissait d'usage pour bureautique et jeux.
En soit, tu dispose d'une sortie mini-DVI.
Mais bon, je pense que 144Mo avec un chipset de chez Intel..
Quitte a essayer, je me base sur mon exp, non sur ce type de calcule.
Verra bien si tu touche du bois ou non
Sur ce,
bonne journée !
QB122.
EDIT : je vient de dégoter une vielle CG de 128 et je dirais que pour de la bureautique ça tourne.
Mais les jeux, faut oublier.. faudra privilégié les jeux en flash, Java, mais sans plus.
Donc Marie, si tu tien à te mettre au DVI, vas y cela devrait tourné.
Avec deux écrans, je garantie rien du tout.Dernière modification par QB122 ; 19/12/09 à 13:14.
- 19/12/09, 17:21 #33En fait, j'ai travaillé avec des cartes graphiques qui faisaient dans les 1 ou 2 Mo dans le passé, donc on apprenait encore ce genre de formule. Elle permet de calculer la quantité de mémoire demandée pour l'affichage de tous les pixel de ton écran.
Cette formule tient compte de l'affichage minimum d'une carte graphique qui ne ferait rien d'autre sur un PC(hypothèse, le processeur fait tout)
Résolution large * resolution haute * nb de bits / 8 (passage en octet)
1920 * 1080 * 32 bits / 8
en gris résolution HD * 32 bits(nombre de couleurs possible)
Après, on met de plus en plus de mémoire parce que les cartes graphique ont maintenant un processeur embarque dédié aux calculs de graphisme, de texture, ou au décodage de la vidéo. Le GPU. Comme tout processeur, il nécessite une mémoire pour stocker les données qu'il traite.
Donc, pour l'affichage basique, on a besoin de 4Mo de mémoire
Après, pour tous les calculs 3D, etc et l'affichage avec des effets fluide, on va en demander un peu plus, mais ca passera très bien.
Pour les videos, au pire le proc prend en charge ou la mémoire système. donc ca ira aussi.
Le problème que tu rencontres avec les jeux n'est pas obligatoirement due à la mémoire, mais bien au GPU embarqué dans ta carte vidéo. C'est comme mettre un pentium 166 MMX à la place d'un athlon 2ghz, le second ira plus vite.
Le cas ou la mémoire joue pour beaucoup dans les jeux, c'est quand les textures sont nombreuses. Par exemple, si tu as un labyrinthe très carré à la quake 1, tu vois que les dessins des murs sont plus des carrés avec une image dessus(de la tapisserie dirons nous) Dans les nouveaux jeux, pour shématiser, la petite feuille qu'on voit au loin est elle aussi stockée dans la mémoire, donc forcement en augmentant le champ de vision et les détails, on se retrouve avec des quantités de textures à stockés dans la mémoire de la carte vidéo pour un accès ultra rapide. C'est ca qui fait que la mémoire doit être plus grosse parfois même que celle du système. On a le même problème pour le travail en 3D pour les mêmes raisons, plus de calcul, plus d'images = Grosse carte graphique.
Enfin, de toute façon, dans le cas présent, ce ne sera pas un problème. Marie fait des choses que l'on pouvait faire avec un ordi sous win 98, donc pas de raisons que le fait d'augmenter la résolution en passant a de la HD soit un problème.
Voili voilou...
Et pour l'afficgae sur 2 écrans, on ajoute juste les 2 formules pré citées, et on a donc :
1024*640 (écran 13 pouces ca doit être ca)*32 /8 + le chiffre précité. Ca doit faire dans les 5Mo nécessaires. flemme de calcul.
-
- 19/12/09, 22:10 #34Merci pour la formule, cela est toujours bon a prendre
Comme je t'est dit, je me base sur mon exp, je n'est pas eux la chance d'étudier l'informatique comme à école.
Je pense que j'ai plus rien a rajouter, tu semble être plus informer que moi a ce niveau.
Bonne soirée
et bonne chance pour ton future écran !
QB122.
- 20/12/09, 10:46 #35
- 20/12/09, 11:25 #36J'ai le même Macbook que toi.
Je te conseilles d'acheter cet adaptateur made in apple. Peut être un peu plus cher, mais au moins 100 % compatible.
Tu le branches sur la sortie DVI de ton Macbook, sur la tranche côté gauche à côté de ta prise batterie. Tu branches ton écran sur la prise VGA de ton adaptateur, et hop, ça fonctionne.
Au niveau de la prise en charge des écrans, ne t'inquiète pas trop, ça fonctionne avec presque tout
J'ai une TV Sharp de 82 cm Full HD, je la branche sur sur mon Macbook et je n'ai aucune saccade, je regarde mes films, séries et autre.
Après pour ton écran, entre 2ms et 5ms, honnettement, je ne pense pas que tu vois une réelle différence.
Si l'écart de prix n'est que très faible, fait toi plaisir, sinon, c'est comme une voiture, un moteur 120 chvx c'est toujours plus agréable qu'un 90 chvx, mais pour faire de la nationale et aller chercher son pain, 90 chvx suffisent amplement
-
- 20/12/09, 14:10 #37Bon une dernière info, dans ce HS (DVI, VGA, HDMI)..
Je t'envoie l'illustration de l'entrée mini-DVI de ton Mac:
https://www.tekserve.com/images/rentals/mini-dvi.jpg (nouvelle norme).
Bonne journée,
QB122.Dernière modification par QB122 ; 20/12/09 à 21:59. Motif: rectification par chat.too.ee
- 20/12/09, 20:12 #38AnonymeCe n'est pas l'illustration de ce son Mac et la prise de son MacBook ne se trouve pas là.
- 20/12/09, 20:52 #39Mais je sait que c'est pas son Mac
C'est juste pour qu'elle sache vers quelle port le branché... et oui c'est bien la sortie Mini-DVI :
https://www.matrox.com/graphics/medi...on_MacBook.jpg
Sur ce,
QB122.Dernière modification par QB122 ; 20/12/09 à 20:55.
- 20/12/09, 21:15 #40C'est plus un Mini DisplayPort ça. La nouvelle norme de sortie vidéo sur les Macbook.
Pour la différence : https://1loup.net/share/IMG/NouveauMacMini.jpg
Identifiez-vous pour répondre
Pour accéder à cette fonctionnalité, vous devez vous inscrire au préalable ou vous identifier grâce au formulaire ci-dessous.