Die sollten einfach ma sagen "XP läuft nurnoch auf P4 oder älter" und schauen was rauskommt.
au revoir, VGA und DVI-A.
-
-
xp is doch wayne
-
wird aber noch von vielen benutzt
-
Noch mal: Abwärtskompatibilität ist doch insoweit gegeben, dass nicht die Bildschirm-Hersteller waren, die das Ende der analogen Bildausgabe beschlossen haben, sondern die Hersteller von Grafikkarten? Zumindest aus der Perspektive von Intel und AMD wird nach wie vor die Möglichkeit gegeben sein, eueren alten Computer oder euer Netbook, die nur über einen VGA-Ausgang verfügen, an eueren neuen TFT anzuschließen. Ein gesunder Mensch würde ohnehin nicht mehr seinen Full-HD-Monitor an seinen PC per VGA verbinden, um die ohnehin durch die höhere Pixeldichte kleinere Darstellung erst unleserlich zu machen (mal ganz abgesehen von der ganzen Kalibrierungs-Schoße, die nach über 12 Jahren der dominierenden analogen Bildübertragung endlich der Vergangenheit angehört).
Und solange das Betriebssystem neu genug ist, um überhaupt mit der installierten Grafikkarte klar zu kommen, gibt es allein des Unterschieds VGA zu DVI oder DisplayPort/HDMI wegen doch auch von Software-Seite keinen Bruch der Kompatibilität? -
Zitat von oreissig
hmm interessant, das würd mich jetz ehrlichgesagt mal stark interessieren, wo werbung gemacht wird um Leute von VGA wegzubewegen.
wie gesagt: DVI gibts seit 11 Jahren, inzwischen haben praktisch alle Leute so oder so migriert (und zwar nicht wegen der Schnittstelle ansich, sondern weil Bildschirme auch einfach besser geworden sind)
schau doch malk die ganzen neuen grafikkarten an, haben nur noch DVI
und ich kenne kaum monitore mit dvi -
Hm? Also wenn ich mir so die ganzen TFT-Computer-Bildschirme angugg, die haben doch DVI O_o
-
Zitat von mrshadowtux
Da stimme ich dir absolut zu. Neue Technik gerne - aber nur wenn Kompatibilität zur alten vorhanden ist!
wie bewertest du unter dem Gesichtspunkt die Geschehnisse der Vergangenheit? der PC war nicht zum C64 kompatibel, PCI nicht zu SBus oder auch ISA, der Sun Tastaturstecker nicht zu PS/2, PS/2 und Parallelport nicht zu USB, CDs nicht zu Floppylaufwerken, IDE nicht zu MFM oder Mitsumi, SATA nicht zu IDE...war quasi alles unnötig, scheiße und man wäre lieber beim alten geblieben? -
Zitat von oreissig
Vergangenheit? der PC war nicht zum C64 kompatibel,
Also hier muss ich mal einhaken... kamen die Beiden nicht fast gleichzeitig auf dem Markt.... IBM=1981 und C64=1982? Gott sei dank war der C64 nicht IBM-Kompatibel.... der C64 war viel geiler
PS: die Ironietags könnt ihr euch denken
-
Zitat von oreissig
wie bewertest du unter dem Gesichtspunkt die Geschehnisse der Vergangenheit? der PC war nicht zum C64 kompatibel, PCI nicht zu SBus oder auch ISA, der Sun Tastaturstecker nicht zu PS/2, PS/2 und Parallelport nicht zu USB, CDs nicht zu Floppylaufwerken, IDE nicht zu MFM oder Mitsumi, SATA nicht zu IDE...war quasi alles unnötig, scheiße und man wäre lieber beim alten geblieben?du vergisst, dass es damals eh noch keine einheitlichen standards gab. jeder (heim-)computer war eine komplett eigene, geschlossene umgebung. heute haben wir einen quasi-standard, den pc. und der wird unnötigerweise immer weiter verschlimmbessert...
-
Du findest es unnötig wenn man von analogen zu digitalen Monitoren wechselt auch von einer analogen Schnittstelle zu einer Digitalen zu wechseln? Ich mein, welchen Nachteil hat das?
-
Digital ist nicht immer gut, beim digitaliesieren gehen Informationen verloren, kann aber ned abschätzen, ob das hier ein Argument ist.
-
Zitat von Benjamin92
Digital ist nicht immer gut, beim digitaliesieren gehen Informationen verloren, kann aber ned abschätzen, ob das hier ein Argument ist.
Eh. Das Bild aus der Grafikkarte ist im Ursprung digital. Da wird also nichts digitalisiert, es herrscht auch kein Informationsverlust.Ganz anders als bei VGA. Verwende da mal ein 5m-Kabel mit einer höheren Auflösung, da hast du Informationsverlust durch Flackern und Flimmern.
-
Zitat von Benjamin92
Digital ist nicht immer gut, beim digitaliesieren gehen Informationen verloren, kann aber ned abschätzen, ob das hier ein Argument ist.
Bei der Bildübertragung von Grafikkarten zum Monitor leider nicht, da hier das Ausgangssignal digital ist.
In Sachen Audio sieht es aber schon ganz anders aus, da man hier das analoge Ausgangssignal digitalisiert und das ganze durch die Abtastrate unnötig beschränkt. Und wenn dann noch Komprimierung ala mp3 im Spiel ist... -
Ich habs so gelernt, dass es manchmal in der Messtechnik Probleme macht, die Digitalisierung, aber ich glaube, das ist dann am Thema vorbei.
-
Zitat von mrshadowtux
Bei der Bildübertragung von Grafikkarten zum Monitor leider nicht, da hier das Ausgangssignal digital ist.
In Sachen Audio sieht es aber schon ganz anders aus, da man hier das analoge Ausgangssignal digitalisiert und das ganze durch die Abtastrate unnötig beschränkt. Und wenn dann noch Komprimierung ala mp3 im Spiel ist...kommt drauf an, inwiefern das Signal weiterverwendet wird. Teure Verstärker haben an den Eingängen A/D Wandler und am Ausgang wieder nen D/A Wandler, also würds mehr Sinn machen wenn ich digital reinfahre (Obwohl bei Leuten die solche Verstärker besitzen wahrscheinlich die Wandler derart gut sind, sodass man keinen Unterschied hört...).
Zitat von Benjamin92Ich habs so gelernt, dass es manchmal in der Messtechnik Probleme macht, die Digitalisierung, aber ich glaube, das ist dann am Thema vorbei.
Schon klar. Aber wenn das Ausgangssignal digital ist, und das Signal das ich verwende auch digital, dann macht es keinen Sinn das Signal für die Verbindung analog umzuwandeln. Wenn du jetzt aber einen Sinus mit einem Digitalen Messgerät messen willst, schauts schon anders aus, da willst du über ein Analoges Signal möglichst viel wissen, aber alles geht nicht. Beim Bildschirm ist ein Pixel ein Pixel, da hat man durch VGA nur Nachteile...
-
Zitat von michi
kommt drauf an, inwiefern das Signal weiterverwendet wird. Teure Verstärker haben an den Eingängen A/D Wandler und am Ausgang wieder nen D/A Wandler, also würds mehr Sinn machen wenn ich digital reinfahre (Obwohl bei Leuten die solche Verstärker besitzen wahrscheinlich die Wandler derart gut sind, sodass man keinen Unterschied hört...).
Hat ein PC/Homecomputer jemals analoge Signale über seine Soundkarte/Onboardsound ausgegeben, die intern nicht digital verarbeitet wurden? Da hat sich doch seit 30 Jahren nichts geändert.
-
Schon aber ein Verstärker. Die Alten haben alles Analog verstärkt, und ich hab mal gehört, dass die neuen das Signal zur "Bearbeitung" Digitalisieren und dann wieder Analog ausgeben.
-
Zitat von hecken
du vergisst, dass es damals eh noch keine einheitlichen standards gab. jeder (heim-)computer war eine komplett eigene, geschlossene umgebung. heute haben wir einen quasi-standard, den pc. und der wird unnötigerweise immer weiter verschlimmbessert...
standards gabs da durchaus, z.B. war die CPU-Vielfalt ziemlich gering (8080/z80 oder 6502 (oder dessen varianten)) und als Software hatten die meisten BASIC oder CP/M, die man durchaus als etablierte Standards werten kann.und was ist mit den anderen 9 beispielen?
-
es wäre wohl schon möglich, die anschlussarten beizubehalten, bzw mit zusatzsteckern zu erweitern, die man bei bedarf weg läßt, wie zB beim atx 24p stecker und damit legacy-support bereit stellen kann (bei bedarf mit zusätzlichen controllern, und auf so nem atx mobo ist einiges an platz)
-
Zitat von michi
kommt drauf an, inwiefern das Signal weiterverwendet wird. Teure Verstärker haben an den Eingängen A/D Wandler und am Ausgang wieder nen D/A Wandler, also würds mehr Sinn machen wenn ich digital reinfahre (Obwohl bei Leuten die solche Verstärker besitzen wahrscheinlich die Wandler derart gut sind, sodass man keinen Unterschied hört...).
Der Effekt ist einfach, dass man digital das Signal bearbeiten kann, ohne dabei die Qualität (messbar) zu beeinflussen. Analog sieht das schon anders aus.
Bei der Abtastung geht keinerlei Information verloren und der Fehler durch die Wertdiskretisierung entsteht, ist ein weißes Rauschen, das bei sinnvoll gewählten Parametern weit unter dem SNR des Ursprungssignals liegt. Dass eine Röhre "besser klingt" bzw. manche das zumindest meinen, als ein IC-Verstärker (der u.U. digital arbeitet) liegt dabei aber daran, dass die Röhre das Signal verfälscht. Das kann man digital nachbauen, wenn man mag!EDIT:
Zum allgemeinen Topic:
Ich denke, die Entwicklung der REchentechnik wäre viel viel langsamer vorangegangen, wenn es nicht eine Hand voll große Firmen gegeben hätte, die Standards setzen und genauso wieder über den Haufen werfen konnten! -
Jetzt mitmachen!
Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!