Neue Antwort schreiben 
 
Themabewertung:
  • 0 Bewertung(en) - 0 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
au revoir, VGA und DVI-A.
Benjamin92 Offline
tauscht CMOS-Batterie per TeamViewer

Beiträge: 7.787
Registriert seit: Jul 2008
Beitrag #71
au revoir, VGA und DVI-A.
Digital ist nicht immer gut, beim digitaliesieren gehen Informationen verloren, kann aber ned abschätzen, ob das hier ein Argument ist.
19.12.2010 16:39
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
gandro Offline
Quälgeist

Beiträge: 8.950
Registriert seit: Jul 2008
Beitrag #72
au revoir, VGA und DVI-A.
Benjamin92 schrieb:  Digital ist nicht immer gut, beim digitaliesieren gehen Informationen verloren, kann aber ned abschätzen, ob das hier ein Argument ist.
Eh. Das Bild aus der Grafikkarte ist im Ursprung digital. Da wird also nichts digitalisiert, es herrscht auch kein Informationsverlust.

Ganz anders als bei VGA. Verwende da mal ein 5m-Kabel mit einer höheren Auflösung, da hast du Informationsverlust durch Flackern und Flimmern.
19.12.2010 16:42
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
mrshadowtux
Unregistered

 
Beitrag #73
au revoir, VGA und DVI-A.
Benjamin92 schrieb:  Digital ist nicht immer gut, beim digitaliesieren gehen Informationen verloren, kann aber ned abschätzen, ob das hier ein Argument ist.
Bei der Bildübertragung von Grafikkarten zum Monitor leider nicht, da hier das Ausgangssignal digital ist.
In Sachen Audio sieht es aber schon ganz anders aus, da man hier das analoge Ausgangssignal digitalisiert und das ganze durch die Abtastrate unnötig beschränkt. Und wenn dann noch Komprimierung ala mp3 im Spiel ist...
19.12.2010 16:45
Diese Nachricht in einer Antwort zitieren
Benjamin92 Offline
tauscht CMOS-Batterie per TeamViewer

Beiträge: 7.787
Registriert seit: Jul 2008
Beitrag #74
au revoir, VGA und DVI-A.
Ich habs so gelernt, dass es manchmal in der Messtechnik Probleme macht, die Digitalisierung, aber ich glaube, das ist dann am Thema vorbei.
19.12.2010 16:52
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
michi Offline
Bad GPU Fetish

Beiträge: 6.523
Registriert seit: Jul 2008
Beitrag #75
au revoir, VGA und DVI-A.
mrshadowtux schrieb:  
Benjamin92 schrieb:  Digital ist nicht immer gut, beim digitaliesieren gehen Informationen verloren, kann aber ned abschätzen, ob das hier ein Argument ist.
Bei der Bildübertragung von Grafikkarten zum Monitor leider nicht, da hier das Ausgangssignal digital ist.
In Sachen Audio sieht es aber schon ganz anders aus, da man hier das analoge Ausgangssignal digitalisiert und das ganze durch die Abtastrate unnötig beschränkt. Und wenn dann noch Komprimierung ala mp3 im Spiel ist...

kommt drauf an, inwiefern das Signal weiterverwendet wird. Teure Verstärker haben an den Eingängen A/D Wandler und am Ausgang wieder nen D/A Wandler, also würds mehr Sinn machen wenn ich digital reinfahre (Obwohl bei Leuten die solche Verstärker besitzen wahrscheinlich die Wandler derart gut sind, sodass man keinen Unterschied hört...).


Benjamin92 schrieb:  Ich habs so gelernt, dass es manchmal in der Messtechnik Probleme macht, die Digitalisierung, aber ich glaube, das ist dann am Thema vorbei.

Schon klar. Aber wenn das Ausgangssignal digital ist, und das Signal das ich verwende auch digital, dann macht es keinen Sinn das Signal für die Verbindung analog umzuwandeln. Wenn du jetzt aber einen Sinus mit einem Digitalen Messgerät messen willst, schauts schon anders aus, da willst du über ein Analoges Signal möglichst viel wissen, aber alles geht nicht. Beim Bildschirm ist ein Pixel ein Pixel, da hat man durch VGA nur Nachteile...

ThinkPad X13s gen1 - Snapdragon 8cx gen3 - 16 GB DDR4 - Adreno 690 - 1 TB Corsair MP600 mini - FHD IPS - Win11
New Shyzen - Ryzen 5 5600X - 32 GB DDR4 - Radeon RX 6750 XT - 250 GB Samsung 960 EVO; 120 GB Intenso SATA - 4k IPS - Win11
Es ist RISC im Haus!
(Dieser Beitrag wurde zuletzt bearbeitet: 19.12.2010 17:01 von michi.)
19.12.2010 16:56
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
MaTel Offline
Hambuich meine Perle

Beiträge: 1.214
Registriert seit: Jul 2008
Beitrag #76
au revoir, VGA und DVI-A.
michi schrieb:  
mrshadowtux schrieb:  
Benjamin92 schrieb:  Digital ist nicht immer gut, beim digitaliesieren gehen Informationen verloren, kann aber ned abschätzen, ob das hier ein Argument ist.
Bei der Bildübertragung von Grafikkarten zum Monitor leider nicht, da hier das Ausgangssignal digital ist.
In Sachen Audio sieht es aber schon ganz anders aus, da man hier das analoge Ausgangssignal digitalisiert und das ganze durch die Abtastrate unnötig beschränkt. Und wenn dann noch Komprimierung ala mp3 im Spiel ist...

kommt drauf an, inwiefern das Signal weiterverwendet wird. Teure Verstärker haben an den Eingängen A/D Wandler und am Ausgang wieder nen D/A Wandler, also würds mehr Sinn machen wenn ich digital reinfahre (Obwohl bei Leuten die solche Verstärker besitzen wahrscheinlich die Wandler derart gut sind, sodass man keinen Unterschied hört...).

Hat ein PC/Homecomputer jemals analoge Signale über seine Soundkarte/Onboardsound ausgegeben, die intern nicht digital verarbeitet wurden? Da hat sich doch seit 30 Jahren nichts geändert.

Mich nerven Verschwörungstheoretiker

Wer Rechtschreibfehler findet, darf sie behalten!
19.12.2010 17:03
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
michi Offline
Bad GPU Fetish

Beiträge: 6.523
Registriert seit: Jul 2008
Beitrag #77
au revoir, VGA und DVI-A.
Schon aber ein Verstärker. Die Alten haben alles Analog verstärkt, und ich hab mal gehört, dass die neuen das Signal zur "Bearbeitung" Digitalisieren und dann wieder Analog ausgeben.

ThinkPad X13s gen1 - Snapdragon 8cx gen3 - 16 GB DDR4 - Adreno 690 - 1 TB Corsair MP600 mini - FHD IPS - Win11
New Shyzen - Ryzen 5 5600X - 32 GB DDR4 - Radeon RX 6750 XT - 250 GB Samsung 960 EVO; 120 GB Intenso SATA - 4k IPS - Win11
Es ist RISC im Haus!
19.12.2010 17:06
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
oreissig Offline
Maître Modérateur

Beiträge: 11.991
Registriert seit: Jul 2008
Beitrag #78
au revoir, VGA und DVI-A.
hecken schrieb:  
oreissig schrieb:  wie bewertest du unter dem Gesichtspunkt die Geschehnisse der Vergangenheit? der PC war nicht zum C64 kompatibel, PCI nicht zu SBus oder auch ISA, der Sun Tastaturstecker nicht zu PS/2, PS/2 und Parallelport nicht zu USB, CDs nicht zu Floppylaufwerken, IDE nicht zu MFM oder Mitsumi, SATA nicht zu IDE...war quasi alles unnötig, scheiße und man wäre lieber beim alten geblieben?
du vergisst, dass es damals eh noch keine einheitlichen standards gab. jeder (heim-)computer war eine komplett eigene, geschlossene umgebung. heute haben wir einen quasi-standard, den pc. und der wird unnötigerweise immer weiter verschlimmbessert...
standards gabs da durchaus, z.B. war die CPU-Vielfalt ziemlich gering (8080/z80 oder 6502 (oder dessen varianten)) und als Software hatten die meisten BASIC oder CP/M, die man durchaus als etablierte Standards werten kann.

und was ist mit den anderen 9 beispielen?
19.12.2010 17:11
Webseite des Benutzers besuchen Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
freaked Offline
× ∫яεαкεδ εησυġн × ζιgнтѕтαя ×

Beiträge: 17.324
Registriert seit: Jul 2008
Beitrag #79
au revoir, VGA und DVI-A.
es wäre wohl schon möglich, die anschlussarten beizubehalten, bzw mit zusatzsteckern zu erweitern, die man bei bedarf weg läßt, wie zB beim atx 24p stecker und damit legacy-support bereit stellen kann (bei bedarf mit zusätzlichen controllern, und auf so nem atx mobo ist einiges an platz)
[Bild: atx-connector-20-24pin.jpeg]

19.12.2010 17:15
Webseite des Benutzers besuchen Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
klemmi Offline
Erfahrener Benutzer

Beiträge: 901
Registriert seit: Jul 2008
Beitrag #80
au revoir, VGA und DVI-A.
michi schrieb:  kommt drauf an, inwiefern das Signal weiterverwendet wird. Teure Verstärker haben an den Eingängen A/D Wandler und am Ausgang wieder nen D/A Wandler, also würds mehr Sinn machen wenn ich digital reinfahre (Obwohl bei Leuten die solche Verstärker besitzen wahrscheinlich die Wandler derart gut sind, sodass man keinen Unterschied hört...).

Der Effekt ist einfach, dass man digital das Signal bearbeiten kann, ohne dabei die Qualität (messbar) zu beeinflussen. Analog sieht das schon anders aus.
Bei der Abtastung geht keinerlei Information verloren und der Fehler durch die Wertdiskretisierung entsteht, ist ein weißes Rauschen, das bei sinnvoll gewählten Parametern weit unter dem SNR des Ursprungssignals liegt. Dass eine Röhre "besser klingt" bzw. manche das zumindest meinen, als ein IC-Verstärker (der u.U. digital arbeitet) liegt dabei aber daran, dass die Röhre das Signal verfälscht. Das kann man digital nachbauen, wenn man mag!


EDIT:
Zum allgemeinen Topic:
Ich denke, die Entwicklung der REchentechnik wäre viel viel langsamer vorangegangen, wenn es nicht eine Hand voll große Firmen gegeben hätte, die Standards setzen und genauso wieder über den Haufen werfen konnten!

(Dieser Beitrag wurde zuletzt bearbeitet: 19.12.2010 17:22 von klemmi.)
19.12.2010 17:17
Alle Beiträge dieses Benutzers finden Diese Nachricht in einer Antwort zitieren
Neue Antwort schreiben 


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 2 Gast/Gäste