Adramelech pisze:
> mpx <mpx@nospkj.pl> Odpowiedz na news:fnvghu$b7v$1@nemesis.news.tpi.pl:
> Niemożliwe. Cyfrowy obraz jest cyfrowym obrazem i koniec. Binarne 1 z ATI
> jest identyczne binarnym 1 z nvidii.
Jeżeli te zera i jedynki będą na wyjściu DVI/HDMI/Displayport identyczne
to obraz będzie identyczny (to też nie jest prawda - DVI i HDMI nie
mają korekcji błędów, dopiero w Displayport ją wprowadzili). Natomiast
to co poda program, a to co wyjdzie na wyjściu cyfrowym to nie jest to
samo!
Obraz 2D jest przecież intensywnie przetwarzany na etapie od dostania
wartości RGB z programu do przejścia na wyjście cyfrowe - te wszystkie
korekcje jasności/kontrastu/gamma/nasycenia/digital vibrance (to co
ustawiasz w sterowniku) i inne są właśnie dodawane na tym etapie.
Wystarczy że coś jest nie tak zrobione wewnątrz układu na tym etapie - i
już kolory są zniekształcone.
Różnice w odwzorowaniu kolorów są widoczne (BTW. w grach 3d wyraźniejsze
niż w 2D, a najbardziej różniącym się kolorem wydaje się czerwony), więc
po prostu uważam że skoro twórca wątku jest profesjonalistą, to niech
się zainteresuje sprawą i zobaczy obydwa typy kart w akcji i sam
zdecyduje co jest dla niego lepsze.
Received on Fri Feb 1 22:10:15 2008
To archiwum zostało wygenerowane przez hypermail 2.1.8 : Fri 01 Feb 2008 - 22:51:02 MET