Mirot utworzono 22 listopada 2016 utworzono 22 listopada 2016 Jak bardzo duże znaczenie ma to ile karta graficzna posiada bitów? Czy czym więcej tym lepiej?
Youki komentarz 22 listopada 2016 komentarz 22 listopada 2016 A pytasz w kontekście jakiś konkretnych kart? NIe jest to na pewno decydujący parametr, którym należy się kierować przy wyborze karty graficznej.
Mogeto komentarz 22 listopada 2016 komentarz 22 listopada 2016 tak, generalnie czym więcej tym lepiej ale jak chcesz porównywać karty to poczytaj jakieś testy na necie, pooglądaj wykresy itd bo po jednym parametrze nie ma co porównywać
lukasz298punto komentarz 22 listopada 2016 komentarz 22 listopada 2016 Ten parametr ma mały wpływ na wydajnosci np gtx 1080 ma 256 bit a hd 7950 384-bit a wiadomo jaka jest przepaść w wydajnosci.
rafalluz komentarz 22 listopada 2016 komentarz 22 listopada 2016 Niekoniecznie że mały, ale przez autora wyrwany z kontekstu. Radeon 2900XT miał szynę 512-bit, jest wolniejszy niż dzisiejsze integry.
lukasz298punto komentarz 22 listopada 2016 komentarz 22 listopada 2016 Trochę wyrwany z kontekstu to prawda ale chciałem dobitnie pokazać że nie powinno się kierować tym parametrem przy wyborze karty .
FrogsterPL komentarz 23 listopada 2016 komentarz 23 listopada 2016 (edytowane) W bardzo dużym uproszczeniu można by było powiedzieć, że im więcej bitów tym lepiej, ale teraz już niestety sprawa nie jest taka prosta. Ten parametr miał istotne znaczenie głównie w czasach kart takich jak na przykład GeForce 2/4 MX i 5 FX, Radeony serii 7000-9000 - wtedy można było w wielu przypadkach prosto stwierdzić, że karty 64-bitowe były potwornie wolne i nadające się głównie do aplikacji biurowych, 128-bitowe to była już często mniej lub bardziej sensowna wydajność, a 256-bit - szczyt wydajności. Trzeba było uważać, bo standardem było oferowanie kart o podobnych nazwach, ale różnych parametrach (przykładowo Radeony 9600, 9600 Pro czy 9600 XT były 128-bitowe, ale 9600 SE były już 64-bitowymi "kastratami" i były znacznie wolniejsze nawet od zwykłego 9600 - mimo, że z tego co pamiętam, taktowanie czy parametry rdzenia graficznego się w ogóle nie różniły). Taki podział zaczął się zacierać niewiele później, bo już np. 128-bitowe GeForce'y 7300 GT czy 7600 GS/GT miały osiągi na poziomie oferowanych niewiele wcześniej (lub nawet w tym samym czasie) kart 256-bitowych - większą uwagę trzeba było zwracać na typ zastosowanej pamięci (np. wspomniane GeForce'y zdarzały się z wolnymi pamięciami DDR2 lub znacznie szybszymi GDDR3 - szyna danych zawsze miała tyle samo bitów, ale wydajność różniła się znacząco). Obecnie, tak jak już koledzy wyżej napisali, jest to mniej istotny parametr, choć nadal do gier karty 64-bitowej bym raczej nie kupił; w grupie kart 128-bitowych jest już natomiast sporo fajnych propozycji.
Wciąż szukasz rozwiązania problemu? Napisz teraz na forum!
Możesz zadać pytanie bez konieczności rejestracji - wystarczy, że wypełnisz formularz.