Hirdetés
-
Játékosbarát frissítést kapott az ASUS ROG Ally
ph A vállalat engedélyezte az AMD Fluid Motion Frames eljárását.
-
Toyota Corolla Touring Sport 2.0 teszt és az autóipar
lo Némi autóipari kitekintés után egy középkategóriás autót mutatok be, ami az észszerűség műhelyében készül.
-
Motorola Moto G24 Power - hol van az erő?
ma Nagy az aksi, gyenge a hardver, amiből hosszú üzemidőre lehetne következtetni. Tényleg így van?
Aktív témák
-
HiperG
addikt
Egy lovacskával nem nyomjuk le a konkurenciát? Sebaj próbáljuk meg kettővel...
A la nvidia ;] -
veterán
válasz _Geri_--- #99 üzenetére
Ezt az alaplapokra írtam! 2 év múlva nem lesz drága tuti. Addigra már GF 7800-as kártyák lesznek, de 2db használt 6800-as olcsóbb lesz mint egy 7800-as és valószínüleg gyorsabb is. DX10 2006-ra várható a Longhornban, amire bámi is ki fogja használni az +1-2 év. És jelen helyzetben a 6800 korszerőbb DX terén mint az X800, szóval azzal nem lesz gond.
Meg olvasd el fentebb a GF4-es példámat! -
Raymond
félisten
A fentihez meg amirol beszeltunk: alaplap meg ma is akkor olcso, ha olcson lehet legyartani. Ez alapvetoen attol fugg meg e lehet csinalni negy reteggel. Ha igen, akkor van belole akarmennyi, ha nem, akkor csak high-end sok penzert. VIA-tol fuggetlenul (foleg mert nem gyart alaplapokat).
2 ev rengeteg ido, tobbek kozott pont azert is, mert a Longhorn kb akkor jon. Az hogy a 6800 ma korszerubb teljesen mindegy a DX10(vagy Next) szempontjabol.Privat velemeny - keretik nem megkovezni...
-
_Geri_---
csendes tag
mikor olcsó egy alaplap?
1. újgazdag hülyegyerek kidurrasztja a kondenzátort mer fordítva dugja bele a procit a foglalatba kalapáccsal, és pár forintér a fejedhezvágják a számtekboltban, ami felénk egyenlő a számtekcuccok régiségboltjával és egy számtek használtcucckereskedéssel
2. cigánycsávó általhozza a Tiszán, Duna árnyékába, vagy éppen Ausztriából lopják el egy kempingező osztrák szegény embertől, mert ott nem olyanokat használnak, ami nálunk high end, mert az ott már low end és lecsengett... nah ilyet behoznak, nem tudják beazonosítani, mire is szolgálhat, és eladják a cigánypiacon
3. úgy néz ki fele chip, mintha le lenne égve, pedig nincs is, demá hogyan néz ki, eladjuk ezresé cigénpiacon
ezen három eset valamelyike mindíg fenn áll, amikor olcsó az alaplap.
jah és három a magyar igasság +1 a ráadás:
fura forrásztások vannak az alaplap hátulján, meg a tetején is, kis kábelek lógnak jobbra balra, és rá van íra az alaplapra szép nagy betűkkel, hivalkodóan, hogy azusz. -
veterán
Azt hogy egy alaplapot mikor olcsó gyártani, az attól függ, hogy mennyit csinálnak belőle, és hogy a hozzá szükséges gyártástechnológia milyen drága.
Szóval ha van rá igény akkor sokat fognak gyártani ilyen lapból, és a sokat gyártanak belőle akkor elöbb-utóbb olcsó is lesz...
VIA-t meg azért írtam, mert úgy tudom hogy az hogy hány darab PCI-EX 16x chati lehet a lapon az a chipsettől függ.
2 ev rengeteg ido, tobbek kozott pont azert is, mert a Longhorn kb akkor jon. Az hogy a 6800 ma korszerubb teljesen mindegy a DX10(vagy Next) szempontjabol
Egyáltalán nem mind1. Azt meg már többször leírtam, hogy amíg a longhorn nem jön addig DX9 lesz. Ha a longhorn bejön, akkor is még 1-2 év mire egy játék kihasználja... szóval a 6800-nak feature tekintetében nem lesz gondja 2-3 évig biztosan. Mikor jelent meg a DX9? Még most sincs olyan játék aminek csak DX9-es kártya lenne jó, arról nem is beszélve, hogy a FarCry sem támogat minden DX9-es feature-t -
putti
aktív tag
''Nagyon jó ötletnek tartom az SLI-t végre vmi a 3Dfx háza tájáról!
Eddig nagyon csodálkoztam, hogy miért nem kezdenek vmit az örökséggel...
Ha nézzük a mostani helyzetet akkor ki ne ruházna be mondjuk 2db GF4TI4200-ra?''
Én biztos hogy nem, mert nincs két AGP slot-om! :DD
Következtetésképpen, szerintem ezért nem csináltak eddig SLI-t.
A sima PCI, meg nem a mai videókarik csatlakozója.
''a 3Dfx hibát hibára halmozott''
Ja, megalkotta az első 3d-s gyorsítókártyát és elkezdődött a harc :DD
''nem véletlen hogy nem az ATI, hanem az nV gyűrte le!''
Ja, legyűrte az nvidia a 3dfx-et(meg is vette), de most őket gyűri le az ati, már egy jó ideje.
''Most pl a GF6800 a korszerübb kártya, csak kicsit lassabb az ATI-nál.''
Aha,korszerűbb, csak irreálisan drága, szerintem ennyiért meg tudok venni egy X800 XT is, aminek talán szebb is a képe.
[Szerkesztve] -
putti
aktív tag
Ahelyett hogy arra törekedne az nv, hogy gyorsabb kártyája legyen megfizethető áron, inkább ebbe öli bele az idejét és a pénzét. Persze valahol vissza is fogja hozni, mert egy megrögzött nvidiásnak nem fogod megmondani, hogy ez ennyi pénzért fölösleges, inkább nézz másik megoldást.
Lehet hogy az nv-sek most leharapják a fejemet,úgyhogy megjegyzem hogy eddig nekem is nvidiám volt és én is megrögzött voltam, amíg az ati személyesen meg nem győzött. Még a ti4800se-m van (már eladtam csak még nálam van) de pár hét múlva X800 XT-m lesz. -
DcsabaS
senior tag
A 2 chipes, illetve 2 kártyás megoldásokkal optimális esetben egy 2-es faktort lehet nyerni sebességben, majdnem 2-szeres, illetve pontosan 2-szeres áron.
Általalában ennél határozottan olcsóbb és kényelmesebb növelni a GPU processzálási sebességét, _kivéve_ ha egy adott félvezető technológián már elérték a legmagasabb frekit és a megengedhető maximális tranzisztorszámot. Ezért durván arra az 1-2 évre lehet érdemes csinálni ilyen csúcs kategóriás cuccot, amíg az 1 chipes GPU-k utól nem érik őket. (Szóval átmenetileg.)
Egy 16 chipes konstrukciónak természetesen hosszabb a kifutása (meg az ára!), hiszen ha mondjuk évente duplázódik a GPU-k teljesítménye, akkor csak 4 év múlva érik el a 16 chip-es rendszer teljesítményét.
A 3Dfx annak idején azért bukta el a versenyt az nVIDIA-val szemben, mert túl régi technológián szállt versenybe. Mert míg a VSA-100 0.25 mikronon volt gyártva, és csak kb. max. 166 MHz-et bírt SDR SDRAM támogatása mellett, az nVIDIA aktuális GPU-i már 0.18 mikronon voltak gyártva, DDR SDRAM támogatással és akár 333 MHz-es RAM frekivel. Ha a VSA-100-at is 0.18 mikronon gyártották volna (VSA-200), akkor a VooDoo5 kártyák fogyasztása egyáltalán nem lett volna nagy, nem kellett volna külön tápfesz csatlakozó, és DDR támogatás mellett egy 4 chipes konstrukció teljes sávszélessége 21 GByte/s lett volna, ami ma is igen nagynak számít.
Effektek szempontjából több lehetőséget kínált a T-Buffer, mint amit ma kihasználnak, így hátrányként maradt volna a geometriai gyorsítás hiánya (bár a mintapéldányként gyártott VSA-200-ak állítólag már azt is tudták). Ez viszont egy olyan dolog, hogy egyrészt az alaplapi CPU-k is egyre gyorsabbak, másrészt a hardveres T'n'L máig sem tudott eljutni odáig, hogy mellette felesleges legyen a gyors CPU. Szóval túl sokat nem nyertünk vele, csak szaporodott a lehetséges inkompatibilitások száma.
Még egy megjegyzés:
Ha a mai GPU-k fogyasztása nem lenne már amúgy is túl nagy, inkább annak látnám értelmét, hogy 1 kártyán helyezzenek el több GPU-t. Esetleg valami hatékony folyadékhűtéssel kombinálva. -
L3zl13
nagyúr
Nem hinném, hogy a 3Dfx anno a magas fogyasztás miatt bukott volna el...
A 4 chipses kártya előállítási költsége mindenkép magas lett volna.
A gond az ár/teljesítmény arány volt.
A DDR támogatás talán segíthetett volna, bár nem tudom ez elegendő teljesítménytöbbletet jelentett volna az elérhető árú (1-2 chipes) verzióknál.Aki hülye, haljon meg!
-
DcsabaS
senior tag
Mégegyszer:
A 3Dfx 0.25 mikronon, az nVIDIA pedig eleinte 0.22 mikronon (GeForce256), majd 0.18 mikronon (GF2) gyártott. Ez azt jelenti, hogy az nVIDIA kb. 2-szer annyi tranzisztort tudott elhelyezni adott nagyságú Si felületen ( (0.25/0.18)^2=1.93 ), vagyis azonos tranzisztorszámot durván fele annyiból ki tudtak hozni. Ehhez jön még, hogy a jobb félvezető technológián nagyobb működési frekvencián is kisebb lehetett a fogyasztása.
Mindebből eleve világos, hogy teljesítmény/ár szempontból a 3Dfx megoldása csak akkor lehetett volna versenyképes, ha szintén 0.18 mikronon gyártanak. Ámde a csúcsteljesítményű kategóriában másképp kell számolni, ugyanis ott aránytalanul sok pénzt is el lehet kérni, feltéve, hogy műszakilag elfogadható a megoldás. Márpedig a VooDoo5-6000-nek egy speciális és drága külön tápegység is kellett (volna), ami már annyira macerás, hogy igen keveseknek lehetett hozzá kedvük.
Ellenben ha 0.18 mikronon gyártották volna a VSA-100-akat, akkor a VooDoo5-6000 4 db VSA-100-a került volna annyiba, mint 0.25 mikronon a VooDoo5-5500 2 db VSA-100-a, és az elektromos teljesítményfelvétele is csak annyi lett volna, tehát nem kellett volna külön tápegység. A magasabb működési frekvenciát bónuszként kapjuk, a DDR SDRAM használata pedig csak még tovább gyorsíthatta volna.
Ha a chipeket hasonlítjuk össze, a VSA-100 14 millió tranzisztort tartalmazott, a GeForce256 23 milliót, a GeForce2 pedig 25 milliót. Vagyis durván 2 db VSA-100-as chip-et kell hasonlítanunk egy GeForce-hoz. És ha (mint írtam) 0.18 mikronon gyártották volna mindegyiket, akkor hasonló lett volna a maximális működési frekvenciájuk, a 3D sebességük, az elektromos fogyasztásuk és az áruk is. Ámde a 4 chipes VooDoo5 2-szeres áron 2-szeres teljesítményt is tudott volna, külön tápegység nélkül.
Szóval a 3Dfx nem a VSA-100 architektura, hanem az ósdi félvezető technológia miatt bukott meg. Nem véletlen, hogy az nVIDIA ezen felbuzdulva az ATi-val szemben is megpróbált ugyanígy versenyezni, vagyis amíg az ATi az ósdi 0.18 mikronon termelt, ők megpróbáltak átugrani a 0.13 mikronra. Pechjükre, az még kiforratlan volt. (Alacsony kihozatal, az elvártnál kisebb frekvencia, nagy fogyasztás.)
De ha nem lett volna, akkor ''izomból'' lenyomják az ATi-t, noha ők egyébként hatékonyabb GPU-kat csinálnak az utóbbi időben (adott tranzisztorszámra vonatkoztatva). -
faster
nagyúr
-
veterán
putti mi lenne, ha nem forgatnád ki a szavaimat?
Ha nézzük a mostani helyzetet akkor ki ne ruházna be mondjuk 2db GF4TI4200-ra?''
Ezt ha figyelmesen elolvastad volna azt írtam, hogy ha a mostani helyzetet vesszük alapul, és már rendelkezésre állna a technológia, hogy 2db vidaókarit össze lehetne kapcsolni, akkor simán megérné 2db GF4TI a csúcskártyákkal szemben. Ezt azért írtam, hogy lehessen árban viszonítani, mert ugye nem akartam csak úgy számokkal dolbálózni, hogy majd úgy is meg fogja érni meg ilyenek...
''a 3Dfx hibát hibára halmozott''
Ezt azért írtam, mert arról volt szó, hogy miért bukott meg a 3Dfx. Hát ezért...
Ja, legyűrte az nvidia a 3dfx-et(meg is vette), de most őket gyűri le az ati, már egy jó ideje.
Én inkább azt mondanám, hogy az atinak van jelenleg egy lépéselönye sebességben, viszont technológiában egyenlőek.
''Most pl a GF6800 a korszerübb kártya, csak kicsit lassabb az ATI-nál.''
Aha,korszerűbb, csak irreálisan drága, szerintem ennyiért meg tudok venni egy X800 XT is, aminek talán szebb is a képe.
Erről nem akarok mit mondnai a PH!-s tesztben minden benne van, a többit az idő dönti majd el... -
DcsabaS
senior tag
Az időfaktor lényeges. Ha már most lehetne párosítani a legnagyobb teljesítményű 3D kártyákat a csúcsteljesítmény reményében, bizonyára lennének vásárlói. De mire a megfelelő alaplapok elterjednek (talán 1 év is), addigra már az akkori leggyorsabb kártyákat kellene majd párosítani, nem a mostaniakat. A mostaniak már gyengék lesznek.
-
veterán
Teljesen minden a hozzászolásom lényege, hogy 2 középkategórás kártyával (ha a dualos alaplap nem jelentősen drágább) olcsóbban lehetséges csúcsteljesítmény elérni, mint 1 db csúcskártyával. Ennek a bizonyításához kellett a 2db GF4TI4200 vs. FX5950 Ultra összehasonlításom, ami csak szemléltetésre szolgált, és a jövőt hivatott előrevetíteni!
Tehát pl: 2db 6800GT vs 7800Ultra...
És ahogy leírtam ha most lehetséges lenne akkor 2db GF4TI nagyon is versenyképes lenne egy 9700-al szemben is... -
putti
aktív tag
jól van na, csak a fórumokon vitatkozni is kell! :DD
Akkor is nekem van igazam, az nvidia szerintem kezdi elcseszni az dolgait, ha nem is olyan erősen mint régen a 3dfx, de követi a példáját, ami ugye nem jó, mert akkor majd az ati fog elszállni magától. Mindegy, én most atira váltok, engem jobban meggyőzött. -
Keitaro
addikt
A GF4-es példát csak azért hagyjuk, mert technológiailag meszebb van, de mivel a DX10 (next) messze van nagyon, ezért lehet benne ráció, bár engem is iszonyatosan idegesít, hogy a felső/jobboldali kártya, hogyan kap levegőt, ha szinte érinti a másik nyákját. (ultra fronton)
-
veterán
Semi kifogásom a vita ellen... :))
Lehet, hogy az nVIDIA kezdi elcseszni a dolgokat, de ez független az SLI-től. Önmagában az SLI lehetősége szerintem egy jó dolog és az biztos, hogy fog majd érdekes helyzeteket produkálni...
Egyébként engem még az érdekelne, hogy volt róla szó, hogy a 6800-as kareszok képesek a videótömörítés 60%-át átválalni...
Akkor ha 2 6800-as van a gépben akkor azok együtt tudnak működni a videótömörítés tekintetében is? :F
Kicsit brutál lehet 2 CPU + 2 6800-as együtt mire lenne képes ilyen téren...
Lehet ezzel ki lehetne váltani egy 4 procis szervert? :)) -
DcsabaS
senior tag
Én inkább azt mondanám, hogy a SLI módszerrel 2 db csúcs 3D kártyából lehet egy szuper-csúcs rendszert alkotni. Annak, hogy 2 db közepesből csináljunk egy csúcs kategóriás rendszert (amit mások egyetlen kártyával is utólérnek), alig van értelme, mert nincs olyan hosszú kifutása, hogy megtérüljön. (Pillanatnyilag persze az nVIDIA is a csúcs kártyáinak a párosításában gondolkodik.)
-
veterán
Ezzel nem értek teljesen 1-et, igaz a dolog attól függ, hogy mit nevez az ember csúcskártyának.
Még nem tudom a konkrét árakat, de pl 2db 6800GT lehet hogy jobb választás lesz ár/teljsítmény szempontjából mint 1 db 6800Ultra, mert ugye az ulra általában irreálisan drága szokott lenni.
Egyébként az többen is írtátok, hogy szerintetek az SLI-t azok fogják használi akiknek a maximum kell...
Ezen emberek körében nem fog számítani az, hogy az SLI-re alkalmas alaplapok estleg drágábbak... :) -
veterán
Egyébként az többen is írtátok, hogy szerintetek az SLI-t azok fogják használi akiknek a maximum kell... Ezen emberek körében nem fog számítani az, hogy az SLI-re alkalmas alaplapok estleg drágábbak...
Viszont ők vannak a rokonsággal együtt vagy huszan ---> a duálos alaplapok rohamos elterjedése és drasztikus árcsökkenése itt száll ki az ablakon.And As It Is Such, So Also As Such Is It Unto You
-
DcsabaS
senior tag
Hogy mi a csúcs kártya?
Hát egy olyan kártya, amit ha SLI-vel párosítunk, akkor olyan 3D sebességet kapunk, amely érezhetően meghaladja a piacon beszerezhető leggyorsabb 3D káryáét.
Minthogy a párosítás csak kb. 80 százalékban növeli meg a sebességet, és mert az érezhető sebességi fölény valahol minimum +20 százalék körül van, ezért a párosításhoz használni kívánt kártyának tudnia kell minimum a 3/4-ét a leggyorsabb 3D kártya sebességének. (1.2=0.8*2*X --> X=0.75)
A 6800Ultrára ez igaz is a Radeon X800XT-hez viszonyítva (DirectX 9 alatt), de kérdés, hogy mi lesz addigra, mire elterjednek végre azok az alaplapok és tápegységek, amelyek fogadni tudják 2 db 6800 ultrát?
(Abban egyetértünk, hogy akik SLI-ben gondolkodnak, azok nem a legköltségérzékenyebb társaság. Csak ahogy anaqer is írta, nincsenek sokan.) -
LordX
veterán
A 80% plusz az nem 2*0,8-at jelent, hanem 1,8-at.. Egyébként 87% plusz gyorsulást igérnek, így 1,2=1,87*X --> X=0,64, ezt talán még a GT is tudja..
Egyébként az nV tolni fogja a 32+ PCIe csatornás chipsetét (nForce4), én nem félek attól, hogy nem fog tudni elterjedni.. És nem ő lesz az egyetlen, szinte biztos vagyok benne. (Bár nem hallani semmit a Via, SiS felől..)
A Dualchanel DDR-ről is azt mondták, hogy csak megdrágítja az alaplapokat, meg nem kell K7 alá, mégis az nForce2 Ultra 400 a legelterjedtebb K7-es chipset. -
Vagabond
csendes tag
A mostani GF6800 kártyákon is rajta van már az SLI-hez szükséges csatlakozó ott az oldalán?
Ha igen,akkor arra emlékeztet,mint amikor bejelentették,hogy a GF2 képes duál működésre.
Az akkori Radeon(1)-ről ugyanis azt rebesgették,hogy lesz belőle a két Rage128 procis RAGE FURY MAXX-hez hasonló izomkártya.Erre akart rákontrázni az Nvidia akkoriban is.Most is ilyen dolog lehet a háttérben,tudhatnak már valamit? -
Pukii
senior tag
Nem at ati csinálta a flipert hanem az artx amit késöbb megvet az ati.És pont ezért áll igy az ati..magyarázat:az r300 kártyát az artx tervezte részben és sokak szerint a tölük lszerzet tektiknák miat tudtak egy ojan jo kártyát csinálni mint az r300 sorozat.Nem akarok vészjoslo leni de azota az ati semijen KOMOLYABB teknika ujdonságot nem mutatot be...(az is igaz hogy igy is jol álnak)Az nvidia mérnökgárdája viszont nagyon öszeszokot jo csapat(a gf fx sorozatot felejtéstek el->tanultak a hibábol és a gf 6800 ugyanojan jo mint az X800 sööööt....).
[Szerkesztve]''A DDR az a winchester?'' by Ziiip
-
faster
nagyúr
Erről az Artixes dologról én is olvastam, mintha ők tervezték volna a GameCube-t, aztán később az ATI megvette őket, gyakorlatilag ők szállították az ATI-nak az R300-at, nemsokkal az R200 megjelenése után. De én erről nem nagyon tudok több infót, azt sem, mennyi igaz ebből, már arra sem emlékszem, hol olvastam ezt...
[Szerkesztve] -
putti
aktív tag
''Akkor ha 2 6800-as van a gépben akkor azok együtt tudnak működni a videótömörítés tekintetében is?''
Ez egy jó kérdés.
Ha még mindíg nvidiám lenne, akkor annak örültem volna ha a két kártya SLI modban 50-50 százalékban dolgozna együtt és egy videókari 50 százalékot teljes mértékben teljesítené, vagyis ami egy kártyára jut, azt teljes erejéből kiszámolja.Így már talán évek múltán (mikor olcsóbb) érdemes lehet beruházni ilyenbe, merthát teljes árat fizetni két kariért úgy hogy az egyik csak részben veszi át a ''munkát'' az nem az igazi. Midnegy én ahogy mondtam egy darabig az ati babérjain fogok csücsülni. -
DcsabaS
senior tag
''A 80% plusz az nem 2*0,8-at jelent, hanem 1,8-at.. ''
Igazad van, elszámoltam! (Az 1.87-es faktor viszont túlzás, hiszen csak nagyon speciális esetekben jöhet össze.)
''Egyébként az nV tolni fogja a 32+ PCIe csatornás chipsetét (nForce4), én nem félek attól, hogy nem fog tudni elterjedni.. ''
Talán igen. De ha igen is, a nagy kérdés az, hogy MIKOR, és hogy mi lesz a helyzet a fogyasztással (tápegység és hűtési problémák).
''A Dualchanel DDR-ről is azt mondták, hogy csak megdrágítja az alaplapokat, meg nem kell K7 alá, mégis az nForce2 Ultra 400 a legelterjedtebb K7-es chipset.''
K7 alá szerintem sem fontos, sőt, még a jelenlegi K8 alá sem, viszont a belső órajel emelkedésével egyre fontosabb, így nagyon örülök, hogy az AMD végül is elszánta rá magát.
Amúgy szerintem nem drágítja meg túlságosan az alaplapokat, mint ahogy néhány plusz csatlakozó sem. (De ettől függetlenül aligha az nForce2 Ultra 400 a legtöbb példányban eladott K7-es chipset.)
************
''És pont ezért áll igy az ati..magyarázat:az r300 kártyát az artx tervezte részben és sokak szerint a tölük lszerzet tektiknák miat tudtak egy ojan jo kártyát csinálni mint az r300 sorozat.''
Ez szerintem túlzás. Akik nyomon követték az ATi korábbi fejlesztéseit, azok láthatták, hogy pont abba az irányba tartottak, amerre kellett is. Az R300-zal nem történt semmiféle misztikus ugrás, legfeljebb akkorra vált széles körben nyilvánvalóvá, hogy sem hardver, sem driver vonatkozásában nem rosszabbak a konkurenciánál.
''Nem akarok vészjoslo leni de azota az ati semijen KOMOLYABB teknika ujdonságot nem mutatot be...''
Mint ahogy előtte is, azóta is olyan irányban fejleszt az ATi, aminek van praktikus haszna, nem csak ''kábításra való''. Én ebben nem látok semmi problémát.
''Az nvidia mérnökgárdája viszont nagyon öszeszokot jo csapat''
Ezzel nem értek egyet. A VSA-100-at is csak a fejlettebb félvezető technológia révén tudták lenyomni, és ugyanazon tranzisztorszámra vonatkozóan ma is gyengébbek a GPU-i, mint az ATi-éi, szóval ARCHITEKTURÁLISAN rosszabb dolgokat hoznak ki. (Ahogyan egyébként az Intel is rosszabb CPU-kat csinál ilyen szempontból, mint az AMD.)
***********
''''Akkor ha 2 6800-as van a gépben akkor azok együtt tudnak működni a videótömörítés tekintetében is?''
Ez egy jó kérdés.''
Miért volna ez jó kérdés? Videó TÖMÖRÍTÉSBEN a jelenlegi grafikus kártyák érdemben NEM vesznek részt. (Még MPEG-2-ben sem. A lejátszás, vagyis a dekódolás más kérdés, azt tényleg jelentősen gyorsítják.) -
veterán
Akkor ha 2 6800-as van a gépben akkor azok együtt tudnak működni a videótömörítés tekintetében is?'
Ez egy jó kérdés.
Miért volna ez jó kérdés? Videó TÖMÖRÍTÉSBEN a jelenlegi grafikus kártyák érdemben NEM vesznek részt. (Még MPEG-2-ben sem. A lejátszás, vagyis a dekódolás más kérdés, azt tényleg jelentősen gyorsítják.)
A 6800-es számomra legnagyob újítása, hogy az nVIDIA szerint képes a videotömörítés 60%-át átvenni a procitól... :C
Gyakorlatban, nem tudom mennyire lesz ez igaz, da ha már csak 20-30%-ban be tud segíteni egy DivX tömörítésbe már az is óriási eredmény, és óriási újítás, mert ilyen még nem volt (kivéve a spéci hardvereket) ... :C
Aktív témák
- ASRock Radeon RX 6800 XT Phantom Gaming
- ZOTAC GeForce GTX 1080 AMP Edition 8GB GDDR5X 256bit
- 4070 Ti Aorus Master //KERESEM!!//
- Sziasztok! Eladó az alábbi videokártya, nagyobbra váltás miatt: - Zotac márka - nVidia GeForce RTX
- eMag GARANCIA! ZOTAC Trinity RTX 3080 10GB OC GDDR6X Videokártya! BeszámítOK