Hirdetés

Aktív témák

  • Zsiba

    senior tag

    Szép dolog, hogy beismeri a hibáit... amit végül is nem tett meg, hiszen másra kente :)

    Az NV30-cal tényleg melléfogtak, de talán a 35 már nem csak papíron lesz jó!

    ''One Ring to rule them all...''

  • HiperG

    addikt

    Ha jólemléxem volt egy hír, melyszerint az nVidia új videokártyái 100-120 Wattot fogyasztanak. Ez az NV35-re vonatkozott, nem? :)

  • zsoltee10

    addikt

    válasz HiperG #4 üzenetére

    Nem. Az azt követő generációra. Én is emlékszem erre a hírre.

  • khalox

    őstag


    Azért anélkül, hogy különösebben magamra venném (mert nem tartozom azok közé, akik beleszámítanak az ő piacukba), az éretlen piac kifejezés kissé erős...

    ...inkább éretlen termékről kellene beszélnie. A piaccal nincs gond :).

  • Genialis

    aktív tag

    Igen, valóban hiba volt. Ezt mindenki tudta eddig is, most csak megerősítettek minket hitünkben.

    in4m8ion 1ts 2 B 3

  • HiperG

    addikt

    Az a gond, hogy most már hiába jelentik be akkor is sok fant vesztettek :t :t :t

  • utax

    aktív tag

    válasz khalox #6 üzenetére

    ja, ezen csodálkozok én is mindig, hogy lehet egy piac ''éretlen'' ? ők a piacból élnek, azt kell kiszolgálniuk, hát tegyék azt korrekten

    Use the force, Dude !

  • DcsabaS

    senior tag

    ''(azért figyeljük meg, hogy Huang elegánsan az ''éretlen piacra'' keni a dolgot, és szót sem ejt például arról, hogy milyen súlyos hiba volt a 128 bites memóriainterfésznél maradni).''

    HA bejött volna a DDR-II - 0,13 mikron kombináció, akkor az nVIDIA-nak nem lett volna szüksége arra, hogy 256 bit-es memória interfészt használjon, ugyanis 128 bit-en is (valamivel) gyorsabbat alkotott volna, mint a Radeon9700/9800.

    Pechjükre, a felhasznált DDR-II-es RAM-ot csak DDR-I-es üzemmódban tudták (elég stabilan?) használni, így a felére esett sávszélességet az órajel emelésével voltak kénytelenek valamelyest növelni (ami viszont a termelt hőt is megemelte, lásd porszívó ventilátor). Szóval végül is teljesen igaza van Jen-Hsun Huang-nak, a baj a DDR-II-vel és a 0,13-mal volt.

    Az NV35-tel kapcsolatos érdekes kérdés, hogy vajon a GeForceFX megjelentetése hátráltatta-e az NV35 megjelenését, vagyis az nVIDIA haladéktalanul megkezdte-e a RAM vezérlő áttérését DDR-I/256 bit-esre, vagy pedig egy ideig még abban ringatták magukat, hogy a GeForceFX is elég jó lesz. Ha volt ilyen késlekedés, akkor azért komolyan hibáztathatók.

  • Cefa

    senior tag

    reggel még csak 850 mhz-s volt a memória :)

    Keresel valakit aki lagziba jáccik annak ez míííndent megér érted míííndent

  • DcsabaS

    senior tag

    válasz utax #9 üzenetére

    Nem a ''piac'' volt éretlen, hanem a
    - 0,13 mikronos gyártástechnológia és a
    - DDR-II RAM technológia

    (Az ''éretlen piac'' szerintem csak a fordító költői munkásságának a része (:-)...)

  • LordX

    veterán

    válasz DcsabaS #10 üzenetére

    Mivan? DDR-II DDR-I üzemmódban?

    A DDR-II csak abban különbözik a DDR-I-től, hogy magasabb frekvencián lehet hajtani.

    Ha egy DDR-I-esés egy DDR-II-es modult ugyanakkora frekvencián, ugyanakkora sávszéllel hajtod, az ugyanakkora átviteli sebességet fog produkálni!

  • maniac

    senior tag

    Olvassátok el mág egyszer! Nem ismerték el, hogy a 128bites meminterfész a hibás csak annyit mondtak, hogy a piac még éretlen a DDR-II memekhez, és a 0,13-as gyártásra! Na ezt magyarázzák az idiotáknak. NIVIDA SUXX!

  • BiP

    nagyúr

    válasz maniac #14 üzenetére

    Nemtom mi ebben az eretlen piac.Nekem egyaltalan nem ugy jott le, mintha arra kente volna. Azt mondta, hogy a DDR-II es a 0,13 nem erett meg a sorozatgyartasra. Szerintem ezt technologiailag kell erteni. A rossz gyartasi kihozatal, az instabil DDR-II, nem sorozatgyartasra valo. Nem eri meg => visszalepnek a stabil, kiforrott, hasznalhato DDR-I-re, a savszelesseg potlasara meg muszaj a 256bit. Mi ebben az eretlen piac?
    Viszont jo, hogy elismertek, hogy rossz iranyba nyitottak.
    Tul nagyot akartak egyszerre lepni.
    (mellesleg a 128bit tenyleg keves, de hat ezert kellett a gyors RAM - csak nem jott be.)

    (Ami a 3DFX orokseget illeti (filmes effektek), erre talan meg tenyleg eretlen a piac. Nehany eve meg foleg az volt.)

  • Parci

    HÁZIGAZDA

    válasz DcsabaS #10 üzenetére

    ''Pechjükre, a felhasznált DDR-II-es RAM-ot csak DDR-I-es üzemmódban tudták (elég stabilan?) használni, így a felére esett sávszélességet az órajel emelésével voltak kénytelenek valamelyest növelni''

    ???

    dicranum scoparium + genista pilosa = :)

  • Thom!

    veterán

    Ahogy én gondolom NV35 a nyers teljesítményt tekintve szinte 100% hogy leveri R9800Pro-t, ha igazak az órajelek. Nem mind1 hogy 4×2 v, 8×1 pipeline-t fog használni? De az AF és AA-ban vagy kicsivel múlja felül a R9800-at vagy közel azonos sebességbe lesznek. De a driverek közbeszólhatnak Det FX 50 vs. Cat 3.4 igen érdekes csata lesz, de majd minden az E3-on.

  • JulWCZar

    senior tag

    válasz BiP #15 üzenetére

    Minden megéri ha tömegesen gyártják. Egyszerűen elbaltázták, lásd ATI: DDR1, 0.15 micron, R300. És üt. Technológiaileg, mert nem a leg hájtekebb cucc, és marketing szempotjából, mert senki sem hitte hogy ki tudják hozni, és láss csodát, kellemes meglepetés lett.

    nVidia most izomból dolgozik: DDR II, 0.13 mikron, órajel az égben. Holott egy 256 bites busszal sokkal szebben muzsikált volna, és persze alacsonyabb órajel -> kisebb hűtés. Persze, kérdés hogy hogy paszírozták volna bele a plusz kivezetéseket a nyákba, ami így is 12 rétegű...

    És azt ne mondja senki hogy most görcsöl az nVidia, mert akkor nem adtak volna ki egy ilyen FX5200 förmedvényt. Még túl magabiztosak, azt hiszik a hínevükkel mindent el tudnak adni, de SZVSZ az 5200-essel a lowcost szegmensben okoznak csalódást, az NV30cal meg a highend piacon. De ők tudják.

  • JulWCZar

    senior tag

    válasz Thom! #17 üzenetére

    Nem, az antialiasinghez a pixel pipelineokra kell gyúrni inkább.

    Bár azt tudni kell hogy a textúrázóegységek száma attól is függ mennyire szűrik a Z-puffert, mert ugye minnél kevesebb nem láthat él kiszámolása, annál inkább közelít a vertexek textúrapixelmennyisége a képernyőn megjelenő pixelek mennyiségéhez.

    Felmerül akkor a kérdés hogy minek adta fel az ATI a 2 textúrázó egységet, ha általában 3-4szer több a texel mint a pixel (ugyebár akkor lenne az arány 1:1 ha az összes vertex egy síkban állna a képernyővel és lefedné azt)? Nos egyszerű:
    A supersampling (vagy már multisampling) FSAA az arányon ''javít'' azzal hogy a 8-1 es felállásból adódó vertex bottleneckehez igazítja a pixel kirajzolási teljesítményt, amely csak parlagon heverne. Pl.: 1600*1200 at supersamplinngel 3200*2400ban számol, amit megtehet, mert a fillratje a sok pixel pipeline miatt magasabb.

    Itt bukik nV30: 4-2ben viszonylag jobb az arány, kisebb a bottleneck vertex téren ha nincs FSAA vagy csak minimális, de amint elkezd jobban simítani, a 4 pixel pipeline válik lassító tényezővel.

    Szóval, az NV30 4-2je a régebbi FSAA mentes időkben logikus és várható lett volna, de manapság más idők vannak...

  • DcsabaS

    senior tag

    válasz LordX #13 üzenetére

    Kedves (#13) LordX!

    A DDR-II NEM abban különbözik a DDR-I-től, hogy magasabb frekvencián lehet hajtani!

    Az SDR, a DDR és a DDR-II memóriák között az az alapvető különbség, hogy azonos belső órajel mellett az I/O pufferek órajelenként 1-szer, 2-szer, illetve 4-szer is tudnak adatot továbbítani, vagyis:
    SDR-nél: periódusonként 1-szer van átvitel,
    DDR-I-nél: 2-szer (a fel és a lefutó éleknél is),
    DDR-II-nél: 4-szer (90 fokonként eltolva egymáshoz képest).

    Tehát a DDR-II normálisan QDR átvitelt valósít meg (mint a P4 rendszerbusza, ti. az is 4-szeresen pumpált), szemben a DDR-I-gyel, amely az Athlon rendszerbuszához hasonlít (amely csak 2-szeresen pumpált, azaz DDR).

    Az előbbiek szerint azonos belső órajel és bit-szélesség mellett a DDR-II elméletileg 2-szer gyorsabb a DDR-I-nél. (Gyakorlatilag nincs ennyivel gyorsabb.) Van még olyan különbség is, hogy a DDR-II más feszültségeket és kissé több lábat igényel. Egyéb érdekességek pl. innen:
    http://www.ece.umd.edu/courses/enee759h.S2003/references/DDR_II_evolution.pdf

    A GeForceFX-szel az a különös helyzet állt elő, hogy bár DDR-II-es RAM-ot illesztettek hozzá, csupán DDR-I-es üzemmódban használják, igaz, magasabb fizikai frekvenciát kicsikarva. Az új NV35-höz normál esetben 256 bit-es DDR-I-es RAM-ot illesztenek, de állítólag meghagyják a DDR-II-es támogatást is.

    *******
    Kedves (#14) maniac!

    Nem azt mondták, hogy ''a piac még éretlen'', hanem hogy a DDR-II és a 0,13 mikronos félvezető technológia az éretlen.

  • roadside

    csendes tag

    válasz DcsabaS #20 üzenetére

    Sajnos mindenki ködösít és még nem tudni, hogy DDR II vagy I lesz az NV 35-ön. Most úgy látszik, hogy az I-es verzió az igaz. DcsabaS, kösz mindenki nevében a kimerítő leírást, így talán már oszlik a köd mindenkinek. A DDR II valóban nem 2x gyorsabb a DDR I-nél, a sebességnövekedés 10-15 % körül van, de a nyers és jóval magasabb órajel azért odavág a DDR I-nek.

    -= Nem a szegénység a legnagyobb gond a világon =-

  • MrSummer

    aktív tag

    Az NV35 szerintem jófajta lesz

    Anulu Öhö-ö-ö-ö

  • DcsabaS

    senior tag

    válasz roadside #21 üzenetére

    Kedves (#21) roadside!

    Egyelőre nehéz megbecsülni, hogy a gyártástechnológia fejlődésével a DDR-II mikor lesz érettnek (és elég olcsónak) tekinthető. Az egyes architektúrák összehasonlítását egyébként ugyanazon a félvezető technológián volna érdemes megtenni, különben esetleg olyan előnyöket/hátrányokat hiszünk valamelyik oldalán, amelyek nem is az architektúrák különbözőségéből fakadtak. Az, hogy az nVIDIA hosszas küszködés után visszatérni látszik a DDR-I-hez, számomra azt mutatja: komolyak a nehézségek. (De hogy megtartják a DDR-II támogatást, az meg arra látszik utalni, hogy azért látszik az alagút vége...)

  • n4cr

    csendes tag

    Csak annyit teszek hozzá a cikkhez, hogy: :D

    A kacsacsőrű hímlős.

  • LordX

    veterán

    válasz DcsabaS #20 üzenetére

    Azért megadhatnál nem jelszóval védett forrást is...

  • Power

    senior tag

    A 0,13 mikronos gyártástechnológia nem kiforott???
    Már az Itanium2-öt is azzal gyártják, nem beszélve a Power4-ről(itt még SOI isval kombinálva) ezekben több tranzisztor van, mint az NV3x bármelyikében.
    A DDR-II-vel kapcsolatban annyi tény, hogy még drága.
    Az nV-nél már ősszel lázasan dolgoztak a 256 bites memória buszon.
    A 4*2-es architektúra és 128 bites busz az amit elcsesztek. A 0,13 vs NV30 pedig közösen hibáztak a TMSC-vel, amikor 0,18 mikronra tértek át az meg bejött, most nem, hát ez van. A DDR-II-öt pedig egyszerűen rosszul mérték fel, erről tehetnek a legkevésbé.
    Nem hiszem, hogy az NV35 forradalmi változásokat hozna, azonkivül, hogy lehet majd kapni. :))
    Remélem az 5900-as nem lesz olyan hangos :DD :DD :DD

    Power

  • DcsabaS

    senior tag

    válasz Power #26 üzenetére

    ''A 0,13 mikronos gyártástechnológia nem kiforott???''
    Sajnos azt kell mondani, hogy még nem. Ez persze nem azt jelenti, hogy egyáltalán nincs rajta termelés, hiszen itt van mindjárt a köztudottan gyors (vagy csak hűvös (:-)?) VIA C3 is, azt jó ideje azon termelik.

    Szóval 0,13 mikronon jelenleg vagy a kihozatal nem elég jó, vagy a frekvencia nem elég magas, vagy a fogyasztás túl nagy. Így csak akkor érdemes használni, ha tudjuk valamire specializálni (lásd a C3-at). Egyébként még csiszolni kell rajta.

    ''A 4*2-es architektúra és 128 bites busz az amit elcsesztek.''
    Hogy a 4*2-es architektúra távlatilag rossz lenne, azt én nem látom igazoltnak.
    A 128 bit-es buszt tényleg tervezhették volna eredetileg is 256 bit-esre, és akkor nem lenne bajuk. (Na de a 256 bit-es DDR-II valószínűleg túl nagy falatnak nézett ki.)

    ''Nem hiszem, hogy az NV35 forradalmi változásokat hozna, azonkivül, hogy lehet majd kapni.''
    Nem tudom, hogy ki mit számít forradalomnak, de én mindenesetre azt várom, hogy eleve gyorsabb lesz a Radeon9800Pro-nál, és mert 0,13 mikronon lesz gyártva, hamarosan olcsóbb is, továbbá ha megoldódik a DDR-II ügye, akkor pedig még tovább gyorsul.

  • DcsabaS

    senior tag

    válasz LordX #25 üzenetére

    Innen is letöltheted (más anyagokkal együtt):
    ftp://alag3.mfa.kfki.hu/PUB/

  • Egon

    nagyúr

    válasz HiperG #1 üzenetére

    Kötsög nVidia, már megint nincs rajta sapka mi?
    Az eredeti forrást megnézve - igaz, rendkívül csekély nyelvtudásommal - nem azt láttam, amit az itteni cikk szerzője (gondolok itt az ''éretlen piac'' kitételre - ilyet _senki_ nem mond, akinek minimális marketing-ismeretei vannak, illetve a piacról él...).

    "Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)

  • Xmas

    tag

    válasz khalox #6 üzenetére

    ''mivel sem a 0,13 mikronos gyártástechnológia, sem a DDR-II RAM-ok még nem érettek meg a sorozatgyártásra, illetve az együttes felhasználásra (azért figyeljük meg, hogy Huang elegánsan az ''éretlen piacra'' keni a dolgot''

    Felhívnám a figyelmet arra, hogy az ''éretlen piac'' a CIKKÍRÓ megfogalmazása. Huang a gyártástechnológiák és sorozatgyártás kapcsolatáról beszél, vagyis az IPARRÓL és nem a PIACRÓL beszél.

    Néha az ilyeneket is lehetne javítani a cikkekben... (Sőt, igazából nem kellene ilyeneket beleírni.)

  • Power

    senior tag

    válasz DcsabaS #27 üzenetére

    ''Szóval 0,13 mikronon jelenleg vagy a kihozatal nem elég jó, vagy a frekvencia nem elég magas, vagy a fogyasztás túl nagy.''

    Két konkrét példát írtam, olyanokat amik az NV30-cal összemérhető bonyolultságuak. Teljesen probléma mentes. A C3 illetve a P4 (ami úgye 1,5 éve) direkt nem írtam, mert egyszerűbb felépítésüek. Szóval abszolute kiforott.

    ''Hogy a 4*2-es architektúra távlatilag rossz lenne, azt én nem látom igazoltnak.''

    A GF2 óta nem változott. Most nem akarok arra kitérni, hogy a 2xTMU jobb-e vagy az 1x, de a 4 pipeline kevés.

    ''Nem tudom, hogy ki mit számít forradalomnak, de én mindenesetre azt várom, hogy eleve gyorsabb lesz a Radeon9800Pro-nál, és mert 0,13 mikronon lesz gyártva, hamarosan olcsóbb is, továbbá ha megoldódik a DDR-II ügye, akkor pedig még tovább gyorsul.''

    Az számít kiforottnak, ha chipek döntő többsége hibátlan(pl. 90% már annak számít).
    Elképzelhető, hogy 10-15%-kal gyorsabb lesz, de ár/teljesítmény arányban nem fog vele versenyezni.
    A magasabb órajelből nem következik magasabb sebesség.
    A gpu chip gyártásik költsége 15-20 dolcsi. Az R350 kevesebb tranzisztorból, de mondjuk 3 dollárral olcsóbb lesz az NV35. És??? Nem ezen fog múlni, egy 300-400 dolláros kártyánál.
    A DDR-II-öt ugyanúgy oda lehet tenni az R350 mellé is, tehát ez nem érv.

    Power

  • Egon

    nagyúr

    válasz Power #31 üzenetére

    ''Két konkrét példát írtam, olyanokat amik az NV30-cal összemérhető bonyolultságuak. Teljesen probléma mentes. A C3 illetve a P4 (ami úgye 1,5 éve) direkt nem írtam, mert egyszerűbb felépítésüek. Szóval abszolute kiforott.''

    1. Elbeszélsz a másik fél mondandója mellett. Mennyi is pl. az Itanium2 teljesítmény-felvétele?!? Baromi sok. Azaz melegszik rendesen.

    2. Az Intelnek (és az IBM-nek sem) kell ''külsőssel'' gyártatni: több gyáruk van, ahol _fokozatosan_ átállnak a fejlettebb gyártástechnológiára. Még _jelenleg_ is gyárt pl. az Intel 0.18 mikronos procit (Celeron)!

    ''Elképzelhető, hogy 10-15%-kal gyorsabb lesz, de ár/teljesítmény arányban nem fog vele versenyezni.''

    ??? Miért is?!? Még nem nagyon lehet megtippelni, mennyiért is fogják adni a két _még meg nem jelent_ kártyát... Nem tartom valószínűnek, hogy a töbletteljesítménynél nagyobb mértékben lesz drágább. Ha 10%-kal drágább lesz 10%-os teljesítmény-többlet mellett, az pont azonos ár/teljesítmény - ott az egyéni szimpátia dönt (driverek, képminőség stb.).

    "Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)

  • DcsabaS

    senior tag

    válasz Power #31 üzenetére

    Kedves (#31) Power!

    Úgy látom Egon már megelőzött (:-), így hát csak megismétlem, hogy az Itanium2 és a Power4 is túl sokat fogyaszt, közönséges PC-ben (vagy pláne egy grafikus kártyán) nehezen volna használható. A VIA C3 meg csak azért hideg, mert (ahogyan Te is utaltál rá) sokkkkkkal kevesebb tranzisztort tartalmaz és még azokat is alacsonyabb órajelen használja. (Természetesen a processzálási teljesítménye meg ennek megfelelő.) A SOI-t abszolute kiforrotnak nevezni meg egy vicc, már megbocsáss. (Csak hogy tudd: Magyarországon egyedül nálunk - KFKI MFA - van teljes működő félvezető technológiai sor. Sehol máshol.)

    Írod:
    ''A GF2 óta nem változott. Most nem akarok arra kitérni, hogy a 2xTMU jobb-e vagy az 1x, de a 4 pipeline kevés.''
    Önmagában a pipeline-ok szaporításával természetesen egyetértek. A 3D számítások természetéből fakadóan akár 512 db pipeline-t is hatékonyan felhasználhatnánk.

    Írod:
    ''Az számít kiforottnak, ha chipek döntő többsége hibátlan(pl. 90% már annak számít).''
    Ez így önmagában még kevés, ugyanis a kihozatalnál számít az is, hogy milyen frekvenciát várunk el és mekkora elektromos teljesítményfelvételt, illetve hőmérsékletet engedünk meg.

    Vélekedsz:
    ''Elképzelhető, hogy 10-15%-kal gyorsabb lesz, de ár/teljesítmény arányban nem fog vele versenyezni.''
    Tévedés. Egy 0,13 mikronon gyártott chip a 0,15 mikronon gyártotthoz képest négyzetesen kisebb, azaz 0,75-szoros méretű, miközben a dielektromos kapacitások hasonló arányban kisebbek, ezért azonos fajlagos fogyasztás mellett 1,33-szoros frekvenciájú lehet. Tehát ha az NV35 ugyanannyi tranzisztort tartalmazna, mint a Radeon9800Pro (talán 120 millió), akkor 0,75-szörös ár mellett 1.33-szoros sebességű lenne (eltekintve az architekturális különbségektől).
    De persze több tranzisztort tartalmaz majd (talán vagy 140 milliót), így ha az eltérő architektúra hatásától továbbra is eltekintünk, akkor nagyjából a következőkre lehet számítani:
    kb. 90 százalékos chip méret és ár (ti. (0,13/0,15)^2*(140/120) = 0,876)
    kb. 150 százalékos 3D sebesség (ti. (0,15/0,13)^2*(140/120) = 1,555) és szintén
    kb. 150 százalékos teljesítmény felvétel (ti. (0,15/0,13)^2*(140/120) = 1,555)

    Az előbbi paramétereket egymás rovására lehet javítani. Tehát ha az elektromos teljesítményfelvételt az nVIDIA csökkenteni akarja (alacsonyabb órajellel), akkor csökkenni fog a 3D sebesség is.

    Az előbbi számítások természetesen az ideális esetre vonatkoznak, vagyis amikor a 0,13-as félvezető technológia tényleg kiforrott lesz.

    Írod:
    ''A magasabb órajelből nem következik magasabb sebesség.''
    Ez csak akkor igaz, ha valamit elbaltáznak, pl. nem gyorsítják hozzá megfelelően a RAM-ot. (Mondjuk a GeForceFX-nél éppen ez esett meg.)

    Írod:
    ''A DDR-II-öt ugyanúgy oda lehet tenni az R350 mellé is, tehát ez nem érv.''
    Kérdés. Mondani bármit lehet, az nVIDIA-nak már ténylegesen végrehajtott kísérlete is volt.

  • Parci

    HÁZIGAZDA

    válasz DcsabaS #27 üzenetére

    Azt felejtitek el, hogy a 0.13 mikron a TSMC/UMC általi külső adottság az nVidiának és az ATI-nak. Hacsak nem terveznek valami béna chipet, akkor ezen a két cégen múlik, hogy mikor áll készen.

    Ha tehát az nVidia tud normálisan 0.13 mikronon gyártani, az ATI is fog tudni.

    DDR-II: ne misztifikáljuk túl. Egyrészt, az ATI memória-vezérlői is ''fel vannak készítve'' rá. Másrészt az nVidia is épp most lép vissza, és csak ugyanezt mondja az NV35-ről.

    Szerintetek mekkora feladat egy R9800-ast 0.13 mikronon, nagyobb órajelen, gyorsabb RAM-mal legyártani? Mert, az nVidiával ellentétben az ATI-nak már van működő 256 bites buszú memória-alrendszere. Az R9800 csak egy 0.15 -> 0.13 csökkentésre vár, és máris oda lehet az NV35 előnye.

    HA (!) nincs semmi architekturális újítás a GF FX-hez képest.

    dicranum scoparium + genista pilosa = :)

  • Egon

    nagyúr

    válasz Power #31 üzenetére

    ''A magasabb órajelből nem következik magasabb sebesség.''

    Általánosságban nem, de adott architektúrán belül természetesen igen...

    "Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)

  • DcsabaS

    senior tag

    válasz Parci #34 üzenetére

    Kedves (#34) Parci!

    Írod:
    ''Ha tehát az nVidia tud normálisan 0.13 mikronon gyártani, az ATI is fog tudni.''
    Ez természetesen igaz. Kérdés persze, hogy mennyi időbe kerül majd az áttervezés. (Illetve, hogy elkezdték-e egyáltalán.)

    Írod:
    ''DDR-II: ne misztifikáljuk túl. Egyrészt, az ATI memória-vezérlői is ''fel vannak készítve'' rá. Másrészt az nVidia is épp most lép vissza, és csak ugyanezt mondja az NV35-ről.''
    Távol álljon tőlem, hogy a DDR-II-őt a kelleténél jobb színben tüntessem fel. Szerintem akkor jön el az ideje egy új technológiának, amikor a régi már nem megfelelő. Vagyis amikor kénytelenek vagyunk váltani. A DDR-II-re még nem szorulunk rá (ahogy az RDRAM-ra sem szorultunk rá anno, amikor az Intel erőltette az új technológia koraszülését.)
    (De hogy az ATi vezérlői mennyire vannak felkészítve a DDR-II-re, azt azért még jó lenne látni.)

    Kérdezed:
    ''Szerintetek mekkora feladat egy R9800-ast 0.13 mikronon, nagyobb órajelen, gyorsabb RAM-mal legyártani?''
    0,13 mikronra átállni tipikusan néhány hónaptól mondjuk fél évig terjedő idő lehet. Ráadásul a R9800 pillanatnyilag jobban is járna vele (mint az NV30, vagy az NV35), ugyanis az alacsonyabb tranzisztorszám javítja a jelenleg még nem túl fényes kihozatalt. Az órajel egyből feljebb mehetne, de a megbeszéltek szerint az elektromos teljesítményfelvétel is emelkedne. A DDR-II támogatása viszont még mindig sötét ló.

    Írod:
    ''Mert, az nVidiával ellentétben az ATI-nak már van működő 256 bites buszú memória-alrendszere.''
    Ez igaz, és hála istennek remekül megy. A személyes véleményem az, hogy grafikus kártyáknál még az 512 bit-es memóriára is előbb volna érdemes átállni, mint a DDR-II-re. (De persze nem én döntöm el.)



  • Power

    senior tag

    válasz Egon #32 üzenetére

    1. Szerinted több, mint 400 millió tranzisztornak mennyit kellene fogyasztania???
    A 0,18 mikron kiforott???
    Itanium2 - 0,18 mikron 221 millió tranzisztor, 1.0 GHz kb. 130 W
    Itanium2 - 0,13 mikron több, mint 400 millió tranzisztor, 1.5 GHz ez is kb. annyi
    Ezen neked mi nem kiforott???
    Közel 2x annyi tranzisztor; 1,5x akkor órajel ugyanakkora fogyasztás, neked ezen mi nem kiforott??????

    2. Ennek gazdasági és pénzügyi okai vannak és semmi köze a kiforottsághoz. Ma a chipek jelentős része készül 0,25 mikronnal. És?

    ''??? Miért is?!? Még nem nagyon lehet megtippelni, mennyiért is fogják adni a két _még meg nem jelent_ kártyát... Nem tartom valószínűnek, hogy a töbletteljesítménynél nagyobb mértékben lesz drágább. Ha 10%-kal drágább lesz 10%-os teljesítmény-többlet mellett, az pont azonos ár/teljesítmény - ott az egyéni szimpátia dönt (driverek, képminőség stb.).''

    499 dollár az 5900Ultra vs 399 dollár a 9800PRO.(ezt már kapható, míg az előbbi...)

    Ennyit erről.

    Power

  • Joz76

    tag

    válasz Egon #32 üzenetére

    Teljesen egyetértek Veled egy kivétellel. Az Intel már nem, vagy csak igen kis mennyiségben gyárt 0.18-as technológiával. A 2GHz-es illetve nagyobb Celeronok ugye már 0.13-asok, és már kitűzték a dátumot (pontosan nem tudom mikor), miután már nem lehet rendelni 1.7-est. Szóval 1,8, 1,9 már csak ezek 0.18-asok, és nem vagyok biztos benne, hogy ezeket nem raktárról adja az Intel.

    Joz

    Joz

  • Power

    senior tag

    válasz DcsabaS #33 üzenetére

    ''Úgy látom Egon már megelőzött (:-), így hát csak megismétlem, hogy az Itanium2 és a Power4 is túl sokat fogyaszt, közönséges PC-ben (vagy pláne egy grafikus kártyán) nehezen volna használható. A VIA C3 meg csak azért hideg, mert (ahogyan Te is utaltál rá) sokkkkkkal kevesebb tranzisztort tartalmaz és még azokat is alacsonyabb órajelen használja. (Természetesen a processzálási teljesítménye meg ennek megfelelő.) A SOI-t abszolute kiforrotnak nevezni meg egy vicc, már megbocsáss. (Csak hogy tudd: Magyarországon egyedül nálunk - KFKI MFA - van teljes működő félvezető technológiai sor. Sehol máshol.)''

    Nem kell keverni a dolgokat. Mind az Itanium2, mind a Power4 0,18 mikronnal gyártották eredetileg, pedig már akkor is volt 0,13 mindkét cégnél. Akkor miért is? Akkor még valóban nem volt elég kiforott és ezért az egyszerűbb útat választották, de ma már mindakettő 0,13-mal készül, mert megérett rá.
    Nem azért melegszenek, mert ezzel vagy azzal gyártják, hanem mert az adott gyártástechnológiához-tervezéshez-chiphez képest magas órajelen járatják.
    Ha az NV30-at 350MHz-en járatnák, akkor semmi probléma nem lenne a melegedéssel. Azért olyan hangos, mert az nV gyárilag tuningolt vackot adott ki.
    Az NV25-höz képesti órajel növekedés arányát nem indokolta a 0,15 -> 0,13 mikron.
    A SOI igenis kiforott. Ha valakinek nem megy, attól még másnak mehet.

    ''Ez így önmagában még kevés, ugyanis a kihozatalnál számít az is, hogy milyen frekvenciát várunk el és mekkora elektromos teljesítményfelvételt, illetve hőmérsékletet engedünk meg.''

    Persze, de ez a tervezéskor már becsülik és az NV30-at eredetileg 400MHz-en képzelték el. De jött az R300 és az nV kapkodásában 500-ra emelte, aztán pofára esett.


    ''Vélekedsz:
    ''Elképzelhető, hogy 10-15%-kal gyorsabb lesz, de ár/teljesítmény arányban nem fog vele versenyezni.''
    Tévedés. Egy 0,13 mikronon gyártott chip a 0,15 mikronon gyártotthoz képest négyzetesen kisebb, azaz 0,75-szoros méretű, miközben a dielektromos kapacitások hasonló arányban kisebbek, ezért azonos fajlagos fogyasztás mellett 1,33-szoros frekvenciájú lehet. Tehát ha az NV35 ugyanannyi tranzisztort tartalmazna, mint a Radeon9800Pro (talán 120 millió), akkor 0,75-szörös ár mellett 1.33-szoros sebességű lenne (eltekintve az architekturális különbségektől).''

    ??? Te miről beszélsz????
    A frekvencia emelése sosem négyzetes, te valamit nagyon kavarsz.
    A chip mérete valóban négyzetesen változik, DE ezt csak azt jelenti, hogy ennyivel kisebb lesz.(azaz pl. ugyanakkora órajelen dúrván 75%-a lesz a fogyasztás).
    Másrészről az NV35 nem egy 0,13-mas R350 és én az R9800PRO-hoz hasonlítottam.

    Egyre mosolyogtatóbb :))

    ''Az előbbi számítások természetesen az ideális esetre vonatkoznak, vagyis amikor a 0,13-as félvezető technológia tényleg kiforrott lesz.''

    Már most is az nem a NV+TMSC párosításban, de aki béna az béna.


    ''A magasabb órajelből nem következik magasabb sebesség.''
    ''Ez csak akkor igaz, ha valamit elbaltáznak, pl. nem gyorsítják hozzá megfelelően a RAM-ot. (Mondjuk a GeForceFX-nél éppen ez esett meg.)''

    Itt az R350 vs. NV3X-ről van szó. Hogy megértsd gondolj a P3 vs. P4-re.

    ''''A DDR-II-öt ugyanúgy oda lehet tenni az R350 mellé is, tehát ez nem érv.''
    Kérdés. Mondani bármit lehet, az nVIDIA-nak már ténylegesen végrehajtott kísérlete is volt.''

    Publikált kisérlete az ATi-nak is volt, csakhogy ők aszonták rá, hogy kiprobáltuk és lehet, az nV ugyanerre aszonta, hogy kész a kártya :))

    Power

  • Power

    senior tag

    válasz Egon #35 üzenetére

    Amúgy itt a Radeon9800PRO kontra GFX 5800/5900-ről van szó, ahol a GPU mindegyik esetben a GFX-en magasabb az órajele és a sebesség viszont...

    Elméletileg és általánosságban igazad, csakhogy egy rendszer(itt most egy grafikuskártyát tekintsünk annak) ''sebessége'' sok egyébb tényező befolyásolja, tehát azonos chip esetén sem biztos, hogy a nagyobb órajelű lesz a gyorsabb kártya.

    Power

  • DcsabaS

    senior tag

    válasz Power #39 üzenetére

    Kedves (#37) Power!

    Az alkalmazott félvezető technológia hatása az Itanium és az Itanium2 esetéből nem hámozható ki olyan könnyen, ugyanis lényeges architekturális különbségeik is vannak, mindjárt pl. az, hogy az Itanium2 le tudja kapcsolni a nem használt részeit.

    De ha ugyanazt a procit gyártanák 0,18 helyett 0,13 mikronon, akkor a maximális működési frekvencia kb. 1,9-szeresére nőne, a chip mérete pedig az 52 százalékára esne. Ha nem ragaszkodnak kihasználni a majd 2-szeres gyorsulást, akkor a feszültség és az órajel csökkentésének árán csökkenthetik a disszipációt.

    Kérdezed:
    ''Nem kell keverni a dolgokat. Mind az Itanium2, mind a Power4 0,18 mikronnal gyártották eredetileg, pedig már akkor is volt 0,13 mindkét cégnél. Akkor miért is?''
    Fejlesztésekhez előszeretettel használnak kiforrott félvezető technológiát, csak hogy minél tisztábban tudjanak az architekturális problémákra összpontosítani. A következő lépés szokott lenni a sebességi és teljesítményfelvételi optimalizálás, amit nagy tranzisztorszám esetén észszerű összekapcsolni finomabb félvezető technológiára való áttéréssel, ami az árat is jelentősen csökkenti (távlatilag).

    Írod:
    ''Akkor még valóban nem volt elég kiforott és ezért az egyszerűbb útat választották, de ma már mindakettő 0,13-mal készül, mert megérett rá.''
    Az idő tényleg megérett a 0,13 mikronon való gyártásra, mert ma már jobb (gyorsabb és olcsóbb), mint akár a 0,15 mikron. De ez még NEM jelenti azt, hogy a 0,13 mikronos technológia kiforrott. A kiforrottság azt jelentené, hogy már jól megközelítené az elméleti lehetőségeit. (Ha a 0,13 mikron annyira kiforrott lenne, mint azt az nVIDIA eleinte remélte, nem lenne olyan rohadt meleg a GeForce FX.)

    Írod:
    ''Nem azért melegszenek, mert ezzel vagy azzal gyártják, hanem mert az adott gyártástechnológiához-tervezéshez-chiphez képest magas órajelen járatják.''
    Ezzel félig egyetértek. Az erőltetetten magas órajel mindig drámaian megnöveli a disszipációt, hiszen megnő a frekvencia, növelni kell a core feszültséget és növekszik a felvett áram is. De az nem igaz, hogy a félvezető technológiának ne lenne lényeges hatása, hiszen a tranzisztorok méretének (felületének) csökkenése miatt arányosan kisebb áramokkal lehet a kapacitásokat áttölteni, ezért azonos core feszültség, frekvencia és tranzisztorszám mellett a chip felületével nagyjából arányosan csökken a teljes disszipáció. (Persze, ha a frekvenciát jobban növeljük, mint ahogy a core feszültséget csökkentjük, akkor a chip felszíni üzemi hőmérséklete emelkedni fog, ami a 0,13 mikronos Athlon-oknál nyilvánvalóvá is vált.)

    Írod:
    ''Ha az NV30-at 350MHz-en járatnák, akkor semmi probléma nem lenne a melegedéssel.''
    Egyetértek, akkor kezelhető szintűre esne a melegedése, de a RAM sávszélesség további csökkenése miatt még lassúbb lenne 3D-ben.

    Írod:
    ''A SOI igenis kiforott. Ha valakinek nem megy, attól még másnak mehet.''
    Úgy látom, ''kiforrottságon'' Te valami olyasmit értel, hogy az adott dolgot már érdemes megkockáztatni (:-)...

    Írod:
    ''Persze, de ez a tervezéskor már becsülik és az NV30-at eredetileg 400MHz-en képzelték el. De jött az R300 és az nV kapkodásában 500-ra emelte, aztán pofára esett.''
    Nem az R300 miatt jött a pofáraesés, hanem mert a DDR-II nem ment, csak DDR-I módban. Ez felezte meg a sávszélességet, és ezért kellett overclockhoz folyamodni. Ha ment volna a DDR-II, akkor 400 MHz-en is a GeForce FX lett volna a gyorsabb. (FSAA-ban is.)

    Kérdezed:
    ''??? Te miről beszélsz????
    A frekvencia emelése sosem négyzetes, te valamit nagyon kavarsz.''
    Próbáld megérteni, hogy a chipekben kapcsolóként használt tranzisztorok PN átmenetei kapacitásokkal bírnak, amelyeket ki-be kapcsolásonként feltölteni és kisütni kell. Ezekből adódik a disszipáció döntő hányada. Minthogy a tranzisztorok felületével arányosak e kapacitások, azonos áramerősségek mellett a slew rate, és így a kapcsolási sebesség is a felület nagyságával fordítva arányos. Persze megtehetjük, hogy nem használjuk ki teljesen ezt a nagyobb működési frekvenciát, hanem megelégszünk kisebbel, hogy csökkentsük a disszipációt.

    Kérdezed:
    ''A tranzisztor szám 2x akkor a sebesség 2x?''
    Ha az elvégzendő feladat jól párhuzamosítható, akkor igen. (Csak hogy ne legyen félreértés, a sebesség itt nem az órajelet jelenti.)

    Írod:
    ''Itt az R350 vs. NV3X-ről van szó. Hogy megértsd gondolj a P3 vs. P4-re.''
    Nem tudom pontosan mire utalsz. Mindenesetre én azt állítom, hogy az NV35 lényegesen gyorsabb lesz a Radeon9800Pro-nál is. (Kb. olyan arányban, amilyen arányban a memória alrendszere.)

  • Gaius

    tag

    Hi mindenkinek!

    Én az egész mögött ugyanazt a ''hátradőlök a székemben, mert senki más nem tud ilyet'' effektust érzem ki, mint anno a 3Dfx-nél. Egyszerűen elb....-ta az Nvidia. Saját magának. És most jön majd a kapkodás. Mert ugye mi is történik jelen időben? Az, hogy az ATI tarol, az Nvidiának meg nincs olyan terméke, amely felvenné a Radeonokkal a versenyt. Az egyedüli megoldás most is a legfullosabb 4600-os Gef4. Mert azt remélem senki sem gondolja komolyan, hogy FX-et vegyen...
    A drivereket is elrontották (melegedés, elfüstölés, stb...).

    Szóval minél gyorsabban ki kell adniuk valamit, ami jobb lesz, mint a Radeon. De ezt most csak kapkodással tudják behozni. És mindenki tudja, aki ért a géphez, meg általában is, hogy ''hamar munka ritkán jó''. Most az Nvidia kényszerhatás alatt dolgozik, MUSZÁJ jobbat csinálniuk. Csakhogy az a bibi, hogy eközben a stabil, nagyon gyors és nagyon jó Radeonokat vásárolják folyamatosan. És az ATI pedig a pillanatnyi helyzeti előnye miatt kényelmesen tud fejleszteni. El is tolták a 9900-es megjelenését. Az Nvidiának most nem utol kellene érnie a 9800-as Radeont, hanem megelőznie a 9900-est.

    Az NV35 megint egy vakítás lesz, mint ahogyan az volt az utóbbi két-három év Nvidia terméke is. Persze, nyolcmillió megahertz, tízmilliárd tranzisztor, stb-stb.
    És így persze, majd jóval gyorsabb lesz a radeon 9800-asnál. Hiszem, ha látom.
    Az az Nvidia baja, hogy megállt a tudomány. Az ATI nem hatalmas órajeleket meg biszbaszokat ígér, hanem iszonyatos munkával TECHNOLÓGIAILAG nőtt az Nvidia fölé, ígérgetések nélkül.

    Azért nem véletlen az sem, hogy a Microsoft (aki azért mindig megnézi, hogy hova fektet be) is törölte az Xbox2 Nvidia garfikus prociját.....

    Alea iacta est - Gaivs Ivlivs Caesar

  • simbazz

    aktív tag

    válasz Gaius #42 üzenetére

    ''Az NV35 megint egy vakítás lesz, mint ahogyan az volt az utóbbi két-három év Nvidia terméke is. Persze, nyolcmillió megahertz, tízmilliárd tranzisztor, stb-stb.
    És így persze, majd jóval gyorsabb lesz a radeon 9800-asnál. Hiszem, ha látom.''

    Nos, gyorsabb lesz. Valamennyivel tutkó. Deviszont... Amint kapható lesz, csomó ilyennel fogunk találkozni itt a fórumokban: ''Jááj, leégett a 400W-s tápom az NV35-től (FX62475895-től)'' meg hogy ''jaaa, azt nem mondták, hogy 3 kártyahelyet elfoglal a hajszárító'' vagy akár ''rakéta porszívók másodvirágzása: FX-re fel!''.

    !!!RÓÓÓÓÓÓÓTFL!!!

    :)) :)) :))

    Elektromos abakusz

  • Joz76

    tag

    válasz Gaius #42 üzenetére

    Azért még ne adjuk fel az utolsó kenet az nVidiának, mert a FX nem jött be. Évekig gyorsabb kártyákat csinált mint az Ati, és az Ati mégsem ment tönkre (OK, ők több lábon állnak mint nVidia).

    Joz

    Joz

  • engusz

    veterán

    Kíváncsi lennék, hogy mit fog szólni a sok ATI párti, ha a GFFX5900 [b]lekeni[/b] a Radeon9800Pro-t?! :).

    A GeForce FX 5200-es szériát, pedig nem kell nagyon leírni, mert pl ott az MSI-nek a FX5200-TDR128 kártyája. Lassú, de felér egy jobb digi kártyával, valamint még távirányító is jár hozzá. Valakinek ez pl impozáns lehet, úgy, hogy kevesebbet játszik, mint az átlag. Emellett mondjuk nem kíván 80-90-100 ezreket kiadni egy gyorsabb kártyára és ''szüksége van'' az előbb emélített dolgokra.

    OFF
    Szerintem sokkal értelmesebben lehet úgy ''társalogni'', ha tényeket közlünk és kész érveink vannak. Persze ha ezeknek van valóságalapja. Vagy azért, mert értünk hozzá (DcsabaS esete) vagy, mert rendesen utánnanéztünk és naprakészek vagyunk. Hülyeségnek tartom azt, ha valaki csak úgy vagdalózik a dolgokkal és megpróbálja megdönteni az ''okosabb'' ember tényeit, érveit.
    ON

    Én bízok az nVidiában. Eddig meg voltam elégedve vele. Emellett sosasem elleneztem más gyártók kártyáit. Elismerem, hogy most gyorsabbak a Radeonok.
    Kíváncsian várom, hogy ezek után mi lesz... :P

    Nézzék meg közelebbről! Mert minél közelebb hiszik magukat, annál kevesebbet fognak látni.

  • Fr4G

    aktív tag

    Persze hogy hiba volt, a 128 bites memóriainterfész adatátviteli sebessége már akkor kevesebbb volt mint az R9700-nak. Valami színtömörítéssel védekeztek nVidiáék, dehát úgylátszik nem jött be nekik.

  • Egon

    nagyúr

    válasz Gaius #42 üzenetére

    Egy icipicit szélsőséges a véleményed, ráadásul részben ellentmond a _tényeknek_:

    1. ''Egyszerűen elb....-ta az Nvidia. Saját magának.''
    Szerintem meg a TMSC cseszte el. _Tény:_ az nV beszállítót váltott: szerződést kötött az IBM-mel (szerinted miért? talán olcsóbb? nem hiszem...).

    2. ''Mert azt remélem senki sem gondolja komolyan, hogy FX-et vegyen...
    A drivereket is elrontották (melegedés, elfüstölés, stb...).''
    Biztos lesznek, akik megveszik (főleg talán az 5600-at: pláne ha lesz elfogadható (hangú) hűtés rá, amire van esély: az alacsonyabb órajel alacsonyabb hőtermelést jelent...)). a driverekről: _egy_ elcseszett driver volt/van (43.45), amit vélhetőleg baromi hamar kijavítanak (lehet már meg is történt). Elfüstöl(tet)ni egy kártyát sem sikerült (még amikor direkte próbálkoztak is vele): asszem van ott is valamiféle hővédelem...

    3. ''Az NV35 megint egy vakítás lesz, mint ahogyan az volt az utóbbi két-három év Nvidia terméke is.''
    Hehehe...:) Barátom, két-három éve az nV _egyeduralkodó_ volt a vga-piacon, _érdemi konkurens nélkül_... Az Ati a futottak még kategóriában (sem) volt _évekig_, és mégis sikerült átvenniük a technológiai vezető szerepkört. Kérdés, mennyi időre: mint tudjuk, a csúcsra nem felérni nehéz, hanem fennmaradni...
    Ja, és ne felejtsük el: a piacvezető (azaz a legnagyobb piaci részesedéssel bíró cég) _még mindíg_ az nV!

    4. ''Azért nem véletlen az sem, hogy a Microsoft (aki azért mindig megnézi, hogy hova fektet be) is törölte az Xbox2 Nvidia garfikus prociját.....''
    ? Én úgy tudom (legalábbis a legutolsó, általam olvasott, a témához kapcsolódó hír szerint), hogy - igaz nem részletezett - ún. ''hosszú távú együttműködési megállapodást'' kötöttek (az Xbox kapcsán kitört vitájuk zárult ezzel).

    "Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)

  • Power

    senior tag

    válasz DcsabaS #41 üzenetére

    ''Az alkalmazott félvezető technológia hatása az Itanium és az Itanium2 esetéből nem hámozható ki olyan könnyen, ugyanis lényeges architekturális különbségeik is vannak, mindjárt pl. az, hogy az Itanium2 le tudja kapcsolni a nem használt részeit. ''

    Itt az Itanium2 és Itanium2 között történt a váltás. Nincsenek lényeges architektúrális különbségek, a L3 cache méretét növelték, plusz pár módosítás.

    ''De ha ugyanazt a procit gyártanák 0,18 helyett 0,13 mikronon, akkor a maximális működési frekvencia kb. 1,9-szeresére nőne''

    Ez nem igaz. Lineárisan változik, bár ez is inkább elméleti.
    Mondj rá példát, ha tudsz!


    ''Fejlesztésekhez előszeretettel használnak kiforrott félvezető technológiát, csak hogy minél tisztábban tudjanak az architekturális problémákra összpontosítani. A következő lépés szokott lenni a sebességi és teljesítményfelvételi optimalizálás, amit nagy tranzisztorszám esetén észszerű összekapcsolni finomabb félvezető technológiára való áttéréssel, ami az árat is jelentősen csökkenti (távlatilag).''

    Pont ezt makogtam. Az nV itt hibázott, hogy nem tudta kellőképp megtervezni a chipet, de ettől még a 0,13 mikron kiforott.

    ''''Ha az NV30-at 350MHz-en járatnák, akkor semmi probléma nem lenne a melegedéssel.''
    Egyetértek, akkor kezelhető szintűre esne a melegedése, de a RAM sávszélesség további csökkenése miatt még lassúbb lenne 3D-ben.''

    Mi köze RAM órajele és GPU órajeléhez?


    ''''A SOI igenis kiforott. Ha valakinek nem megy, attól még másnak mehet.''
    Úgy látom, ''kiforrottságon'' Te valami olyasmit értel, hogy az adott dolgot már érdemes megkockáztatni (:-)...''

    A kiforottság azt jelenti, hogy üzletileg megéri. Ennyi.
    A SOI fejlesztési költség(+licence) + gyártási költség + egyéb költségek < Bevétel

    ''Nem az R300 miatt jött a pofáraesés, hanem mert a DDR-II nem ment, csak DDR-I módban. Ez felezte meg a sávszélességet, és ezért kellett overclockhoz folyamodni. Ha ment volna a DDR-II, akkor 400 MHz-en is a GeForce FX lett volna a gyorsabb. (FSAA-ban is.)''

    Ne várj olyan nagy különbséget a DDR-I és II között, itt is csak elmélet a 2x-es. A 4 pipeline kontra 8 pipeline nem lehet sávszélességgel megoldani, ezt jól mutatja az alacsony felbontáson végzett tesztek, ahol sávszélesség a GFX-et sem korlátozza.


    ''''A tranzisztor szám 2x akkor a sebesség 2x?''
    Ha az elvégzendő feladat jól párhuzamosítható, akkor igen. (Csak hogy ne legyen félreértés, a sebesség itt nem az órajelet jelenti.)''

    Órajel ez, hogy jön ide?
    Csakhogy egy chip nem úgy épül fel, hogy összerakok kettőt, aztán 2x annyi tranyó 2x gyorsabb lesz. Rengeteg egész más áramkör kell ezek összehangolásához, másrészt nagyon elméleti a 2x.


    ''Nem tudom pontosan mire utalsz. Mindenesetre én azt állítom, hogy az NV35 lényegesen gyorsabb lesz a Radeon9800Pro-nál is. (Kb. olyan arányban, amilyen arányban a memória alrendszere.)''

    Majd meglássuk. :)) :))
    Lesznek biztos olyan esetek is, de olyan is lesz, ahol lassabb lesz.
    De aszondod, hogy 850/680 = 1,25, tehát 25%-kal gyorsabb lesz átlagosan.
    (900-as variáció esetén 900/680 -> 32%). Szerintem kizárt, de erre térjünk vissza :DD


    Power

  • Gaius

    tag

    válasz engusz #45 üzenetére

    ''Kíváncsi lennék, hogy mit fog szólni a sok ATI párti, ha a GFFX5900 [b]lekeni[/b] a Radeon9800Pro-t?!''

    Nézd, a helyzet az, hogy mivel kb. lesz megint fél év eltérés a két kártya között, óriási szégyen is lenne, ha megint nem sikerülne megverni az Atit.

    Én is jó ideig Nvidia cuccokat használtam, nem is volt tényleg iagzán problémám vele. Ez tény. És én sem ''húztam le'' más gyártók termékeit. De most megérett az idő a váltásra. Azt hiszem.

    Az is tény, hogy üzletileg tényleg az Nvidia a piacvezető. De azért ha megnézitek, egy Fx árát, akkor azt hiszem nem kell nagyon sokat gondolkodni azon, hogy kinek a termékeit vásároljuk. Pláne, ha az jobb. Én személy szerint örülök az Ati térhódításának. Nekem mindig is szúrta a szemem az Nvidia. Régi Voodoo rajongó vagyok, soha nem szerettem az Nvidiát, pláne mióta megvette a 3Dfx-et. Tudom, hogy ez aztán abszolúte nem az Nvidia hibája, sokkal inkább a 3Dfx rontotta el. De hát az érzelmek....:)))))))

    Szóval továbbra is fenntartom azt a nézetemet, hogy most az Nvidiának azt kellene kitűznie, hogy gyorsabb zsugát készítsen, mint az Ati 9900 Pro.

    Alea iacta est - Gaivs Ivlivs Caesar

  • McJames

    senior tag

    válasz Parci #34 üzenetére

    Azt felejtitek el, hogy a 0.13 mikron a TSMC/UMC általi külső adottság az nVidiának és az ATI-nak. Hacsak nem terveznek valami béna chipet, akkor ezen a két cégen múlik, hogy mikor áll készen...

    [L]http://news.com.com/2100-1006-994072.html[/L] :)

    Aki a villamos alatt fekszik, annak nem természetes a mosolya.

Aktív témák