Hirdetés
Hirdetés
Talpon vagyunk, köszönjük a sok biztatást! Ha segíteni szeretnél, boldogan ajánljuk Előfizetéseinket!
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
rocket
nagyúr
Ugytunik megis csak sikerult osszehozni az NV-nek GF100 es a Metro2033 megjelenest.
Akkor szokas szerint sikerult osszedobniuk egy jo eros marketing eszkozt, PhysX, meg DX11.
-
rocket
nagyúr
válasz
cowboy_bebop #3595 üzenetére
Raadasul ezer eves a kep, a hozzaszolas amiben benne van 2009-05-07, a hozzaszolas aljan a source linken nincs mar semmi
-
Crytek
nagyúr
-
zoltanz
nagyúr
Ha úgy vesszük a Sony PS2 is megelőzte a korát mert egy általánoscélú processzort fejlesztett bele a Toshiba és a Sony a Emotion Engine -ot.
Maga a chip egyfajta kombinációja a CPU-nak és egy DSP processzornak, melynek a fő felhasználási köre 3D-s világok szimulálása.
A lapkán egy szuperskalár, 2 utas fixpontos egység kapott helyet, amely egy órajel alatt 2x64 bitnyi adatot dolgoz fel. A 2 utas szuperskalár megnevezés azt jelenti, hogy egyszerre kettő fixpontos végrehajtó egység dolgozik egymással párhuzamosan. A duplázott lebegőpontos egység (FPU, VU0) teljesítménye 6,2 GFLOPS (109 lebegőpontos művelet másodpercenként). A vektorműveleteket végrehajtó egységek (VU0, VU1) használatára a nagy erőforrás-igényű 3D-s számítások elvégzése miatt volt szükség. A VU0 végzi a felületek tesszalációját, azaz létrehozza a felületeket alkotó poligonokat, majd ezeket az adatokat megkapja a VU1, amely elvégzi a poligonokból álló 3D-os objektum képernyőre transzformálását (Transform and Lighting). A tiszta geometriai teljesítmény 66 millió háromszög másodpercenként. Ezt az adatot megvilágítás és köd effektek nélkül kell érteni; ha ezekre is szükség van, akkor a teljesítmény visszaesik 38, illetve 36 millió háromszög per szekundumra.
-
-
moha21
veterán
Amikor a 386-os bevezette a 32 bit-es architektúrát, a win95 még mindig rengeteg 16 bites utasítást tartalmazott a kompatibilitás érdekében, és nem használta az Intel gépeiben meglevő hardverszegmentációt. Sokan úgy ítélik meg az IA64-et, hogy azon milyen gyorsan fut egy 16 vagy 32 bites szoftver. A Pentium Pro megjelenésekor is kapott hideget, meleget, hogy alig gyorsabbak rajta a 16 bit-es programok. Az Intel a P II-vel saját vetélytársat állított szerintem, mert a 64 bit még ( otthoni PC szegmensbe) most kezd lassan elterjedni.
-
-
cszn
őstag
válasz
Oliverda #3581 üzenetére
Mindenesetre kapkodhatnák magukat vidiáék.
Persze nem tudni a köv. gen. Ati milyen architektúra lesz, de jelen állás szerint az 1. gen. Fermi teljesítményben ígéretes árban viszont drága lesz nekik. Úgyhogy gyorsan összedobálhatnának jövő év közepére egy 28nanos optimalizált verziót. Ez mindenkinek jó lenne.
-
janos666
nagyúr
Már mióta itt van! Nem látod? Olyan gyorsan húzott el melletted, hogy észre sem vetted, és a menetszél lesodorta a szemüvegedet?
Itanium - Én nem a "szerencsétlen" programozókra, és "szegény" producerekre gondolok, hanem magamra, és én, mint kontár úgy vettem le, hogy mint végfelhasználó, összességében jobban jártam volna vele. (Akár ott elkezdve, hogy MS kénytelen lett volna mélyebben belenyúlni a windows kernelébe...) -
Beta1
csendes tag
öhömm!
-
hugo chávez
aktív tag
válasz
Gonosz15 #3576 üzenetére
A TRIPS project is ígéretesnek tűnik, kíváncsi leszek, hogy ha elkészül a végleges változat a kitűzött teljesítménnyel és piacra dobják, mennyire fog elterjedni.
-
-
Abu85
HÁZIGAZDA
Max. az ARM jöhet szóba az MS-nél. Arra lennének eladások, és a piac is hatalmas lesz.
-
VinoRosso
veterán
Ha nem is Itanium de valami kéne, mert az x86 már nagyon öreg. Egy Cell-t szívesen látnék a gépemben, csak szerintem a windoof nem látná szívesen...
(#3568) r1E3S3E7T: Az a baj vele, hogy lehetne helyette sokkal jobb.
(#3563) Zeratul : A Cell sokkal butább mint az X86 procik. De sokkal gyorsabb is
-
Iron Funeral
őstag
válasz
janos666 #3566 üzenetére
Egyébként mi konkrétan a bajod az x86-64 utasításkészlettel? Nem kellett komplett rendszert cserélni (ez MS, intelnek előny volt mindenképp, nekünk hátrányt nem jelentett) viszont elhozta a 64bit sajátosságait, 4+gb ram címezhetőségét és néhány esetben gyorsabbak is a 64bit-re írt progik
(ezeken kívül még vagy 5000 dolgot ami nem is jut eszembe meg nem is értem őket
).
*Most azt mondod, hogy P4-ed volt A64 helyett
**P4 valamelyik szériájától az intel is beépítette, mégis mi a különbség abban hogy az intel copy-paste EM64T utasításkészletét vagy az AMD eredetijét veszed meg? (most a prociteljesítményt hagyjuk figyelmen kívül) -
Abu85
HÁZIGAZDA
válasz
janos666 #3566 üzenetére
Miért lenne nekünk jó az Itanium? Most kezd az ipar barátkozni a valódi többszálúsággal. Üzletileg az Itanium teljesen életképtelen még x86-64 nélkül is. Egy szoftvert kis pénzből rekodsebességgel kell kihozni, ez az Itaniumnál nem menne, mert erősen kiegészül a kódolás, fordítás, debug és teszt futószalag.
-
9950es
aktív tag
Persze hogy nem mivel alapjaiban a GPU masszivan parallel , a ziksznyócvanhat meg masszívan nem. A jövő az előbbi, a múlt az utóbbi, hiába igyekezett összemosni az intel a 2 architektúrát, nem eredményezett mást csak kavarást ( jól meg is kavartak néhányótokat).
Érthető hogy az nV is rögtön hárít ha x86 kerül szóba , rosszat tenne az image-üknek ...
-
janos666
nagyúr
-
Bici
félisten
Szerintem úgy értette, hogy x86 utasításkészlettel ellátott GPU, mint amilyen a Larrabee is lesz. Más kérdés, hogy ez nem mostanában reális...
(#3557) r1E3S3E7T: Én is hasonlóan gondolom, mert annak idején azt mondta mindenki, hogy az evergreen család mekkora királyság lesz DX11-re, cserébe nem para, ha GPGPU téren nem villog. Erre az nV meg előjön egy olyannal, ami még DX11-ebb, és még GPGPU téren is brutális. Legalábbis a hírek szerint.
Szóval érted. Ha meg lehet csinálni egyben a kettőt, akkor az AMD féle "csak egyikben vagyok jó, de abban sem annyira" megoldás nem biztos, hogy nyerő...
Persze, ez még csak találgatás, mert tudtommal senki sem tudja biztosra a Fermi teljesítményét, fogyazstását, de még a pontos magméretét sem, vagy lemaradtam valamiről?
És akkor még nem esett szó a gyártási költségekről, ami lazán jelentheti az AMD stratégiájának helyességét. Majd a tesztek (és a fejlesztők) eldöntik. -
nyilván nem lesz rentábilis, de az nVidiának kiemelten fontos a Top E-penis Award, úgyhogy limitált példányszámban érdemes lehet megcsinálni.
és szerintem sokkal gyorsabb lesz, ha 20%-kal lesznek kisebbek az órajelek, akkor kb. annyival, mint az 5970 az 5870-nél. persze, ha a CPU+mem+PCI-E bírja.
a fogyasztás így is kérdés - de ha hasonlóan kevesebbet eszik a TDP-jéhez képest, mint a GTX200-asok, akkor egyáltalán nem lesz impossible...#3549:
mondanom se kell az idő engem igazol, mint mindig
Mint pl. a 4000 SP-vel szerelt Cypress kapcsán?#3552: szerintem most azokon a lehetséges eseteken dolgoznak a rövid pórázon tartott fejlesztő partnerekkel, ahol elég lesz az egy Fermi a 2 Cypress ellen
-
Iron Funeral
őstag
Hadd idézzek tőled: "Nagy szégyen lenne az AMD-nek, ha azonos fogyasztás (~300W) mellett 2db GPGPU megverné, vagy akár elérné a 2db dx11-re kiélezett célhardvert..."
Itt azt mondod, hogy gáz lenne ha 2 Fermi odapörkölne 2 Cypressnek, mert a Cypress bizony DX11 meg mustároskolbász, amíg a Fermi csak GPGPU feladatokban jeleskedhet. Erre írtam, hogy a Fermit Abu "Ultimate DX11 Hardware" címmel illette, holott te a Cypressről mondtad ugyanezt.
-
9950es
aktív tag
Persze, lehet, hogy az AMD azért nem erőlteti ezt mostanában, mert sokkal nagyonn durranásra készül GPGPU+x86, és tudja, hogy ez ellen csak az intel fog tudni hatékony versenytársat állítani (Larrabee).
Az érdekes lenne hogyha valami konkurrens terhelést tudna a chip , hogy egyidejüleg grafika plusz gpgpu : )) Biztos tud is, CUDAval.
-
ImpIon
csendes tag
válasz
Iron Funeral #3554 üzenetére
Azt értettem a kiélezett alatt, hogy GPGPU feladatokra sokkal kevésbé alkalmas.
Már írta valaki itt a fórumon, és én is így látom, hogy ha az nV meg tudja oldani (majd a tesztekből kiderül), hogy a GPU és GPGPU feladatokat egy chip látja el, mégpedig megfelelő hatékonysággal, akkor megkérdőjelezhető az R600 tovább csiszolgatásának létjogosultsága.
Még, ha nagyobb is lenne így a chip, ennek felára bejöhetne a workstation/HPC eladásokból, feltéve, hogy az AMD tudna megfeleően csápolni a fejlesztőknél, rendszerépítőknél.Persze, lehet, hogy az AMD azért nem erőlteti ezt mostanában, mert sokkal nagyonn durranásra készül GPGPU+x86, és tudja, hogy ez ellen csak az intel fog tudni hatékony versenytársat állítani (Larrabee).
-
Gerisz
addikt
Nem tudom mi az arra fejlesztett cél hardver, az ami megjelenik a szoftverrel egyidőben, vagy az amit a szoftver meglétekor még nagyban fejlesztenek?
Node itt a kettő teljesítményét akkor lenne fair hasonlítani ha együtt adnák ki, erről szó sincs.
Itt a mi zsebünkkel játszanak csak, ők meg jót röhögnek. -
Abu85
HÁZIGAZDA
Nem az a baj, hogy nem lehet megcsinálni a dupla Fermit, hanem az, hogy megéri-e. Az NV a GT200 esetében sem tervezett volna dupla GPU-s megoldást, nyilván most is az anyagi szempontok szerint fejlesztettek. Már rájöttek, hogy egy Fermi kevés két Cypress ellen, de egy dupla kártyához sok szempontot kell figyelembe venni. Ami ellene szól az az idő. Reálisan gondolkodva az NV is tudja, hogy ez a kör elment. Még egy erős Fermi mellett is ott az időbeli hátrány, érdemes inkább a következő generációra építeni.
-
janos666
nagyúr
Gyorsabb lehet, főleg ha alkotnak valami nagyot a driver terén, és nem AFR-el osztják meg a feladatokat, hanem a 4 tömb helyett 8-ra osztják le a cuccot. (Ez az elképzelés gbors meglátása alapján, valahonnan korábbról...) Elvégre ha jól rémlik, a DX11 is ígért valami újítást a multiGPU-k terén, lehet hogy itt sikerül kiaknázni.
És nem az egy GPU-s csúcskártya 180%át kell elérniük, hanem az 5970+5;20%-ot (alkalmazások függvényében mindenhol legyen legalább egy hajszállal gyorsabb, de minimum egál, és néhol azért domborítson fölé valami kézzel foghatóbbat is).
Pl. ha 70%-os gyakorlati teljesítményre herélnek, és 80%-os SLI hatásfokot feltételezünk, akkor 2x70x0.8=112%. (És ez a fogyasztásra még nagyobb mértékben igaz lehet, mert a fesszel négyzetesen aránylik a fogyasztás, nem lineárisan, így belőhető a 300W) Ez átlagos fölény a leggyorsabb Fermihez mérve, de ha 1 Fermi ~20%-al gyorsabb egy Cypressnél, már megéri két herélt Cypress helyett (mert az 5970 sem 2 teljes értékű 5870, szintén a fogyasztás miatt). Ha ehhez mérve árazzák (ez már neccesebb, de legalább megfelelnek a kissé hibás chipek is), már jó lehet, de erőfitogtatásnak mindenképp elmegy.
És persze itt is bennmarad a házi tuning lehetősége, ami többet remél, mint az 5890-en, hisz itt méginkább visszafogott chipeket kapsz, a PCI-E tápábelt pedig nem vágja meg minden táp, átmegy azon több is, mint a szabvány engedi. Na persze ilyenkor már szinte kötelező felvizezni a kártyát, de ha kell, a tiéd lehet a leggyorsabb VGA. (És már az 5850-re is megéri vizet tenni ha húzni akarod, mert forró lesz, és leszabályoz a kártya.) -
Bluegene
addikt
Full 3D performance mode: varies - worst case TDP 236W for GTX 280
[link]a GTX 285 viszont már csak 183 W!! lett is GTX 295!
nos mennyit várunk a fermire, mekkora TDP-t? sztem az több lesz, kicsivel a gtx 280 felett, mondjuk 260W, de az is lehet h kevesebb
szal ebből azt akarom kihozni, hogy nem elképzelhetetlen, sőt
ugyanezt mondtam a GT200 topicban és le is hurrogtak engem hogy lehetetlen lesz a dual GT200, mondanom se kell az idő engem igazol, mint mindig
-
ImpIon
csendes tag
Én azt nem tartom reálisnak, hogy megéri csinálni ilyen karit. Még ha alacsonyabb fesszel jobb teljesítmény/fogyasztás mutató érhető is el, akkor sem hiszem, hogy sokkal gyorsabb lesz az egy GPU-s változatnál, feltéve, ha igazak a 280-300W-ról szóló pletyik, és azonos stepping-re épül majd a két GPU kari.
-
janos666
nagyúr
Én sem hiszek a gyakorlati megvalósításában, de elméletileg azért nem lehetetlen. A Teslát 225W alatt tudták tartani, és RAM-okból elég össz-vissz annyi, mint ami egy Teslán van. Itt csökkenthetik az órajelet, és a feszültséget is, az AMD duplachipese is herélt verziókból legózik. Megbolondíthatják a cuccot valami hardwares VRM vezérléssel, ami visszafogja a csúcsokat, mint a Cypressnél is tették. Ezzel együtt már nem lehetetlen becentizni 300W-ba, még ha összességében veszélyesen jön is ki 0-ra a forgalmazása.
-
Oliverda
félisten
válasz
Bj Brooklyn #3535 üzenetére
Forrás: Fudzilla
Ennyit erről.
-
zuchy
őstag
válasz
Bj Brooklyn #3535 üzenetére
Szerintem 2 GPU-s változat max az A4-es verzióból jöhet. De én elég kevés esélyt látok rá, hogy lesz 2GPU-s Fermi. Maximum olyan lesz, mint az Asus Mars.
-
WesTM
őstag
válasz
Bj Brooklyn #3535 üzenetére
Lehet azért jönne ilyen hamar a 2 gpu-s verzió mert annyi a selejt gpu van amiből 2 gpu-s kártyát lehet építeni mint állat.
-
proci985
MODERÁTOR
válasz
Bj Brooklyn #3535 üzenetére
ez logikus.
512 -> megy GPGPUnak
448nál viszont nagy a szórás a hőtermelés és VID szerint, tehát az alacsonyabb VIDes darabok közül pár lehet befér kettesével a 300ba, úgy meg mehet GX2nek. bár áprilisban még nem hinném -
Bluegene
addikt
válasz
Bj Brooklyn #3535 üzenetére
Nekem tetszik, jól megszerkesztett, alaposan átgondolt és szakmai cikk
tényleg a nyelvezete elég közel áll hozzám, lehet hogy az egyik tanítványom
-
janos666
nagyúr
válasz
Bj Brooklyn #3535 üzenetére
Valahogy olyan érzésem volt, mint ha ezt a cikket Bundás írta volna.
De poén: "Lehetetlen, de bizonyosan megcsinálják."
Nem értem miért kell duplafermivel hülyíteni a népet. Ebből max az lesz, hogy néhányan azért nem vesznek 5970-et, mert erre várnak, de ez egyrészt amúgy is szűk réteg kis százaléka lesz, és házon belül is igaz lehet, hogy azért nem áll sorba valaki 2db GF100-ért, mert várja az egynyákon kétmagos szörnyet.
Szerintem a legjobb lenne, ha összecsomagolnának két referencia kártyát, mint "SLI edition", a gyártók még megfűszereznék azzal is, hogy ráhazudják a dobozra, hogy együtt tesztelték őket (mint a dual channel memória csomagoknál szokás). Persze kiegsézítve egy nagy sárga felirattal keresztbe a dobozon, hogy: "SLI certified motherboards ONLY." -
Bj Brooklyn
aktív tag
Egy érdekes hír!
-
VinoRosso
veterán
válasz
Mackósajt #3532 üzenetére
thnx!
Other companies named in the Rambus complaint include Asustek Computer, Asus Computer International, BFG Technologies, Biostar Microtech and Biostar Microtech International, Diablotek, EVGA Corp., G.B.T. , Giga-Byte Technology, Hewlett-Packard, MSI Computer, Micro-Star International, Palit Multimedia, Palit Microsystems, Pine Technology Holdings and Sparkle Computer.
jó kis paláver lehetett
-
VinoRosso
veterán
válasz
Mackósajt #3532 üzenetére
thnx!
Other companies named in the Rambus complaint include Asustek Computer, Asus Computer International, BFG Technologies, Biostar Microtech and Biostar Microtech International, Diablotek, EVGA Corp., G.B.T. , Giga-Byte Technology, Hewlett-Packard, MSI Computer, Micro-Star International, Palit Multimedia, Palit Microsystems, Pine Technology Holdings and Sparkle Computer.
jó kis paláver lehetett
-
Mackósajt
senior tag
-
Oliverda
félisten
-
Bj Brooklyn
aktív tag
-
Ricco_hun
senior tag
válasz
Bj Brooklyn #3507 üzenetére
Vigyázz! Ezért én a múltkor már megkaptam a magamét (amiért szóltam). De látom még mindig nem fedezte fel, hogy van AMD/ATi találgatós topik is. Talán ha Abu nem rögtön válaszolna neki, hanem belinkelné a másik találgatós topikot, hogy " légyszives ezt oda".
-
janos666
nagyúr
Ez csak a számítások pontossága. Ugyan az, mint mint mikor papíron számolsz, és eldöntöd, hogy hány jegy pontosságig fogod kiírni a rész-, és végeredményeket. A számítási modelltől is függ, hogy ez meddig növeli a téyleges pontosságot, és hol megy át álpontosságba.
Pl. ha azt mondod, hogy valamit nem 56km-esre, hanem pontosan 56000003 mm hosszúra kell építeni, és fontos, hogy épp 3mm-el legyen hosszabb a kerek 56km-től, nos, az álpontosság.
Ha viszont pontos eredményekre van szükséged, amihez kellően megbízható és pontos bemenő adataid vannak, valamint kellően komplex modellel dolgozol, ami ebből fakadóan regeteg egymást követő részletszámítást eredményez, akkor jól jöhet a 64 bites pontosság.
Grafikában nem vagyok otthon, de szerintem amíg nem növelik a 32 bpp értéket, addig kár lenne a maitól pontosabban számolni az árnyalásokat. Bár DisplayPorton átmegy már színcsatornánként 10 bit, és egyre több monitor dolgozik 10 bites vezérlőpanellel, de én nem futottam még bele olyanban, hogy készülne valami új szabvány e tekintetben, főleg nem olyan, ami a játékokat is érinti, azok amúgy is le vannak maradva színkezelés terén, még a HDR sem túl öreg, pedig mai szemmel nevetséges, hogy meddig kellett rá várni.
Talán videókodoláskor/dekódoláskor sem árt a túlpontosság, mikor eltérő kódolási szabványok közt konvertálnak. (Pl. NTSC és PAL DVD-k közt, SD anyagokat szórnak HDTV-re, Blu-Ray-t masterelnek miután AdobeRGB-ben renderelték a CGI-t, vagy akár PC-n nézel bármiféle filmet, stb.)
Hirtelen ennyi jutott eszembe.
Az meg, hogy ki mire vágyik a maga szakterületén, az már egyéni szociális problémák és elmebajok kategória. Ha valakinek jól esik 100 jegy pontosságig kiszámolni valamit, hogy utána 4 jegyre kerekítsen, vagy ne adj isten hogy ez alapján válasszon egy táblázatból 4 szabványos érték közül, az is szíve dolga. -
janos666
nagyúr
Nekem olyan sejtésem van, hogy eddig egyetlen játék sem használja(/hatta), és ezután is esetleg olyan helyen fordulhat majd elő, hogy pl. Crysis 2 DX11-VeryHigh, mikor már nem tudnak/akarnak értelmesebb dolgot kitalálni, de azért be akarnak dobni valamit, nehogy maradjon fölös erőforrás a hardware-ben, amit nem aknáznak ki, még ha gyakorlatilag alig lesz is különbség a végeredményben.
Egyéb helyeken pedig lehet még haszna, otthon használható GPGPU programokban is jól jöhet. Ha már úgy is sokkal gyorsabb a GPU, mint a CPU, akkor miért is ne bánhatnánk pazarlóan ezzel. Főleg igaz lenne ez, ha a Geforce-ok sem lennének visszafogva DP-ben, és fele sebességen mennének. -
rocket
nagyúr
Erre ertettem amit irtam "But a few poor hackers in Eastern Europe are going to be seriously bummed" , ezert is raktam OFF-ba, de valoban felreertheto volt amit irtam
Hallottam par napja a 1/4-es DP teljesitmenyrol GF vonalon, valoszinuleg ezzel azt akarjak elerni, hogy akinek szuksege van erre, a joval dragabb Tesla vonalon nezelodjon.
Ahoz kepest azt igergettek, hogy egy Folding monster lesz a GF100, most akkor ezt kilehet huzni -
-
Oliverda
félisten
"De van tapasztalatuk abban, hogy hogyan kell eladni a hétköznapi embereknek a megoldásaikat úgy, hogy nyereséges legyen. Miért ne lenne igaz ez a GPGPU-megközelítésben is? Ne legyen igazam, de 2011-ben (vagy már idén is) ezzel sok mindet el lehet majd adni."
Az lehet de most azon kell(ene) dolgozzanak, hogy a nagyobb fejlesztőket a CUDA irányába tereljék mert ha nem lesz olyan úgynevezett "killer application amivel le tudják majd tolni a fogyasztók torkán, hogy márpedig erre a GPGPU-ra neked "szükséged van", ezért vedd meg"(
) a CUDA-s kártyát akkor nem sok felhasználónak fog kelleni desktop-ra egy ilyen "CUDA only" kártya.
-
P.H.
senior tag
válasz
Oliverda #3513 üzenetére
"Szerintem pont ez most az nV legnagyobb baja.
"
Tudom. Jelenleg
"Az eddig látott stratégiákból azt gondolom, hogy inkább azt fogják mondani, hogy akinek annyira kell az fizesse meg."
Jogos és "ehhez talán kellene egy kisebb csíkszélességre váltás". De van tapasztalatuk abban, hogy hogyan kell eladni a hétköznapi embereknek a megoldásaikat úgy, hogy nyereséges legyen. Miért ne lenne igaz ez a GPGPU-megközelítésben is? Ne legyen igazam, de 2011-ben (vagy már idén is) ezzel sok mindet el lehet majd adni.
-
Oliverda
félisten
"Ilyen megbízhatóssággal ellátott hardware-t jelenleg nem ad senki..."
Szerintem pont ez most az nV legnagyobb baja.
"...az nV adhatna alsóbb kategóriában is. Meglepő lenne, ha ezt nem játszanák meg."
Az eddig látott stratégiákból azt gondolom, hogy inkább azt fogják mondani, hogy akinek annyira kell az fizesse meg.
-
P.H.
senior tag
válasz
Oliverda #3510 üzenetére
Mondám: "el lesznek"
Manapság biztosan nem, hisz nem számít, hogy egy video-t 6 vagy 7 perc alatt kódol át egy program. Viszont tudod Te is, milyen hamar lakja be a lehetőségeit a software- piac
Igen, CUDA van már régóta. Viszont megbízható hardware most jött el hozzá. Ilyen megbízhatósággal ellátott hardware-t jelenleg nem ad senki; az nV adhatna alsóbb kategóriában is. Meglepő lenne, ha ezt nem játszanák meg.
-
9950es
aktív tag
Állítólag quadro kártyákban gyárilag van edge blending projektorokhoz... Basszus, ha ezt behozza az nV konzumer szintre akkor 1 vásárlójuk má tuti van
.
-
Oliverda
félisten
Lehet hogy teljesítményben a topon van (vagy lenne) de az ilyen szabványok befutójánál a legtöbb esetben nem ez a döntő. Jópár példa volt már erre (sajnos). Minden azon fog múlni hogy kik fognak majd a CUDA mögé állni. Ahogy elnézem most a piacot annyira nem lesznek túl sokan.
-
9950es
aktív tag
új hsz-t akartam, egyébként rohadt drága ez az autokalibrációs progi, és ha nézitek ott egy webkamera középen amit használ !
Az nV-nek muszáj lesz a megoldásába valami ilyesmit integrálnia kül9nben 3d-től agyérgörcsöt kapnak a kísérleti egerek : )) Márpedig most 3 projektorral demózták a 3d sorroundot.
-
P.H.
senior tag
válasz
Oliverda #3504 üzenetére
Egyetlen dolog, a teljesítménye miatt lehet a CUDA nyerő. És ha "A CUDA-t komolyabban kezelik, de az OpenCL-t sem hanyagolják el. Egyébként a CUDA-n keresztül működik.", akkor nV kártyákon a CUDA lesz a gyorsabb, pl. a köztesréteg elmaradása által.
Kérdés az, hogy mennyivel lesz gyorsabb (ugyanazon feladatban saját OpenCL-es és még inkább mások megoldásaihoz képest). Ha meggyőzően (hiszen erre hegyezték ki a Fermi-architektúrát), akkor még el lesz egy darabig. Főleg, ha olcsó kártyákkal meg lenne támogatva -
-
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Gamer Notebook! Lenovo Ideapad Gaming3! I7 10750H / GTX 1650Ti / 8GB DDR4 / 256GB SSD
- LG 65" C1 OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready!
- DELL PowerEdge R740 rack szerver - 2xGold 6130 (16c/32t, 2.1/3.7GHz), 64GB RAM, 10Gbit HBA330, áfás
- Gamer PC-Számítógép! Csere-Beszámítás! I7 6700 / Rog RX580 8GB / 32GB DDR4 / 500GB SSD
- MacBook felvásárlás!! Macbook, Macbook Air, Macbook Pro
Állásajánlatok
Cég: FOTC
Város: Budapest