Hirdetés
- Friss alaplapszériát avat az ASRock
- Raspberry Pi
- Milyen TV-t vegyek?
- TCL LCD és LED TV-k
- Teljesen szürreális, ami az RTX 5070 Ti kapcsán történik…
- ThinkPad (NEM IdeaPad)
- Milyen széket vegyek?
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Olvad a hó, de ez nem zavarja a hardvereket
- Vezeték nélküli fejhallgatók
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
S_x96x_S
addikt
válasz
Raymond
#52815
üzenetére
olvasd el újból amit irtam,
megadtam a linket, hogy hol találod.---
Nehéz ezt félre érteni:
Jensen Huang: “We plan to integrate Groq’s low-latency processors into the NVIDIA AI factory architecture, extending the platform to serve an even broader range of AI inference and real-time workloads,”Ha meg összeesküvés elméletek felé akarod vinni a témát,
abban biztos nem vagyok partner.
Majd valaki más megvédi Jensen Huang-ot és az nvidiát.
-
S_x96x_S
addikt
válasz
Raymond
#52812
üzenetére
> Ha ez a fo argumentumod akkor valamit csak latsz mogotte.
Nem hiszem, hogy nekem kellene
megvédeni Jensen és az nvidia döntését.
Ha, konkrét számok kellenek, akkor azokat te is képes vagy megtalálni.
A Groq low-latency képességet nagyon könnyű szemléltetni - egy voice-chat -es demóval, amikor a késleltetésnek elég természetellenes hatása van.
---
A többi fórum olvasó kedvéért - megkértem az egyik AI-t,
hogy magyarázza el átlagos "gamer" szinten mi a Groq LPU lényege:"Groq LPU: Ez az AMD 3D cache ötletét viszi abszurd szintre, de AI-hoz. A chip tele van pakolva óriási on-chip SRAM-mel (230 MB/chip, ami primary storage, nem csak cache!), ami villámgyors (80 TB/s bandwidth), szemben a GPU-k off-chip HBM-jével (8 TB/s körül). Nem kell külső memóriához "szaladgálni" – minden súly (model weights) bent van a chipen, azonnali hozzáférés. Plusz: determinisztikus, mint egy futószalag egy autógyárban (Henry Ford stílus). A compiler előre megtervezi minden egyes műveletet clock cycle-nyire pontosan – nincs várakozás, nincs random késés, nincs dinamikus scheduling. Ez olyan, mintha a játékodban minden frame előre scriptelve lenne, zero stutter, perfect predictability.
...
Specifikusan inference-re építve, nem univerzális mint a GPU:
Az NVIDIA GPU-ja olyan, mint egy svájci bicska – jó mindenre (gaming, training, ray tracing), de inference-ben sok core unatkozik, memória bottleneck van (off-chip HBM lassabb), és random késések (non-deterministic). A Groq LPU-ja meg egy single-purpose fegyver: óriási on-chip SRAM (230MB/chip, villámgyors, mint infinite cache), determinisztikus futószalag (minden clock cycle előre tervezve, zero stutter).
...
Olcsó gyártás régi node-on (GlobalFoundries 14nm):
Az NVIDIA-nak vadászni kell a legújabb TSMC 4nm kapacitásra, ami brutál drága és mindig hiány van (mint a legújabb GPU-k scalpolása release-kor). A Groq meg egy "régi" 14nm-es node-ot használ GloFo-nál – ez érett, olcsón gyártató, mindig van kapacitás, nincs várólista. Mint ha te egy régi Ryzen 5000-es CPU-t vennél 3D V-Cache-sel olcsón, miközben mások az új Zen5-ért ölnek – és mégis gyorsabb bizonyos játékokban.
...
Olcsóbb üzemeltetés: Kevesebb energia (akár 10x jobb performance/watt inference-ben), alacsonyabb cost per token (millió válasz olcsóbban). Mint ha a villanyszámlád fele lenne ugyanazért a frame rate-ért, de itt AI-chatért. Nagy cégeknek (cloud providerek) ez milliárdos spórolás – miért fizetnének NVIDIA premiumot, ha Groq olcsóbban adja ugyanazt a "pinget"?
"""
-
S_x96x_S
addikt
válasz
Raymond
#52810
üzenetére
ugyanazt tudom ismételni - egy picit másképpen,
Az Nvidiának jelenleg nincs olyan alacsony késleltetésű inference megoldása, amely összemérhető lenne a Groq LPU-val.
NINCS - pedig lenne rá igény.
Ráadásul a Groq LPU energiahatékonysága is jelentősen jobb a hagyományos Nvidia GPU-alapú inference-nél.
(ami kisebb költséget jelent az adatközpontoknak)
Persze egy inference célú ASIC - mindig optimálisabb egy általános GPU-nál, főleg ha olyan jó mérnökök tervezik, mint Jonathan Ross és csapata - akik mögött ott a TPU.
A politikai szál (1789 Capital,Trump Jr.) érdekes; de ha még lenne is politikai szándék, attól ez még nem cáfolja az üzlet technológiai értékét és azt, hogy az nvidiának nincs ilyen technológiája.Amúgy ha a Groq LPU nem lenne valós fenyegetés,
akkor miért fektetnének bele - és miért fizetne érte bárki is?Az IBM + Groq együtmüködést "Oct 20, 2025" - én kötötték, valószínüleg azután, hogy az nvidiát és az amd-t is megversenyeztették - és a groq 5x gyorsabb eredményt produkált:
IBM: "Powered by its custom LPU, GroqCloud delivers over 5X faster and more cost-efficient inference than traditional GPU systems. The result is consistently low latency and dependable performance, even as workloads scale globally. This is especially powerful for agentic AI in regulated industries."
Ezen kivül a Groq már építi az adatközpontjait Szaud-Arábiában
és Finnországban is.És ne felejtsük el az nvidia másik problémáját,
hogyha az OpenAI+Broadcom -os chipnek és a Goole TPU -nak
nem ad jó Nvidiás ASIC-os alternativát,
akkor nagyon gyorsan kiszorulhat az inference piacról. -
S_x96x_S
addikt
válasz
Raymond
#52805
üzenetére
szájbarágosabb verzió:
hogy mi a szenzációs a Groq chip-ben - és miért ideális inference -re
- Anastasia:"Is This the Fastest AI Chip Ever?" ( 2024mar )
https://www.youtube.com/watch?v=NzYpoPhckCkés hogy miért fenyegetés a Groq az nvidia jövőjére:
https://x.com/The_AI_Investor/status/2003979714130858031 -
Ribi
nagyúr
válasz
Raymond
#52689
üzenetére
Eléggé össze vissza írják az egyes gyártók is, hogy olyan táp van hozzá, vagy annyit fogyaszt. Mondjuk én nem teljesen értem hogy egy ennyire kis dobozba hogy akarnak 200W-ot lehűteni értelmes szellőzés hiányában. Megint valami marketingest jól beszopatott egy dizájner aztán mehet thermál limiten az egész.
-
lenox
veterán
válasz
Raymond
#52649
üzenetére
Lehet, bar az 5000-est 15%-kal a 4090 fole tippelik. Mondjuk nem tudom mennyi van mar usereknel, nem minden szam egyezik a tpu adatbazissal. Mindenesetre szerintem 384 bit + 14k maggal 4090 folott lesz 10+ %-kal. De lehet, hogy nem adnak ki 384 bites 14k magos 5080-at.
-
S_x96x_S
addikt
válasz
Raymond
#52571
üzenetére
mindenki választhat.
Enyém:
- https://docs.nvidia.com/cosmos/2.0.0/predict2/model_matrix.html
Raymondé:
- https://docs.nvidia.com/cosmos/latest/predict2/model_matrix.htmlamúgy szerintem a verziószám + full url -es megoldás jobb,
mert mobiltelefonon is látszik, hogy mire kattintasz,
és fél év múlva is látszik, hogy - a 2.00 verzió benchmarkja lett kifotózva. -
paprobert
őstag
válasz
Raymond
#50954
üzenetére
A 128 bites VGA-k a "már nem csak grafikus adapter, hanem csinál is valamit" kártyák voltak historikusan. Klasszikus *50 *50Ti kártyák.
Ez igazából nem változott, lassan 20 éve, ugyanazt a szerepet töltik be. Csak már súlyosabb pénzt kérnek értük.
A YT komment csúsztat, de erről beszél. Az, ami el lett csalva a termékskála tetején "csúcstermék-szegmentációval", az így jelenik meg lent.
-
válasz
Raymond
#50817
üzenetére
Igen, tudom, hogy az árcsökkentés nem divat Jensenéknél. Eddig működött az inventory rampdown, de most mégsem, ha egyszer a csúszós 5060-at még odébb kell csúsztatni, mert sok a 4060-as maradék. Nekem nagyon fura ez az egész 5000-es széria, egy rakás olyan dolgot előadtak a launch során, ami eddig "hiányzott" náluk.
-
X2N
őstag
válasz
Raymond
#50783
üzenetére
Megpróbáltam leutánozni mi történetet a konténeres jelenetnél. Kár hogy az RTX logó kitakarja a lényeget, a lámpát magát.




Ez elég sok variáció erre az egy témára kis beállítás változtatásokkal, gamma görbe állítással.
Ha a HDRI-t kikapcsolom akkor így nézne ki:
*Most látom h túl pirosra állítottam a lámpát, ezen is lehetne még állítani és akkor a narancssárga dobozok színe jobban megmarad. -
X2N
őstag
válasz
Raymond
#50779
üzenetére
Akkor ez csak szimplán egy rosszul beállított lámpa és az okozza, ez nem az RT mód hibája csak valaki sietett és nem lett jól megcsinálva. 10:30-nál is van egy váltakozó világítás a kocsik felett ami tök látványos az eredeti módban, de RT módokban gyengén néz ki, nem csinálta meg jól aki bevilágította.
-
X2N
őstag
válasz
Raymond
#50775
üzenetére
Olyan mintha nem igazán lennének jól beállítva a shaderek(ventilátoros szoba kanapé, RT off-nál csillog pl.) a később kiadott RT/PT módokban, PT-nél látványosak a színes fények és árnyékok, elég csak megnézni az egyszerűbb jeleneteket, pl 7:23-nál az ajtót, a talaj is büntetősen néz ki.
A konténeres jelenetnél nem látni mi világít pirosan így nem tudni realisztikus-e, de ott is az árnyékok, élethűbbnek tűnnek. Ha megnézed legtöbb jelenetnél a plafont, vagy a konténer tetejét ott is látod hogy szépen csökken a fényesség. Az is baj hogy más-más az időjárás/idő 1-1 screenshotnál, nem lehet teljesen összehasonlítani őket..
Az RT overdrive mód biztos hogy 1-2 bounce-al többet számol azért ilyen látványos a különbség a sima RT-hez képest. -
KRoy19
őstag
válasz
Raymond
#50761
üzenetére
Bocs, valóban túlreagáltam egy kicsit. Persze nyilván mindennel kapcsolatban lehet kritikát megfogalmazni, csak amikor a youtube commentek fele ugyan ez volt, hogy " It KiLsS tHe OrIgInAl ViBe", mintha az eredeti játék megszűnne létezni és még itt is ezt olvastam tőled, akkor felbasztam magam és rád öntöttem a frusztrációmat. Sorry
-
KRoy19
őstag
válasz
Raymond
#50759
üzenetére
Az hogy hányingerem van attól, hogy fikázol valamit, amin emberek kurvasok órát dolgoztak és ingyenesen elérhetővé teszik. Ha tetszik felrakod, ha nem akkor nem.
Nem veszi el tőled senki az eredeti játékot, szóval, ha annak jobban tetszik a vibe-ja, akkor játszál azzal.
-
-
zebra_hun
veterán
válasz
Raymond
#50137
üzenetére
Be. J preset amit ki enged, de swapper-rel is kipróbáltam plusz nv insp.
Ez a játék nincs is benne abba a 75-ös listába.
Félreértés ne legyen, nativban nem ronda, dlss-el sem, csak a haj. Környezet ok, igaz túl éles, de azt vissza lehet venni.
Mindenhol ezt írják, hogy nem jó, ráadásul telerakja hibával.
Sztem ez nem erre a játékra való.
Regedit-be kiíratva ellenőrizhető. Még insp.-ral a k preset is ment és a 3.10 is.
Ronda, kész. -
-
válasz
Raymond
#49530
üzenetére

Igor véleménye nagyon korrekt:
A 12VHPWR csatlakozó hiányosságai, különösen az egyenetlen árameloszlás a kábelen és a csatlakozón keresztül, kiegyensúlyozatlan terheléseket okozhatnak, ahol az egyes érintkezők nagyobb mértékben vannak terhelve, mint a többi.
Ezek a helyi túlterhelések megnövekedett érintkezési ellenálláshoz és hőtermeléshez vezetnek, ami bizonyos körülmények között hőkárosodást okozhat az érintkezőkben és a kábelekben.
Ezenkívül az aktív kiegyenlítés mellőzésével és a tápellátás több sínre történő felosztásával az NVIDIA maga is felhagyott a lehetséges védelmi és korrekciós intézkedésekkel. Mivel a kártyák közvetlenül átveszik a bemeneti oldal hibás elosztását, a teljesítményterhelés kontrollálatlan marad, ami rossz feltételek mellett eszkalációhoz vezethet.
Ez a helyzet azt mutatja, hogy több tényező kölcsönhatásba léphet: a nem megfelelő dugaszolócsatlakozás, mint kiindulópont, az ebből eredő hőproblémák, mint lehetséges tünet, és a védelmi intézkedések hiánya az alaplapon, mint kiaknázatlan lehetőség a helyzet orvoslására.
Bár ilyen problémáknak nem feltétlenül kell előfordulniuk, a rendszer érzékeny marad erre az összefűzésre, ha a terhelés és a külső feltételek kedvezőtlenül esnek egybe.
Az érintkezők olvadásának és a túlmelegedett kábeleknek a tünetei a modern GPU-kban szerencsétlen körülmények láncolatával magyarázhatók, amelyeknek nem feltétlenül kell bekövetkezniük.
Ellenkezőleg, valószínűleg ez a kivétel marad. De megtörténhet. -
válasz
Raymond
#49326
üzenetére
The editors also show a different load per cable in FurMark, but the differences are significantly lower and no single cable reaches almost 20 amperes. In the test, ComputerBase measured 5.3 amperes, maximum 10.6 amperes are measured in a cable, maximum on another 10.6 amperes. By the way, the cables are in between with 6.1, 7.4, 7.7 and 10.0 amperes.
és egyetlen kábel sem éri el a közel 20 ampert
-
X2N
őstag
válasz
Raymond
#49246
üzenetére
Értem most már a dolgokat, elbeszéltünk egymás mellett. Én ezt más szemszögből látom. Amilyen programokat(DAZ,Blender) én használok ott nem elterjedtek a DDS formátumú textúrák és a BC compression, azért nem értettem a dolgokat(és hogy miről írsz), mert nem is textúrázok modelleket Substance Painterrel Game Engine felhasználásra(nem is ez a munkám, még ha használtam jópárszor UE-t is akkor sem mentem bele jobban a textúra tömörítési eljárásokba game engine-nél, eddig
). Értem már h game engine-nél más a workflow, más textúra kiterjesztés, tömörítéseket használ, hogy még gyorsabb legyen gpu-n, ChatGPT kiokosított
Viszont pont emiatt hogy nem használok ilyen tömörítéseket, 4K monitoron már látom pl azt hogy van-e Gauss/Mitchell/Lanczos pixel filter a képen és még ezt is kiszoktam lőni bizonyos mértékig, más az én esetem ahol 1-2 képkockát akár 8 -12 óráig renderelek. Persze a texture compression-t is ki lehet lőni teljes mértékig, ha van elég memória miért is ne.Ahogy hokuszpk is írta ez egy veszteséges tömörítési eljárás, lesz különbség, de a képeket elnézve ez elhanyagolható, főleg ha rátesszük erre a raytracing miatti denoisert is akkor aztán végképp mindegy lesz, ahogy írtam előbb pár hsz-el szerintem is game changer lesz ez a dolog.
b.-Túl nagy kérés hogy ékezeteket használjunk szakmai topikban?

-
-
-
X2N
őstag
válasz
Raymond
#49225
üzenetére
"Ez mindegy a VRAM szempontjabol, mert a GPU nem tud jpeg-el dolgozni. Erre van a BCn (1-7) ahol azt hasznalod ami eppen megfelel mert olyan a textura. Azert van ennyi formatum mert mas-masra jo mindegyik. Az elonye hogy a GPU ezekkel tud egyenese dolgozni, nem kell felkonvertalni 24-32bit-re. Az NTC-bek pedig ez az egyik lenyege hogy nincs 7 kulonbozo formatum hanem egy van ami mindgyik esetben jo es sokkal jobban tomorit ugyanolyan minoseg mellett (7x amit irnak es amit a tool-ban is latsz). A masik "pedig az hogy a kartya szinten direkt dolgozik vele es nem kell felkonvertalni a VRAM-ba.
Most mar erted?"Ezt leírhatnád rendesen mondjuk ékezeteket használva ha már én is veszem a fáradtságot és így írok neked.
Milyen 7 formátum? Miről beszélsz? Mit tömörít? Nincs sehol ugyanolyan minőség, miről beszélsz? Mit hasonlítasz mihez?
Tud a GPU jgp textúrákkal is dolgozni, persze ennek is megvan a hátránya, nincs átlátszóság és veszteséges tömörítés, emiatt kell külön még egy jpg az átlátszóság miatt.
Viszont ha számít a méret mégis jó lehet, alternatívaként pedig ott van:
PNG – Ha veszteségmentes minőség kell, és szükséges az átlátszóság.
DDS – Ha optimalizált formátum kell a GPU számára (DirectX és OpenGL is támogatja).
TGA – Régi, veszteségmentes formátum, de nagyobb méretű. -
X2N
őstag
válasz
Raymond
#49225
üzenetére
Teljesen értelmetlen 1m2-es plane-re feltenni a 4K textúrát? Aha persze. 50mm gyújtótávolságú kamerával 178cm távolról észrevenni az ordító különbséget 1k és 4K felbontású textúra között, mi lenne ha fél méterről vagy még közelebbről nézném a kamerával?

Itt a textúra, le lehet tölteni mindenkinek, blenderben meg lehet lesni.
4K textúra 133MB
1K 12.7MB
-
X2N
őstag
válasz
Raymond
#49221
üzenetére
Dehogynem csinálják. Azért csinálják hogy elférjen a játék a kis 4-6-8-12GB-os videokártyákon ami az átlag usernek van, nem beszélve a konzolokról.
1024x1024 jpg textúra 24KB
ugyanez felkonvertálva 4K felbontásra:
4096x4096 jpg 755KBPont a Bethesda játszotta el ezt hogy csak felskálázták 4k felbontásra az eredeti textúrákat. Nem emlékszel?

-
X2N
őstag
válasz
Raymond
#49217
üzenetére
Szerintem te nem vagy képben a dolgokkal. Vagy lehet én fogalmazok furcsán, de ki lehet egy mondjuk 2048x2048es textúrát feszíteni 1x1m-es modellre 2x ismételve, vagy ugyanerre a modellre kitehetsz 1db 4096x4096-os textúrát. Ha az alacsonyabb felbontású textúra úgy van elkészítve hogy egymás mellé illeszthető akkor észre se fogod venni. Hasonló modok voltak régen Skyrim-hoz is amik az eredeti textúrákat használták, csak jobban megcsinálták a uv mapokat a modellekre, így a vram használat változatlan maradt viszont mégis szebbek lettek a modellek a megváltoztatott uv miatt(szerinted ez értelmetlen??). Vagy van a másik megoldás hogy szépen újratextúrázod a modellt 4K textúrákkal, akkor viszont több vramot fog használni a játék mert nagyobb méretűek lettek a textúrák. De ha nagyon erősködsz itt be is mutatom neked miről beszélek.
-
X2N
őstag
válasz
Raymond
#49213
üzenetére
Ahogy mondtam a 4K csak egy felbontás. Az UV mapolásnál nem mindegy hogy 4K textúra van kifeszítve egy 1x1m-es falon vagy egy 20x20m-es falon. Értelemszerűen kiteheted a 4K textúrát úgy is hogy 20x fog ismétlődni egymás mellett a 20 méteres falon, csak az zavaró lesz. TPS-játékoknál jó dolga van a fejlesztőnek,ott sokkal messzebb van a kamera a karaktertől, nem tudsz közel menni kamerával semmihez hogy megnézd mennyire részletes a világ. FPS nézetből már a Skyrim/Fallout4-nél 4K textúrákat töltöttem le anno mindenhova mert látszott hogy mennyivel szebb, pedig az is mikori játék már, ha azt élőben látod el se hitted volna hogy egy 2011-es játék úgy meg lett moddolva anno, elmentünk a végletekig amit az engine bírt.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
X2N
őstag
válasz
Raymond
#49211
üzenetére
Mondjuk ez előbb lehet kicsit túloztam a 8-16K textúrákkal, 8K normal map textúráim vannak jó minőségűek de pl ezek csak 4K textúrák(le kell tölteni mert nagy) sok múlik azon hogy van az UV megcsinálva a modellen, ha csak az arc/fej-ra van 4K textúra az elég nagy felbontás, ha viszont mondjuk az egész karakterre az nagyon kevés. Komplett asseteknél(Quixel Megascans) viszont előfordulhat ekkora méret, (ezt letöltöttem múltkor, elképsztően néz ki, ~75GB és ez csak 1db mini pálya fotoscannelt assetekkel) emlékezzünk vissza Carmack-ék se véletlenül találták ki azt a megatexture dolgot a Rage-nél, sokkal egyszerűbb így kezelni egy nagyobb assetet mint a sok kis textúrát managelni..
-
X2N
őstag
válasz
Raymond
#49207
üzenetére
Szoktam látni a sávosodást jpg-nél ha renderelek, de lehet csak nálam probléma úgyhogy nem használom a formátumot. Rendereltem most gyorsan 1 képet, ez még csak 4K textúra.

-
X2N
őstag
válasz
Raymond
#48915
üzenetére
Persze hogy mindegy mivel ha be van kapcsolva megy az artifactolás. Szerinted miért kapcsolom ki? Az csak feláras extra hogy úgy elmossa a képet mintha vazelinnel bekennéd a monitort. Ha ha te ezt szereted az a te problémád. Én vettem jobb monitort és élvezem a 4x nagyobb felbontást és a részletesebb képet."Oh wait, akkor megse tokelet a kep?? Oh no! Fetch me my fainting couch!
"
180ppi az még nem 300+ppi ne legyenek illúzióid, még nem teljesen retina kijelző ahogy az Apple-szokta nevezni a monitorainál. -
X2N
őstag
válasz
Raymond
#48899
üzenetére
Nem villognak a pixelek, és ha annyira zavar a szerencsétlen "pixel crawl" akkor teszel rá egy SMAA-t ami fényévekkel jobb mint bármilyen temporális megoldás. Mondom, ha nem használtál ekkora felbontású kijelző ekkora méretben nincs miről beszélni....NEM LÁTOD A PIXELEKET.
-
X2N
őstag
válasz
Raymond
#48887
üzenetére
Milyen effekt, nincsen semmiféle effekt ami ne működne normálisan ugyanúgy.
KRoy19-Mert nem mindegy a monitor se, 180PPi alatt ne csodálkozz. RDR 2-t én nem próbáltam. De a Control CP2077, TLOU-ban fényévekkel volt jobba kép kikapcsolt TAA-val, semmi szellemképesedés, részletes lett a kép, és ezt ne keverjük össze azzal hogy a DLSS-túltolja az élesítést... -
válasz
Raymond
#48791
üzenetére
Ok, világos amit írsz , akkor marketingeltek( így is lehet fogalmazni ha szépíteni akarunk) egy jót, okozva az Nvidiának egy kisebb beesést még a tőzsdén. igazából alig számít hogy 4 % lemaradást kommunkálnak a valós 47% -kal szemben...
Ha csak nincs valami csoda mögötte megint amiről senki nem tud -
válasz
Raymond
#48786
üzenetére
Igen arra az AMD slidera gondoltam.
Az Nvidia ma feltette a saját oldalára és slide-jára ezeket az eredményeket rajta a 7900XTX kártyával.( nem szokták ezt igazán alkalmazni amúgy, ) válaszul az AMD féle slidera ami körberohanta a világsajtót.
Ott , az AMD nél ha jól látom 4 % volt a különbség , lemaradás volt csak ebben a mérésben miközben az Nvidánál 47%?
Állítólag az Nvidia tegnapi frissitése + hozott gyorsulást az RTX 5000 szérián, nem is keveset gondolom erre is hivatkozva adta ki Nvidia ezt a mérést, eredményt. -
S_x96x_S
addikt
válasz
Raymond
#48784
üzenetére
> Az AMD ugyanugy a Q4_K_M verziot hasznalta
Köszi; ( a kiemelt Slide-on nem láttam
)utánakeresve - az AMD blog post tényleg ezt ajánlja.
"AMD recommends running all distills in Q4 K M quantization"
Experience the DeepSeek R1 Distilled 'Reasoning' Models on AMD Ryzen™ AI and Radeon™akkor várok az AMD lépésére
-
Quadgame94
őstag
válasz
Raymond
#48742
üzenetére
Ha az NV szolgáltat nekik contentet akkor lesz is ilyen videó. Rettenetesen demagóg ahogy túlzásokba esel
sírás
Ha ez tudatos nálad akkor azért gáz, ha pedig tudatalatti akkor érdemes magadba nézni. Sírásnak nevezni egy kontrsuktív és számokon alapuló érvelést az torzító, félrevezető és demagóg. -
-=RelakS=-
veterán
válasz
Raymond
#48733
üzenetére
Mondd hogy nem nézted meg a Devid_81 által linkelt videót úgy, hogy nem mondod, hogy nem nézted meg a Devid_81 által linkelt videót

A lényeg: HW Unboxed elemezgette az 5080 tulajdonságait, összehasonlította a korábbi kártyacsaládokkal, és ez max egy 5070.
Gondolom az Nvidia tanult a 40-es széria bakijából, és most nem hozott ki az 5080-as kártyával egy 5080 16GB-ot
-
huskydog17
addikt
válasz
Raymond
#48707
üzenetére
Igen, arra gondoltam, hiszen az az AMD-nek a driveres alapú frame gen technikája. Szerintem a SmoothMotion inkább az AFMF2 ellenfele lesz.
b. #48708: Igen, nem minden szoftveres fejlesztést soroltam fel, sokáig lehetne sorolni, ahogy például a Broadcast újításait/fejlesztéseit is. Rengeteg szoftveres fejlesztés/újítás jött és a legtöbbjük minden RTX kártyán működik.
-
Jacek
veterán
válasz
Raymond
#48654
üzenetére
Lenyegtelen, ha cselesen akartam volna cselesen csinalom
Ott a lenyeg szerinted mennyi szerintem mennyi... most siman 800 egy 4070s .
Termeszetesen olyan boltbol ahol vasarol is az ember
nem jurgen webshopjabol... mert ott is kb az elso 3 olcso a tobbi elado mar nem.. remelem ott vasarolsz biztos jo a gari 
Hanyagoljuk egymast addig, nyugodj meg ide fogok irni tok mindegy mi az eredmeny..
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Friss alaplapszériát avat az ASRock
- NFL és amerikai futball topik - Spoiler veszély!
- Raspberry Pi
- Milyen okostelefont vegyek?
- Autós topik
- Sorozatok
- Android alkalmazások - szoftver kibeszélő topik
- One otthoni szolgáltatások (TV, internet, telefon)
- Milyen TV-t vegyek?
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- További aktív témák...
- GYÖNYÖRŰ iPhone 14 Pro Max 128GB Deep Purple-1 ÉV GARANCIA - Kártyafüggetlen, MS3913
- Xiaomi Redmi Note 10 Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
- GYÖNYÖRŰ iPhone 12 mini 128GB Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3195, 95% Akkumulátor
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7500F 32/64GB DDR5 RTX 5060 8GB GAMER PC termékbeszámítással
- HIBÁTLAN iPhone XS Max 64GB Gold -1 ÉV GARANCIA - Kártyafüggetlen, MS2898
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest


Bár szerintem úgyse fog, pedig igény volna rá
A korábbi Videocardz cikkben 589 volt a németeknél, ahol ráadásul kisebb is az áfa.







