Hirdetés
- Friss adatok érkeztek a Lunar Lake-MX-ről
- Nikon Z MILC fényképezőgépcsalád
- Kompakt vízhűtés
- AMD GPU-k jövője - amit tudni vélünk
- Nem lesznek olcsók az új, ARM-os és windowsos notebookok
- Projektor topic
- Szünetmentes tápegységek (UPS)
- Amlogic S905, S912 processzoros készülékek
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Milyen belső merevlemezt vegyek?
Hirdetés
Új hozzászólás Aktív témák
-
atti_2010
nagyúr
Úgy látom, még mindig sokan hajlamosak elfelejteni, hogy messze az Intel adja el a legtöbb "VGA"-t. Nagy tévedés, VGA-nak nevezett hulladékot.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Viktor77
titán
Játékra használt gépekbe a Llano is édeskevés. Bár tény, hogy fényévekkel megelőzi az Intel megoldását.
Ha valaki komolyan akar játszani, akkor úgyis külön VGA-t vesz. Az Intelnek van egy brutálisan erős procija már most (néha még a kis 2100-amon is meglepődök), ahol szerintem lenne kis fölös kapacitás besegíteni a VGA-nak (pl. egy 5 gigára húzott i7-ben).Csinálni kell. Kész. Pont.
-
-
ne_nezze
aktív tag
az intelnek van nem integrált vgaja?
az amd integráltja egy gpu. a hír meg arról szól hogy az x86-os magok segítenének be a vganak.
azért olyan meglepő mert az x86nak az égvilágon semmi köze nem volt eddig a grafikai számításokhoz (vagyis a mai mértékben szükséges számítási kapacitásnak a hírmondója sincs meg bennük és egyáltalán nem grafikai megjelenítésre specializált részegységről van szó). ergo semmi keresnivalójuk nincs itt, mindössze egy normális vga kell nem egy ilyen öszvér(fél)megoldás.
[ Szerkesztve ]
Intelligence is not the privilege of old age. »»───(knee)───►
-
kerelo
senior tag
nem értem.szerintem inkább az Intelnek a GPU-ra kellene gyúrnia
Lássanak hát csodát,kicsik és nagyok,a becsületes ember én magam vagyok "bendeguz"
-
MongolZ
addikt
De bakker... a Llano GPU-jának teljesítményét ne a 6970-hez mérd, hanem kezeld a saját helyén. Ha megnézel egy aktuális roadmap-et, láthatod, hogy az APU-k GPU-ja a közeljövőben ki fogja elégíteni a játszani vágyó eseti játékosok igényeit, sőt, megkockáztatom, már most egy jó részének elég. Az Intel terve akkor lenne értelmes, hogy ha az Intel CPU-ja mellett lenne egy dedikált VGA, márpedig a világ affelé halad, hogy mindent integráljunk (eltekintve a kommunikáció okozta késleltetéstől). A CPU ereje mennyit segít a HD Graphicson? Legyen mondjuk +30%, de csak hogy nagy vonalú legyek. Még mindig sehol nem vagyunk!!! Ezenkívül hány embernek van i7-e? Ezek közül mennyi jár 5 GHz-en? Arányaiban a ritkánál is kevesebb. Most tényleg erre akar alapozni az Intel?
-
MongolZ
addikt
Az AMD megoldása másképpen megy, ott nem besegít a külső VGA, hanem egyes képkockákat kompletten kiszámol, gyakorlatilag megosztják egymással a képkockákat. Azért van egy ICIPICI különbség.
Tény, hogy erősebb az Intel CPU-ja (most azt felejtsük el, hogy minek és ki tudja kihasználni), de egy biztos: ez a megoldás nem jó. Remélem egyszer az életben belátják, hogy teljesen fölöslegesek az ilyen erős procik. Ez kb. olyan, mintha vennék magamnak egy V8-as autót, hogy a városban közlekedjek. Gizda, de minek?
(#58) ne_nezze +1
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A PS3 játékok esetében valóban erősen ki van használva a Cell a grafikai számításra, de ez főleg azért van, mert az RSX GPU képességei a mai motorok igényei mellett a lepkefing kategóriába tartozik (itt főleg a Dynamic Branchingre gondolok). A konzol viszont teljesen más. Az célhardver. A PC-n egy csomó hardvernek kell megfelelni.
Annak semmi esélyét nem látom, hogy a Bloom/HDR/MLAA vagy más post-process CPU-ra költözne, mert a minőségük kritikán aluli a GPU-s szinthez képest. Még ha nem is nézzük, hogy a forrás az előző képkockáról származik, akkor is a felbontás 16-ával dolgozni manapság vicc. Ha nem bírnák a GPU-k, akkor aláírnám, de a mai leggyengébb nem Intel IGP is jól kezeli a teljes felbontású HDR-t.
Az onload megvalósítások már ötletesek, főleg annak fényében, hogy nem befolyásolják a dGPU-kat, hiszen az implementálásuk elfér a GPU-s megvalósítás mellett. Ez így valós alternatíva, részemről hajrá.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Lacika112
aktív tag
Ez a cikk nagyon bejött!!!
ha szarok vagyunk nem baj megmagyarázzuk
ha szart gyártunk nem baj eladjuk
ha szar a grafikai rész a proncinkba az se baj mert majd a proci helyettesítí a hiánytna de mi lesz akkor ha már a procijuk is szar lesz?
azt hogy magyarázzák meg?
intel mostanába olyanokat művel hogy 1 cikket 3X elolvasok nem-e értettem félre valamit
ez már nem botrányos-lehúzós hanem nevetségesha meghúzom a kocsidat az oc-nek számít?
-
Abu85
HÁZIGAZDA
PS3-on jó. Alkalmazzák is a Jimenez MLAA-t.
PC-n halott ötlet. Minek másolnánk át, majd vissza a back buffer tartalmát azért, hogy egy lassabb futást és rosszabb képminőségű effektet kapjunk.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
Nem hiszem, hogy a Jimenez 1.6-os algoritmusa zavaró lenne. [link] - Szvsz a legjobb post-process AA, ami létezik. Nézd meg a képeket. A Cata 11.8-ban már ez van. Persze a temporális zavarok nem tüntethetőek el driverből, de erre van a komplett beépítés lehetősége.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Egon
nagyúr
Miért van olyan érzésem, hogy - az egyesek által annyira várt, és messiásként üdvözölt - platformosodással mi, felhasználók többnyire csak szívni fogunk?
"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Egon
nagyúr
Csak a csúnya gonosz Intel akarná a platformosodást? LOL...
Sebaj, itt a hős Robin Hood AMD, majd megmenti a felhasználókat, meglásd... Vagy várjál csak! Az AMD nem platformban gondolkodik véletlenül?"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Abu85
HÁZIGAZDA
Az Intel és az AMD közül melyik is az a cég, aki olyan szabványokat tervez (ultrabook, thin Mini-ITX), amelyekbe nem építhető dedikált GPU? Na látod ez a különbség. Az AMD még mindig azért küzd, hogy a thin Mini-ITX alaplap esetében legyen mód az MXM modul alkalmazására, persze előre tudjuk, hogy az Intel szava lesz a döntő, és nem lesz erre mód.
Nem az a baj, hogy a cég saját platformot csinál, mert az AMD nem zárja ki annak a lehetőségét, hogy GeForce-ot vegyél a procijához, az meg természetes, hogy a Radeonokhoz extra szolgáltatásokat kínál, de ugyanakkor megvan a választás lehetősége, azaz ha akarod, akkor mixelheted a hardvert. Az Intel viszont konkrétan kizárja a dGPU beépítésének lehetőségét a növekvő piacokon. Ez alapvetően egy szívás a felhasználónak, és a VGA-knak nagy probléma. Mindez azért, hogy az AMD és az NV kellemetlen helyzetbe kerüljön, hiszen mindkét vállalat építene a VGA-k piacára, csak van egy nagyobb hal, aki ezt nem engedi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
senior tag
"Ne legyen igazam, de a prezi alapján az Ivy Bridge sem lesz IGP-ben erős, ha ennyire át akarják rakni a grafikai terhet a CPU-ra."
Pont ugyanezt írtam én is. Sajnos a korábbi évek tapasztalatai alapján, elég nagy pontossággal dekódolható az ilyen sajtómegjelenések valódi értelme.
#68: Azért mert jól érzed, hogy szívni fogunk. Pláne mikor majd megfejelik a felhőzéssel, mivel a platformok (mint kliensek) egyformák lesznek.
[ Szerkesztve ]
-
Egon
nagyúr
Az Intel és az AMD közül melyik is az a cég, aki olyan szabványokat tervez (ultrabook, thin Mini-ITX), amelyekbe nem építhető dedikált GPU?
Pont az a terület, ahova nem is kell dedikált GPU, ugyanis már az SB GPU-ja is elég erős ezen területekhez. Ne ultrabook-on akarj krájziszezni, ilyen egyszerű... Esetleg interjúvolj meg pár házigazdát, akik az SB GPU-ját használják, hátha nekik elhiszed...
A platformosodással mint jelenséggel van baj, nem (csak) az Intellel.
"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Abu85
HÁZIGAZDA
És ezt miért egy cégnek kell eldöntenie? Ki kell dolgozni a szabványt az MXM modul beépítésének lehetőségével, és az OEM majd eldönti, hogy akarja-e használni. Semmi kényszer nincs, de ha szeretnél dGPU-t, akkor lehetőséged lenne rá. Így viszont, még ha szeretnéd sincs rá opció. Ez azért súlyos probléma, mert a növekvő piacok elveszik az eladásokat azoktól a szegmensektől, ahova beépíthető a dGPU. Láthatod, hogy a VGA-kra való kereslet megállíthatatlanul esik. És még nincsenek is itt azok a szabványok, amelyek konkrétan tiltják a dGPU-k beépítését.
Tudjuk, hogy mire képes az SB IGP-je. [link] - van róla teszt.
Ez ellen nem tudunk mit tenni. Az Intelnek nem tetszik VGA-piac, a hatalmuk megvan rá, hogy kicsinálják. Bele kell törődni, hogy nem CPU+GPU-t vásárolsz pár év múlva, hanem APU-t. A gyártók ugyanúgy megmaradnak (sőt az ARM miatt jönnek újak), csak kvázi a mixelés szűnik meg, illetve a VGA-k jelentőséges hangkártyaszintre esik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
wad
tag
Nem teljesen értem a cikket, meg a kommentek egy részét sem. A HDR önmagában nem egy post-processing effektet, hanem csak a megvilágítás nagyobb bitmélységű számítását jelenti. Ha utána nem csinálunk semmilyen extra filterezést (pl. bloom), és lineárisan képezzük vissza LDR-ré (tone mapping), akkor egzaktul ugyanazt a képet kapjuk vissza, mintha végig LDR renderinget csináltunk volna. Ellenben a filterek számításánál előnyt jelenthet a nagyobb bitmélység, illetve a nem-lineris tone mappinggal előhozhatók az egyébként feketébe vagy fehérbe vesző részletek.
Akkor tehát mit is csinálna pontosan a processzor, tone mappinget?
Annak semmi esélyét nem látom, hogy a Bloom/HDR/MLAA vagy más post-process CPU-ra költözne, mert a minőségük kritikán aluli a GPU-s szinthez képest
Lehet tudni (vagy sejteni) egyébként, hogy az Intel által alkalmazott kisebb felbontású tone mapping (esetleg bloom), vagy az egy frame-nyi lag milyen hatással van az elkészült kép minőségére? (Tippem szerint észrevehetetlen.) MLAA-t meg nyilván csak a teljesfelbontású képen lehet csinálni, amit vagy bír a proci, vagy nem, de minőségbeli különbség elvileg nem lehet.
aranyszabálynak mondható, hogy az egyes képkockák között a lehelő legkevesebb adatmegosztás történjen. Amennyiben a fejlesztő ezt nem tartja be, akkor az erre felkészített, AFR-re épülő SLI és CrossFire technológiák kvázi működésképtelenné válnak.
Milyen adatmegosztásról van szó? Miért ne tudná a CPU az SLI-ben működő kártyák által készített frame-eket egymás után processzálni? Természetesen ez nagyobb terhelést jelent a számára, ugyanúgy, mintha gyorsabb GPU-t kéne kiszolgálnia. Ha bírja az ütemet, ez nem okozna további csúszást.
Real-Time 3D Scene Post-processing
High Dynamic Range Rendering in OpenGL -
Abu85
HÁZIGAZDA
Az Intel algoritmusa egészen pontosan megkap egy render targetet, amiből a HDR lesz számítva. Ezt el kell juttatni a prociig a GPU-ból. Utána a képet a rendszer leskálázza a tizenhatod részére, és a számítás onnan folytatódik tovább. Kalkulálva lesz az átlagos fénysűrűség majd Bloom és jön a tone map. Ezután a kész eredmény felskálázva visszakerül a GPU-hoz a back bufferbe (a felskálázás ugye annyi, hogy egy pixel eredményét 16-ba kell írni és kész), és ebből történik egy frame múlva a további számítás. Párhuzamosan elvégezhető a HDR és a további számítás része.
Az Intel post-processnek hívja, és az ő algoritmusukban van is ennek rációja, de valóban igazad van, a HDR nem az.Gyakorlati eredményt nem láttunk. Az algoritmus alapján nem lehet valami meggyőző az aktuális GPU-s kódokhoz képest. Az egy frame-nyi lag nem hiszem, hogy probléma, de a részletesség 16-ára való csökkentése már észrevehető lehet.
Az Intel MLAA-ja az valóban teljes felbontású képre történik. [link] - van róla részletes leírás. Összehasonlító kép nincs, de ott a letölthető forráskód, amit persze le kell fordítani. A demó jelenete, a csomó fekete résszel nem biztos, hogy helytálló lesz, mert játékokban sokkal komplexebb jelenet is előfordulhat, de mindegy, így csinálták meg.
Az AFR rutinok úgy vannak kalibrálva, hogy a képkockák között lehetőleg minimális legyen a megosztás. Pl.: Az NFS: Shift 2 az Xbox 360 kód miatt előző képkocka depth bufferjéből számolja az SSAO-t. A második patch után került be a CF támogatás, amikor ezt a rendszert az AMD némileg kipofozta, SLI támogatás még most sincs. Az NV szerint annyira sok a képkockák közötti adatmozgatás, hogy nekik is a programkódba kellene nyúlni az SLI működéséhez. A CF hatásfoka sem nagyobb 20-30%-nál, szóval sokat az AMD sem nyert a programkód alakítgatásával, talán ezért nem foglalkozik vele az NV.
Az AFR van úgy felkészítve, hogy ha jó skálázódást akarsz 80%+, akkor a lehető legkevesebb adatot használd fel az előző képkockáról. A CPU-s MLAA egyébként a Shift 2-ben kinyírja a CF-et (rossz a szinkronizáció a back bufferbe történő MLAA-s eredmény visszamásolásakor, ezért nem gyorsul, hanem lassul a program több GPU-val, ezt az AMD szerint szintén nem lehet megoldani AFR mellett), mondjuk az MLAA-ra az AMD azt javasolja, hogy használjuk a driverest, azzal továbbra is megy a multi-GPU, és a minősége is jobb lesz. Mindenesetre az világosan látszik, hogy a mostani AFR rutinok nagyon nem szeretik, ha a képkockák között sok az adatmozgatás. Ha működnek is, akkor is csapnivaló lesz a hatásfok. A CPU-s HDR-rel talán nem lenne akkora probléma, de normális gyorsulás nem lenne várható, ahogy a Shift 2-ben az MLAA-s szinkronizáció is probléma, pedig az a képkocka végén kerül fel, vagyis elméletben a legjobb eshetőség. Szintén para a soros PCI Express buszon másolgatni a CPU és a GPU között az adatokat. Nem erre találták ki. Egyszer nyilván át el kell juttatni az adatokat a GPU-nak, de lehetőség szerint minimalizálni kell a használatát. A feldolgozás legyen CPU->GPU és ennyi. Semmi vissza, majd újra másolás. Már csak abból indulj ki, hogy az Optimus vagy a Virtu esetében a back buffert a rendszermemóriába kell tölteni, hogy legyen kép, és ez 2-5 fps-be kerül, függően a játéktól. Nem olyan jó ez a másolgatós buli a GPU-nak. Az SB biztos profitál belőle, és szvsz a Fusion is, de más nem hiszem.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Srodney
senior tag
kávét főzni tud?
-
MZperX75
addikt
"Pont az a terület, ahova nem is kell dedikált GPU, ugyanis már az SB GPU-ja is elég erős ezen területekhez. Ne ultrabook-on akarj krájziszezni, ilyen egyszerű... Esetleg interjúvolj meg pár házigazdát, akik az SB GPU-ját használják, hátha nekik elhiszed...
A platformosodással mint jelenséggel van baj, nem (csak) az Intellel."(nem csaak rendszergazdák vannak,ezt jobb ha tudod!)
Miért is ne krájziszozzak a ultra book-on?
Csinál az zIntel olyan igp-t amin fut a Crysis, akkor ok! de nem így van! ,
-Ha lesz ,akkor oda ne keljen beépíteni.
Nekem az is tökre mindegy CPU-n fut-e vagy GPU-n csak menjen,mert ha fut ,akkor jó,...........de nem fut az zIntel Cpu-ján!!!
De egyébként szabványba, miért is ne lehetne ezt betenni,mármint dedikált vga bővítési lehetőségét?
Nem kötelező persze beletenni,de miért is ne legyen egyantalán mód arra,hogyha igény lenne is rá?
Itt a szabványról van szó,nem is a dedikált Vga-ról.
A lényeg ,hogy nehogymár Igp mellé egy ION-ultraX beférjen,vagy HD7XXXM beférjen+5W fogyival 28nm-en....
Nem annyira értek ehhez a CPU-s GPU-s dologhoz,
de nekem úgy tünik ,
mint ha valamit le akarnának tólni a torkomon,
de én ezt nem akarom,
és nincs választási lehetőségem,
attól függetlenül,hogy az most jó vagy nem jó,
nekem viszont fontos az alternatíva,
a választás szabadsága!.
(ne a pincér határozza meg az én igényemet ,ha lekvárosan akarom enni hotdogot,mert azt akarom,nehogymár megmonja ,hogy nem lehet,még akkor sem ,ha a környékben lévő a éttermek 80%-a az ő tulajdonában van)
Az idő ad magyarázatot,majd mindenre.
Meglátjuk!
Sajna én ez ügyben nem vagyok túl optimista.
Engem nem zavar az integrálás,ha ez a fejlődés ,akkor legyen.
Pár év és az IGP-k ,vagy az APUK elérék a dedikált vga-k mostani szintjét,,
ami már elégséges lehet,nekem tuti.
Főleg ha az API-n is javítanak(valami futószallag kérdezd ABU-tól,)
Mert hiába a gyors VGA(amd,nv),ha kihasználtsága a konzolokhoz képes a" béka segge" alatt van,persze csak jelképesen....
OFF[ Szerkesztve ]
-
Angel1981
veterán
És ha ez esetleg bekövetkezik, akkor mégis szerintük mit fog a felhasználó a csúcs procijuk mellé társítani?
Pl. ha ez egycsapásra bekövetkezne, ki venné meg a Sandy Bridge-E procikat, ha nincs eszköz, ami megjelenítse a képet?
Vagy akkor azért kiadnak dedikált VGA-t ők maguk?
Vagy előbb utóbb a csúcsszegmensben is lesz IGP?[ Szerkesztve ]
-
DA3MON
tag
Én még mindig az Intelt támogatom!
-
Abu85
HÁZIGAZDA
-
Boxi88
őstag
válasz Plazmacucci #11 üzenetére
Hogy jön ide a P4-es és mi bajod volt velük???
-
DA3MON
tag
Volt AMD-s processzorom is, de nem voltam úgy megelégedve vele, mint a mostani Inteles processzorommal Tény, hogy drágább, de a minőséget meg kell fizetni
-
Z86
őstag
Hehe, az Intel s Lenával prezentálja a képmanipulációs dolgait.
Az egyetemen is mindig ezen a képen mutatták be a bitcsökkentés, meg a DPCM stb. dolgok hatásait.[ Szerkesztve ]
-
brd
nagyúr
Gondolom, úgy, hogy hasonló kupac anyagcsereterméket képvisel(t) az is, mint a cikk létrejöttét kiváltó elképzelés. CPU teljesítmény/energiafelhasználás arányban a béka popója alatt (volt), ráadásul lassú is (volt). Egy átlagos Core2-nek kb. a harmadát-negyedét tudja (azonos órajelen, persze a Core2-nek egy magját szembeállítva egy nem HT-s P4-gyel). A Core2 pedig kb. P3, picit továbbfejlesztve.
The only real valuable thing is intuition.
-
atti_2010
nagyúr
És akkor ha az Intel győz (mint általában) viszi magával az egész IT piacot a hülyeség felé??? Ezt most nem úgy kérdezem mint AMD fan mert ez annál komolyabb kérdés.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Dr. Romano
veterán
De jó. Az régen szoftveres módban a Quake 2-őt játszottam, most az Intel azt szeretné, hogy a következő részt is így toljam?
Ez....e...ee...ez egy.... ez egy FOTEL???
-
atti_2010
nagyúr
Nem tudom de az MS -t nem igazán latom kártékonynak az IT iparban , sőt így is gyenge a szoftveres támogatás de ha most lenne vagy 4-5 cég az MS mellett most nem gyenge hanem katasztrofális lenne, de ebbe most nem akarok belefolyni.
Viszont az Intel akciók már vérlázítók, lefizetnek, csalnak , hazudnak, jó lenne ha egyszer az unió kitiltaná őket.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
TGWH
őstag
Kéremszépen lehet rájöttek, hogy a vga-t előbb kell cserélni, mint a processzort. Hát nehogy már, terheljük le a procit is, hogy tudjon még hová fejlődni a vga, így még több vga-t adhatunk el, mellette meg a procikat is évente fogja cserélgetni a bugyuta user... logice, nem?
Szeretném harsogni kétkedők fülébe, Szeretném égetni reszketők lelkébe, Lángbetűkkel írni véres magyar égre: Ez a hit a fegyver, hatalom és élet, Ezzel porba zúzod minden ellenséged, Ezzel megválthatod minden szenvedésed. E jelszót, ha írod lobogód selymére, Ezt, ha belevésed kardod pengéjébe
-
TGWH
őstag
válasz Angel1981 #99 üzenetére
Amíg a sok hülye/pénzes megveszi, azt csinál amit akar...
Szeretném harsogni kétkedők fülébe, Szeretném égetni reszketők lelkébe, Lángbetűkkel írni véres magyar égre: Ez a hit a fegyver, hatalom és élet, Ezzel porba zúzod minden ellenséged, Ezzel megválthatod minden szenvedésed. E jelszót, ha írod lobogód selymére, Ezt, ha belevésed kardod pengéjébe
Új hozzászólás Aktív témák
- Xbox Series X|S
- Friss adatok érkeztek a Lunar Lake-MX-ről
- Elektromos autók - motorok
- Milyen autót vegyek?
- Ford topik
- Wise (ex-TransferWise)
- A fociról könnyedén, egy baráti társaságban
- Politika
- Nikon Z MILC fényképezőgépcsalád
- Az Overwatch babérjaira tör a most bemutatkozott Marvel Rivals (PC)
- További aktív témák...