- Azonnali VGA-s kérdések órája
- Milyen billentyűzetet vegyek?
- Bambu Lab X1/X1C, P1P-P1S és A1 mini tulajok
- Acer Nitro V 15: amikor az jó ár-érték arány a cél
- Azonnali informatikai kérdések órája
- ASUS ROG Ally
- NiMH akkumulátor
- Melyik tápegységet vegyem?
- Milyen házat vegyek?
- AMD K6-III, és minden ami RETRO - Oldschool tuning
Hirdetés
-
Sony Xperia bemutató lesz május 17-én
ma Különleges Xperia eseményt tart a Sony Tokióban, száz résztvevőt invitálnak.
-
Lenovo Essential Wireless Combo
lo Lehet-e egy billentyűzet karcsú, elegáns és különleges? A Lenovo bebizonyította, hogy igen, de bosszantó is :)
-
Nem bírják kiszolgálni az AI energiaigényét
it Az amerikai elektromos hálózat nem bővül elég gyorsan ahhoz, hogy az AI nagy energiaigényét kiszolgálja.
Új hozzászólás Aktív témák
-
ddekany
veterán
Az FPU integrálás sikerére való hivatkozás annyiban sánta, hogy az semmiféle változást nem igényelt szoftver fejlesztői oldalról, elvégre csak a már elve a programban meglévő matematikai műveletek gyorsultak fel egy újrafordítás után, és kész. Ellenben ezekre a heterogén csodákra programozni... én nem látom, hogy a szoftver fejlesztőknek ez áttetsző lenne, sokkal inkább, hogy teljesen újra kell gondolni a program felépítését, újra kell írni az egészet. Az hogy esetleg C++-ban programozható, közös memóriatér a CPU-val, akár még x86-is... de hát akkor is úgy kell szervezni a programot, hogy feküdjön a GPU-szerű résznek. Tehát ez csak új programokon tud hasítani, azokat meg gondolom nem nagyon írják meg, amíg nincs mindenhol rendes GPU(szerűség)-integráció... de minek rendes integráció, ha nincs rá program... ördögi kör. Meg azért a programok gyakorlati hordozhatóságára is kíváncsi leszek (Intel és AMD közt). Szóval ez úgymond érdekes lesz, míg az FPU integrálás világosan sikerre volt ítélve.