- Gaming notebook topik
- Vezetékes FEJhallgatók
- VR topik (Oculus Rift, stb.)
- Fujifilm X
- Google Chromecast topic
- iPad topik
- nVidia GeForce GTX 1050 / 1050 Ti (GP107)
- Milyen egeret válasszak?
- Intel Core i3 / i5 / i7 8xxx "Coffee Lake" és i5 / i7 / i9 9xxx “Coffee Lake Refresh” (LGA1151)
- ZIDOO médialejátszók
Hirdetés
-
Bővíti a ROG Ally garanciáját az ASUS
ph Az egyes termékek, kártyaolvasóval kapcsolatos problámájára reagált a cég.
-
Kulisszák mögötti videón a hamarosan megjelenő Stellar Blade
gp A kizárólag PlayStation 5-re szánt akciójáték alig két nap múlva debütál.
-
Megjelentek az első HMD okostelefonok, ezek a magyar áraik
ma Három készülékkel indít saját név alatt a gyártó: Pulse, Pulse Plus és Pulse Pro. Májustól kaphatók.
Új hozzászólás Aktív témák
-
liksoft
nagyúr
Hát igen. Számomra ez annyit jelent, hogy kisebb, gyorsabb nemigen lesz, hiszen annyival többet nem lehet kérni érte, inkább achitektúrában várható változás, a fogyasztás csökkentése érdekében. A kihasználtság meg egyértelműen azért rossz, mert túl általános (de sokkal gyorsabban eredményt elérő) programozást használ szinte mindenki. Nagyon nem mindegy, hogy assembly, C++, Delphi vagy JAVA kódban készül ugyanaz. Egyre "hatékonyabban" lehet programozni, de ez az erőforrások egyre nagyobb pocsékolását is hozza magával. Így valahogy visszafelé lesz célszerű kanyarodni a programozásban, és egy optimális állapotot megtalálni.
Murphy él és dolgozik (Ami el tud romlani, az el is romlik). hdd-mentes.hu
-
MZperX75
addikt
Az Intel meg igen,hisz a Moór törvényben, elmondottak ellenére is 14nm-én indulnak útjukra még idén mobil lapkái.
De persze,emléxem mikor 95-ről 65nm-re áltak át,hogy 45nm annak a gyártástechnologinak a határa,aztán még is kitaláltak valami újabbat,és tessék,miata van 22nm-én?[ Szerkesztve ]
-
fpeter07
veterán
Mi az a moor torveny? Nem jo a link.
-
Tigerclaw
nagyúr
Remélem, hogy lesz fejlesztő, aki már nem a teljesítmény növelés mentén tervezi a következő processzorát, hanem a fogyasztás csökkentése lesz az elsődleges számára. A mai mobileszközöknél is sokkal szívesebben látnák az emberek azt, hogy az új modell bár nem lett gyorsabb, de mondjuk 10-20%-al megnőtt az akkuidő és pár év alatt a mai 1-2 napot kibíró telefonok már 3-4 napot is kibírnak. A mobiltelefonból és a tabletből talán nem kellene játékplatformot csinálni és máris szükségtelenné válna a 4-8 magos több GHz-es, több GB RAM-os irány. (ahogy az is nevetséges hogy lassan már 4k felbontású mobiltelefonok és tabletek is piacra kerülnek teljesen feleslegesen.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
-
SirCsimbók
tag
szerintem a cikk is alátámasztja azt a teóriámat, hogy a dVGA-k-nak van jövője
mert miért is?
-ahhoz, hogy egy 40x40mm-es CPU-ba IGP-t pakolhassanak, miniatürizálni kell --> miniatürizálás --> kisebb csíkszélesség --> drágább
-dVGA: 300x100mm-re jó sok cuccot föl lehet rakni, azaz a helyszűke miatt nem szükséges a kis csíkszélesség <-- olcsóbb
azaz:
-ugyanazt a teljesítményt olcsóbban lehet kihozni dVGA-val
-vagy ugyanannyi pénzből nagyobb számítási teljesítménytUFF, én beszéltem
-
Somebody_HUN
csendes tag
Egyáltalán nem felesleges. Pont ez a fejlesztési verseny/kényszer az amiből a jövőben sok új technológia és felhasználási terület is kifejlődhet.
Nézzük meg, hogy például a mobiltelefonhoz használt technológiák hány más helyen jelentek még meg. Virtuális valóság, automotizált rendszerek, "okos" szórakoztatóelektronika stb.
Most konkrétan a fejlesztési stádiumokat adják el új extrának kezdve a 4k-s kijelzőtől a 8 magos processzorig.
És ez így rendjén is van. Így megvan a fogyasztóktól elvárt fejlődés és nekik is megéri a további fejlesztés.
Aztán később, a kifejlesztett technológiát, új innovációba használják fel, amivel pedig mindenki nyer. -
Kékes525
félisten
Mi van a teljesen más alapú számítógépekkel? Mire kifut a szilícium, addigra jöhetnek mások, (Kvantumszámítógép, DNS alapú. stb).
[ Szerkesztve ]
Minden számítógép füsttel működik, ha kimegy belőle, akkor nem működik.
-
Jack@l
veterán
válasz nakos1212 #12 üzenetére
Ha neki megéri a 20x annyi fejlesztési időt és hibalehetőséget az 1%+ teljesítmény, hát csinálja...
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
#65675776
törölt tag
válasz Somebody_HUN #9 üzenetére
A virtuális valóság fejlesztése már akkor megkezdődött, amikor teléefonokban még csak 20x40 pixeles monokróm LCD kijelzők voltak. Ahogy az automatizálás sem a telefonok vívmánya.
-
mekker
őstag
Első körben kiaknázzák a szilíciumlapkákban rejlő lehetőségeket (hogy meddig, azt nem tudom, szerintem 5-7nm-ig biztosan, alatta már nehéz megjósolni, hogy gazdaságos lesz-e a fejlesztés és a gyártás). Pár hónapja volt egy magyar IT-cikkben, hogy pl. az Intelnél ~35-40nm-re minősített gépekkel akarják (és fogják is) gyártani a chipeket egészen 14nm-ig, és utána építenek csak ki modernebb gyártósort.
Második körben jönnek a hasonló felépítésű, de előnyösebb tulajdonságú anyagokra építő procik (széncső, stb.), csak ugye esetenként ezekhez teljesen más gyártástechnológiát kell kifejleszteni.
Aztán utána meg már a scifi kategória következik. Kvantum-számítógépek, baktériumtelepek, MZ/X-féle okosítókészülékek.Данное сообщение (материал) создано и (или) распространено иностранным средством массовой информации, выполняющим функции иностранного агента, и (или) российским юридическим лицом, выполняющим функции иностранного агента.
-
Somebody_HUN
csendes tag
válasz #65675776 #14 üzenetére
Így van, de az akkori technikával nem voltak ezek jól használható és költséghatékony megoldások.
A gyártók sem abban a tudatban fejlesztették a telefonokat, hogy akkor ez kerül majd pl egy vr headsetbe. Hanem a telefonok eljutottak egy bizonyos szintre, és rájöttek, hogy hoppá, itt vannak ezek a "kiforrott", "olcsó" kijelzők. Milyen jók lesznek ezek egy oculus riftbe. De ugyan ez elmondható pl a giroszkópokról is. Ezelőtt is használták őket, mégis amikor a telefonokba elterjedtek és egyre jobbak és költséghatékonyak lettek, rögtön egy csomó teljesen más területen is tudták használni(pl drónok).
Nyilván sarkítok, de a lényeg az, hogy ami most feleslegesnek látszik, később egy új dolog alapja lesz/lehet. -
TK36
aktív tag
És az Intel a mostani proci árakhoz képest még drágábban fogja adni őket.
De végül is neki van annyi tőkéje, hogy ha nem is hozz számottevő előnyt akkor is kifejlessze. Úgy is lesz vásárló, aki megveszi.Nem volt korábban valamilyen hír, hogy az iparági nagyok összeállnak a jövő gyártástechnológiájának kifejlesztése érdekében, hogy alacsonyan tartsák a fejlesztés költségeit?
-
Hunzoza
csendes tag
válasz SirCsimbók #7 üzenetére
Szerintem pedig pont hogy a mély integrációnak van jövője. Gazdaságilag pedig az apuknak is megvan az előnye.Van amit olcsóbban meg lehet valósítani mint cpu+dgpu párossal. A szoftveres oldalon is nagyobb teret enged az optimalizációra. Teljesítményben még persze le van maradva jelenlegi pc-s felhozatal ez a jövőben változhat, elég csak arra gondolni hogy a ps4 specifikus apuja mit rejt.
-
Jack@l
veterán
Mit rejt a ps4? Egy nagy mesét és hitegetést...
Persze a gyártók szemszögéből ocsón előállított és elég nagy profittal eladott (harmatos)hardvert, ez igaz[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
SylverR
senior tag
Ne-ne-ne-ne! Ne keverd össze még jobban őket... Nem éri meg. Ő arra célzott, hogy szerinte erősebb grafikában a dGPU mint az APU. Ez igaz. Te és én tudjuk, hogy az integrációnak nem a grafikus teljesítmény-növelése a célja, hanem a számítási teljesítményé, azaz a központi egységé, hogy pontosítsunk. Én is fogtam a fejem annak az embernek a kommentjén akiére reagáltál, de inkább lenyeltem a mérgem, és ráhagytam. Fölösleges, úgyse érti meg. Majd ha beindult a HSA - a PS4-re megkezdődek a programozások, valószínűleg lesz átmentve ebből PC-re is -, majd akkor lehet mutogatni a táblázatokat, hogy melyik a gyorsabb. (nem célzok semmire ezzel )
Nem!
-
mekker
őstag
Jelenleg úgy áll a helyzet, hogy Intel tick-tockban minden tick és tock között van kb. 5% clock-to-clock különbség, és ~10( max.15)% teljesítmény/fogyasztás különbség (fesz, fogyasztás csökken, architektúra javul, órajel nő). Ezzel a növekvési tempóval pár éve már nagyjából stagnálnak az árak. Van egy ár, ami felett az OEM, meg a felhasználók fogyasztása csökken, erre figyelniük kell.
Ha 4-6 éven belül nem lesz újfajta gyártástechnológia, akkor folytatniuk kell a szélmalom-harcot (mint ahogy a megszakértőnk is mondta 2-3xticktock-2020-7nm itt van-utána gáz lesz). Illetve itt van még az is, hogy 14nm alatt valószínűleg új gépparkba kell beruházniuk (máshol már 14nm-nél tervezik az átállást, ha jól tudom), tehát amíg az új géppark nyereséget nem hoz, addig biztosan sajtolják majd a szilícium chipeket akár 4-5nm-ig is.Három meghatározó szereplő van a piacon: Intel, Qualcom, Samsung. Valószínűleg mindhárman kényszerből követik a tendenciát, de ha bármelyikük is képes már átállni új technológiára, akkor követni fogja őket a piac nagy része.
Данное сообщение (материал) создано и (или) распространено иностранным средством массовой информации, выполняющим функции иностранного агента, и (или) российским юридическим лицом, выполняющим функции иностранного агента.
-
mekker
őstag
A másik lehetséges út, hogy a nagy gyártók, illetve a belőlük (is) létrejött szervezetek fokozottan támogatni fogják - anyagilag is - a fejlesztőket, hogy hatékonyabb munkát adjanak ki a kezük közül, és ezzel párhuzamosan rámennek a hardveres energiatakarékossági funkciókra. (Ez kicsit laikusan hangzik, de én valami ilyesmi irányt is el tudok képzelni)
Данное сообщение (материал) создано и (или) распространено иностранным средством массовой информации, выполняющим функции иностранного агента, и (или) российским юридическим лицом, выполняющим функции иностранного агента.
-
#65675776
törölt tag
válasz Somebody_HUN #17 üzenetére
Kérdés mit definiálsz drónként. Csak mert már a Firebee is rendelkezett INS-sel, az meg giroszkópok nélkül nem igazán működik. Persze más a civil felhasználás, de ott is megtalálható elég régóta az utasszállító gépekben. Ha meg a miniatürizált vibrációs elven működő giroszkópokat nézzük, akkor pl 2001-ben a Sedgeway-ben már az volt. Az első szifon előtt hat évvel. És elterjedt volt már korábban is. Pl a már említett első szifon előtt egy évvel már a PS3 SIXAXIS-ében is ilyesmi volt, szóval azt sem lehet mondani, hogy a tömeges elterjedés az okostelefonoknak köszönhető. Arról nem is beszélve, hogy a Nikon már 1994 óta gyárt VR-es obikat (mondjuk először egy kompaktba került), amelyekben mindben ugyan ilyen giroszkópok vannak.
A kijelző csak egy dolog a virtuális valóságnál. Hiába van két jó kijelződ, ha nincs ami a képeket kiszámolja rájuk. Összességében ma sem éppen jól használható, mert elég durva vas kell mögé.
-
MaUser
addikt
válasz #32839680 #28 üzenetére
Konkrétan mi olyan van, ami simán párhuzamosítható lenne és nem csinálják. Csak hogy értsük egymást: én mint programozó aki ebből él, baromi szívesen nekiállnék a végletekig optimalizálni az összes algoritmusomat. A valóság ezzel szemben az, hogy bármilyen olyan optimalizáció ami több, mint egy új thread hívása már erősen időigényes, még akkor is ha éppen egy adott párhuzamosítási template-et már használtam. Pl. ha már 4-5 vagy több száll visszatérését kell szinkronizálni az már gondolkodást igényel. Egy sima mátrix parallel feltöltése (már ha függetlenül megoldható) ellenben nem.
Na most egy programozó költsége 20-100€ óránként. Innentől a kérdés, hogy pl. ki fogja kifizetni azt a napi 160-800€-t, hogy én azon gondolkozzak, hogy pl. egy sima bejárást hogy lehetne optimálisabban megoldani és így akár az 1€-s app 100ms-al gyorsabban töltsön be vagy éppen 3mp helyett 2.9-et kelljen várni egy 30 megás kép feldolgozására. Van akik ezt megfizetik, de nem jellemző.
Ráadásul a költségek hosszabb távon csak tovább nőnek, mivel a karbantartás, dokumentálás, utólagos olvashatóság, újrahasználhatóság, stb, mind-mind a bonyolultabb párhuzamosítás ellen szól.
''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''
-
mekker
őstag
válasz #16939776 #34 üzenetére
Hát ezt rossz embertől kérdezed, talán Abu (cikkíró) pontosabb választ tudna adni.
Eddig 1-1 architektúra 2-2,5 évig volt a piacon, mindig van két félgeneráció, ami rá épül, de köztük van egy csíkszélességcsökkentés (pl. Sandy Bridge 2XXX 32nm, Ivy Bridge 3XXX 22nm). Most érdekes a helyzet, mert csúszik a 14nm, vannak Haswell prockók, meg Haswell Refresh procik térkitöltésnek (4XXX mindkettő) és szintén ugyanerre az architektúrára jön még a Broadwell fél éven belül (5XXX 14nm), ami egy IGP-s, meg integrált ramos cucc lesz, szóval ez már egy kicsit más irány.
Csíkszélesség-változtatás nélkül a ciklusok elhúzódnának, 3-4 év alatt lenne szerintem olyan mértékű fejlődés, mint most a 2-2,5 éves ciklusok alatt. Optimalizálni lehet, de a fejlődés eléggé lelassulna. (Lásd: AMD-nek nincs saját gyártósora, és kevesebb a büdzséje, kb. 3-4 éve rostokol a 32/28nm-es korszerűtlennek mondható architektúrájával)
Amíg nincs mi leváltsa a szilíciumot, addig fejlesztenek ezzel a közepes léptékkel, közben megy a K+F keményen az alternatívák felé. Aztán most nagy sláger mind mobilos, mind PC fronton a heterogén programozható SoC-ek fejlesztése (kb. pár erősebb mag, meg sokszáz tömbösíthető gyengébb mag + memória), ami ugyan jelenleg visszafogja a jelenlegi processzorok erejét - helyfoglalás, fogyasztás -, de sokkal rugalmasabb így fejleszteni, mivel ha tényleg ez lenne a jövő útja, akkor nem kerül hátrányba mondjuk az AMD és az Intel, mivel megteszik addigra a kezdeti lépéseket.(pl. Broadwell-Skylake, APUk, HSA)[ Szerkesztve ]
Данное сообщение (материал) создано и (или) распространено иностранным средством массовой информации, выполняющим функции иностранного агента, и (или) российским юридическим лицом, выполняющим функции иностранного агента.
-
Kékes525
félisten
A csík szélesség további csökkentésének rövidesen elérjük a határát, azonban még különböző trükkökkel tovább lehet nyújtani a Moore törvény érvényességét (pl. magok számának növelése, párhuzamos programozás). Ez kb. 5-10 év.
Utána pedig, mivel a technika exponenciálisan fejlődik megjelenek a nem szilícium alapú számítógépek. Vagyis én nem aggódok.
Minden számítógép füsttel működik, ha kimegy belőle, akkor nem működik.
-
Dr. Akula
nagyúr
"Többek között igen nyilvánvaló, hogy az elkészült modernebb lapkák elméleti teljesítményét nagyon kevés program képes kihasználni."
Most ezen mit csodálkoznak, ha minden piszlicsáré "fejlesztésre" kiadnak egy "új" generációt. Ami véletlenül se kompatibilis a konkurrenciával, meg sokszor önmagukkal se. A programozók meg azt mondják hogy 2 emberre nem fognak kódot írni rá. Jogosan. Jobban rá kéne feküdni a szabványokra, amik el is terjednek, ki is lesznek használva. Kevesebb, de nagyobb ugrással kéne haladni. Ha mindneki megugraná azokat, akkor a fejlesztő is fejlesztene rá. A fociban is ritkán lesz gól a szólózásból.
-
MaUser
addikt
válasz #32839680 #37 üzenetére
De megfizetni nem nagyon akarják. Az egész programozás megy abba az irányba, már jó ideje, hogy fillérekért odaadjuk Indiába, Kínába aztán ha gányolnak is valamit, de jó olcsók (lásd freelancer pl., vagy az összes nagyobb multi indiai "fejlesztőközpontja" -> mondjuk kivételek azért vannak és vannak ott is minőségibb részek, de az átlag nem az). Ha meg minőség kell, akkor egy architect szinte soronként elküldözgeti a kódot és agyonszabályzott processzekkel biztosítják a minőséget. Ehhez jön, hogy már beágyazott szinten is olyan procikat kapsz fillérekért, ami feleslegessé teszi, nem hogy az asm-et, de lassan már c programozó sem kell, mert pl. a c++ 20-40%-os overhead-jét is röhögve elbírják. És nincs különbség lassan árban egy kétmagos, 400MHz-es, arm származék és egy 40MHz saját architektúrás beágyazott proci között, bármilyen meglepő is. Beágyazott rész ebből a szempontból szvsz veszett fejsze.
Másik oldalon meg ott a lean, a heti-kétheti sprintjeivel ami olyan időnyomást okoz, hogy esélyed sincs optimalizációval foglalkozni.
Persze ha valaki tud itthon olyan céget, ahol engedik, hogy egy programozó kreatívan próbálja kihozni a maximumot magából és az algoritmusaiból, az szóljon, de legjobb tudomásom szerint ez még a viszonylag szabadon működő startup részen sincs így ma már.
''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''
-
dabadab
titán
válasz #32839680 #42 üzenetére
"nem találkoztam még olyannal hogy C programozó meg C++ programizó, nagyon sok köztük az átfedés"
Pedig a kettonek valojaban tul sok koze nincs egymashoz, alapvetoen mas gondolkodast es szokasokat igenyel a ketto. Persze, a C++ forditok leforditjak a C kodot is, de ezzel egyutt ez a ketto meroben mas tema.
"Amúgy meg mikrovezérlőre az nem nagyon fog tudni programozni aki szoftverfejlesztő és Visual C++-t vagy ehhez hasonló nyelven kódol."
Na latod. Egyebkent ez visszafele is igaz, ami C-ben best practice-nek szamit, az C++-ban rossz beidegzodesnek
DRM is theft
-
SirCsimbók
tag
"Én is fogtam a fejem annak az embernek a kommentjén akiére reagáltál, de inkább lenyeltem a mérgem, és ráhagytam."
ne a fejed fogd, hanem ragadj sörösüveget
valóban, a HSZ-emből kimaradt egy fontos dolog az IGP-kel kapcsolatban, mégpedig az, hogy az ÁTLAG USERnek semmi szüksége arra a(z extra) számítási kapacitásra, amit egy IGP nyújt(ani fog), meg a 3D-s gyorsításra
nekik elég lenne egy sima PCI-os, 2D-s videokártya is, legföljebb bizonyos (egyébként semmire való, inkább csicsamicsa jellegű) fícsörök nem működnének Win alatt (3D-s képernyővédő, wingomb+TAB-os váltogatás, mittudomén)
ezek ez átlaguserek nem akarnak játszani, videót konvertálni tömöríteni, űrhajót meg hidat tervezni, ehelyett zenét akarnak hallgatni, böngészni (FB-zni) meg filmet nézni. ilyen helyekre minek a 3D-s gyorsítás? minek az IGP?
a vállalati felhasználások zömében se hinném, hogy szükség lenne rá, mert excelezni (nem túl összetett táblázatokkal) meg wördözni meg FB-zni a HR-eseknek, minek?
egy 1920x1080-at 32 bites színmélységen tudó videokari belekerülne mondjuk 500 Ft-ba, az IGP-nek meg a kutya se ismeri a konkrét árát, bele van építve az egészbe (de 500 Ft-ból biztos nem jön ki)
-
Alchemist
addikt
válasz SirCsimbók #45 üzenetére
ezek ez átlaguserek nem akarnak játszani, videót konvertálni tömöríteni, űrhajót meg hidat tervezni, ehelyett zenét akarnak hallgatni, böngészni (FB-zni) meg filmet nézni. ilyen helyekre minek a 3D-s gyorsítás? minek az IGP?
Nekik elég lesz az olcsó tablet is.
Éppen olvasok egy érdekes könyvet az antigravitációról... képtelen vagyok lerakni.
-
oke, de hogy definialjuk a hatekonyt?
- kihasznalja a celhardvert: a furmarkra senki nem mondana, hogy hatekony, ugyanigy nem lesz az egy eroforraszabalo algoritmus sem
- effektiv: megint nem feltetlenul az, valos ideju rendszereknel pl nem az altalanos performance hanem a valaszido az erdekes
- fenntarthato: na ez az amiben a low level nyelvek elvereznek. par hete nezegettem egy kutatasi rendszert amin egy par doktorandusz dolgozott anno a 80as evek vegen, fortranban irva, elegge sokaig. namost a fel research paper kb arrol szolt, hogy az unix kiegesziteseit hasznaljak es a Fortran77 par uj featurejet, mert anelkul nem lehetett volna osszerakni a rendszert. aztan a 2000res evek kozepen csinaltak egy masodik varianst, immar Javaban. par bonyolultabb algoritmus meg magasszintu nyelvekben is elegge nehezen erthetoen tud kinezni (nehez -> nagyobb esellyel fogjak elszurni es minel bonyolultabb a logikaja, annal nehezebb lesz tesztelni)
- vagy a hatekony, mint a nyelv alapvetoen a felhasznalobaratsagra van tervezve, tehat alapvetoen a cognitive load hasznalat kozben alacsonyabb, szoval a fejlesztok a fontos dolgokra tudnak a nyelvi sajatossagok helyett jobban koncentralni*.az utobbi miatt nem lehet visszamenni, mert a programok tobbet es nagyobb leptekben csinalnak. optimalizalni meg egyszerre mindenre nem lehet, ebben szerintem megegyezhetunk.
lehetne elore menni es vannak is erre otletek: viszont az a helyzet, hogy a model-driven development barmennyire is jol hangzik, jelenleg az open source model2model transformation toolok gyakorlatilag hasznalhatatlanok komolyabb feladatokra. plusz megtanulni oket kb ugyanolyan mindf*ck, mint amikor az ember Crol megprobal atallni prologra vagy mlre. par (jellemzoen kritikus applikaciokat fejleszto) cegnel vannak mukodo belso megoldasok, de jellemzoen 10-15 evvel jarnak a kutatok elott ilyen tekintetben.
egyebkent amit leirnak a cikkben letezik, viszont azt szerintem nem lehet megkerdojelezni, hogy alapvetoen a programnyelvek es a fejlesztoi eszkozeink is eleg sokat fejlodtek.
* a competent programmer fogalom letezik, de tesztelesnel nem mondanam olyan kriteriumnak, amibol barmilyen kovetkeztetest le lehetne vonni minoseg tekinteteben.
morgyi: hu, azert az atom ujkoraban is tetulassu volt, pedig nekem a legbikabb HTs 2x2magos van, 2giga rammal es SSDvel. mondjuk tenyleg konnyu volt meg olcso.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
Új hozzászólás Aktív témák
- E-roller topik
- Anime filmek és sorozatok
- Ezek a OnePlus 12 és 12R európai árai
- Samsung Galaxy S23 Ultra - non plus ultra
- Xbox Series X|S
- Gaming notebook topik
- MG4 menetpróba
- A fociról könnyedén, egy baráti társaságban
- (nem csak) AMD FX / Ryzen tulajok OFF topikja
- Skoda, VW, Audi, Seat topik
- További aktív témák...