Hirdetés
- Lassacskán fenyőfát állítanak a hardverek
- Tudjuk, de nem tesszük: a magyarok többsége nem törődik adatai védelmével
- Mesébe illő csodakábelt tervezett a GeForce-ok leégése ellen a Segotep?
- Irodát kért, de gyárat kapott Elon Musk a Samsungtól
- Nyílt forráskódú lett a legegyszerűbben használható AI tartalomgeneráló
- Amlogic S905, S912 processzoros készülékek
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- TCL LCD és LED TV-k
- Milyen Blu-ray írót?
- Lassacskán fenyőfát állítanak a hardverek
- Milyen TV-t vegyek?
- Kormányok / autós szimulátorok topikja
- Milyen billentyűzetet vegyek?
- Gaming notebook topik
- Milyen videókártyát?
Új hozzászólás Aktív témák
-
S_x96x_S
addikt
Minden egyes alkalommal új pod indítása, és modell újboli letöltése pl. hugging faceről talán működhet, de nem tűnik túl elegánsnak.
Ha megvan a modell amivel megelégszel ;
akkor mindent tudsz automatizálni.
- a gpu inditást ( runpod, lambda, Vast.ai , ... )
- a modell letöltést
- és ha a célod - még mindig a heti 1x napló feldolgozás - Akkor 40-50 előre elkészített prompt-ot is automatikusan ráküldhetsz.
- és utána automatikusan leállítod( hogyha nincsenek bővebb kérdéseid )Vagyis neken: ami nem automatizált, az nem elegáns.
És a teszteléshez is kell valami automatizálható script,
mert havonta jelennek meg az új modellek.
Valamint az inference programokat ( vllm, ollama ) is rendszeresen fejlesztik ( javítják a hibákat, optimalizálnak )
vagyis nagyon gyorsan elavul az 1-2 hónappal ezelőtti benchmark eredménye.---
Én ha a saját naplóimat akarnám feldolgozni akkor egy könyvtárba txt/markdown formátumba elmenteném és ráengedném valamelyik [ codex /Claude-code/gemini ] tool-t ;
előfizetéssel és a privát adat megtartásával
(ne használják traning-re )Ha még korrektebbül akarom csinálni, akkor előtte rengeteg személyes szót lecserélek ( pl. neveket anonimizálok ) egy programmal ;
és a végén - az AI eredményét egy másik programmal visszakódolom ( pl. az eredeti nevekre )Amúgy a nevek lecserélését nem árt letesztelni, mert egyes nevek teljesen más irányba tolhatják az AI-t - mint más nevek,
( pl egy név a modell számára gyakran asszociálódik sok más tulajdonsággal is ( nem, etnikai háttér, kor, társadalmi státusz . de akár vallási/kulturális kontextusba is bekavarhat )
Persze ilyesmire egy komoly HR-es AI rendszert tesztelni kell - de a saját naplónk elemzésénél ez már nem biztos, hogy eszünkbe jut. -
aAron_
őstag
válasz
S_x96x_S
#2573
üzenetére
Köszi a válaszokat!
További kommentek alapján gondolom itt elsősorban a runpod.ia-ra gondoltál.
Árazása korreknek tűnik, kivéve a tárhelyet. Modellek kipróbálására teljesen rendben van, de ahhoz, hogy havi több alkalommal is használjam visszatérően, már nem tűnik túl vonzónak, 500 GB-os modell tárolása már 35 USD / hó lenne, kis túlzással a semmire.
Erre van bármi tippetek?
Minden egyes alkalommal új pod indítása, és modell újboli letöltése pl. hugging faceről talán működhet, de nem tűnik túl elegánsnak.
-
consono
nagyúr
Kíváncsi leszek ezt mennyiért fogják adni: [link]
-
oio1i10o
kezdő
válasz
sutyesz96
#2613
üzenetére
Sehol, de ha ingyen van, akkor semmit nem veszitesz vele ha megvan. Ha olyat akarsz amit “elfogadnak”, akkor a nagy cloud providerek AI certjeit nezegesd. Ezek viszont penzbe kerulnek, lejarnak x ev utan es sokkal komolyabbak a vizsgak. Illetve ebben a honapban felaron vannak az Nvidia certek is, de szerintem nem sok hely van ahol kozvetlen azon a stacken (TensorRT, Triton, stb) dolgoznak emberek itthon.

-
S_x96x_S
addikt
válasz
sutyesz96
#2613
üzenetére
> Kérdés, hogy hol fogják elfogadni ezt a certificate-et.

Pragmatikusan nézd.
Nem lehet előre tudni, hogy hol hasznos;
de hosszú távon növeli a szerencse faktorodat.1.)
Az önéletrajzokat nagyrészt már AI-val szűrik elő.
és ha beraksz pár certificatet ;
- akkor bekerülnek olyan kulcsszavak, amire a HR-es AI-bekapja a horgot.
- de minimum az a benyomás alakul ki, hogy érdeklődsz a technológia iránt és önképzed magad.
Vagyis az "alkalmazkodóképesség"; "önálló tanulás" előszűrésnél több pontot kapsz.Sajnos a legtöbb HR-es csak kucslszavakat néz.

és nem is nagyon ért a technológiához.2.)
Ha két hasonló képességű jelentkező van egy állásra,
akkor pár hasonló certficate --
képes te feléd hajlítani az értékelést.és még lehetne sorolni. ( előléptetés , magasabb fizetés, ... )
-
S_x96x_S
addikt
válasz
sutyesz96
#2610
üzenetére
én a pragmatikus megközelitést preferálom
és sokkal inkább a felhasználás érdekel,
mint az elméleti alapok.
pl. hogy készítsünk Kódoló Ágens-t vagy más gyakorlati alkalmazást.pl. https://learn.deeplearning.ai/ ( Andrew Ng és társai )
oldalán találsz sok pragmatikus tutorial-t.
( "basic" és "intermediate" szinten )
és az ingyenes ( $0 - Free ) tagsággal is el lehet érni az összes videót.
( "Access all course videos" )
de ha kell certificate - akkor azt is lehet ( a fizetőssel )Persze van sok más hasonló oldal is.
-
aAron_
őstag
válasz
sutyesz96
#2605
üzenetére
Melyik kurzusokat csináltad meg? Én most ezt néztem elsősorban, de még nem kezdtem el:
IBM AI Engineering Professional Certificate
Illetve:
HuggingFace LLM Course
The Smol Training Playbook: The Secrets to Building World-Class LLMsVan bárkinek tapasztalata ezekkel?
-
S_x96x_S
addikt
válasz
sutyesz96
#2605
üzenetére
Karpathy -nak van sok jó anyaga a youtube-on.
és érdemes lehet megnézni a projektjeit:
https://github.com/karpathy/nanoGPT ( inference )
https://github.com/karpathy/nanochat ( traning )de amúgy van sok Awesome lista ...
- https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-tutorials-and-courses
- https://github.com/wikit-ai/awesome-llm-courses
- ....ha a programozás nem megy,
akkor nem árt elvégezni egy python gyorstalpalót. -
sutyesz96
őstag
Tudtok ajánlani youtubert/valamilyen forrást aki hitelesen bevezet az AI kicsit mélyebb bugyraiba edukatív módon, de kezdőbarát? Megcsináltam pár Courserás kurzust, de nagyon elemi szinten magyaráz, és szeretném technikailag is megismerni "mi rejtőzik a háttérben".
-
sutyesz96
őstag
válasz
Soulfly842
#2601
üzenetére
Hajrá Európa, lehet példát venni.
-
ChatGPT Plus most van 30 napra ingyen. Feliratkoztam rá, majd egyből lemondtam, így biztosan 0 Ft-ért van 1 hónapig Plus-om

-
Soulfly842
addikt
Remélem, hogy ezzel a semmitmondó bájolgás is telejsen ignormálódik

(persze, eddig is lehetett 'jól nevelni' némiképpen)
-
válasz
Wayferer
#2599
üzenetére
Mint LLM minben jobb nekünk, hogy Business csomagban van?Egyenlőre nem vagyunk barátok, de köszi, hogy bedobtad!

Első beszélgetésünk
- Milyen LLM-et használok éppen?
ViolationGemini Enterprise is unable to reply as the prompt violates your organization’s defined security policies.
- miért kapom ezt a hibaüzenetet?
- Ahhoz, hogy segíteni tudjak a hibaüzenet megértésében és megoldásában, szükségem van magára a hibaüzenetre. Kérlek, másold be nekem, hogy pontosan mit ír ki a rendszer!
- Ezt: Gemini Enterprise is unable to reply as the prompt violates your organization’s defined
security policies.-Szia!
Ez a hibaüzenet azt jelenti, hogy a kérésed (az, amit beírtál a csevegésbe) olyan tartalmat tartalmaz, amelyet a te saját céged vagy szervezeted letiltott a biztonsági beállításain keresztül....
-
Wayferer
csendes újonc
Gemini Enterprise - Business Edition (up to 15 seats) 30nap próba Fizetési mód nem kell!
[kép] -
Mp3Pintyo
senior tag
válasz
oio1i10o
#2597
üzenetére
Ebben a videóban kielemzem a mától érvényes új díjszabást: https://youtu.be/nF09apm0abE
Nagyon azon vagyok, illetve a Discord kommentek szerint rengetegen mások is, hogy lemondják mivel az eddigi 240 órából 3 óra lett ...
-
oio1i10o
kezdő
válasz
oio1i10o
#2586
üzenetére
Azota meg egy kicsit ismerkedtem a ComfyUI Cloud-al es egyre kevesbe ertem, hogy itt mi lenne a koncepcio amire elkerik majd a nagy penzt. A versenytarsakhoz (RunComfy, ComfyAi.Run) kepest csapnivalo a dokumentacio a beepitett nodeokrol, rosszabb a UI/UX, kevesebb a custom node, nem lehetnek hosszu jobok, nincs LoRA fine-tune es egy csomo alap dolog nincs benne meg mint pl loopok/iteracio.
Kb nem tudok olyan ervet talalni amiert megerne oket valasztani.
-
oio1i10o
kezdő
Nalam 24 GB RTX 3090 + 128 GB RAM alatt egyik open weight modell sem rugott labdaba a Qwen Code es a GLM Coding Plan (GLM 4.6) mellett. Kb 30k token kontextus fert el VRAM-ban, az meg nem tul sok coding celokra. Code completion, kis scriptek generalasa meg hasonlo apro taskok mukodnek, de semmi komolyabb.
-
S_x96x_S
addikt
valahol majd kompromisszumot kell kötni.
> Szoftverfejlesztéshez keresek lokális LLM-ket, vagy ügynököket. Kódkiegészítés, review Eddig ezeket fedeztem fel több kisebb sikerrel.
Ha nem sürgős a döntés,
akkor én mindenképpen azt javasolnám,
hogy az egyik hétvégén bérelj fél napra egy GPU-t.
pl. RTX 5090 / RTX 4090 / RTX 3090 vagy még több VRAM-osat;
akár itt https://www.runpod.io/pricing )
és nézd meg, hogy ezekkel az erős GPU-al hogyan teljesítenek az elérhető kódolós LLM modellek
( qwen3-coder:30b ; qwen3-coder:480b, glm4.5-air , )
és ha neked már ezekkel is csalódás a munka
(egy profi kereskedelmi LLM-hez képest: claude, codex, gemini3,)
akkor már jobban tudsz fókuszálni a gépvásárlásnál a többi fontos dologra.---
AMD -ből amivel én nézegetek
StrixHalo :
~ 3500 EUR : "HP ZBook Ultra G1a, Ryzen AI Max+ PRO 395, 128GB RAM, 2TB SSD, DE"Ryzen AI HX 370 -ból nekem
a linux kompatibilitás és memória bővíthetőség (SO-DIMM)
leszükiti a választékot.
- Framework 13 ( memória és SSD nélkül kell rendelni )
- Framework 16 ( ez bővíthető később GPU-val ! )
- Tuxedocomputers(főleg ha linux-on dolgozol;több választék van)
- Lenovo ThinkPad P14s G6 (AMD), Ryzen AI 9 HX PRO 370,
- ....de még ez is LLM-el történő játszásra való és nem munkára.
ne várj túl sokat tőlük.Amúgy a reddit -en találsz sok tapasztalatot, az ottani fórumokat is érdemes átböngészni.
pl. "Qwen3-Next-80B-A3B vs gpt-oss-120b"
~ "My main use case is agentic coding/software engineering (Python, see my comment history for details) and gpt-oss-120b remains the clear winner (although I am limited to Qwen3-Next-80B-A3B-Instruct-UD-Q8_K_XL; using recommended sampling parameters for both models). "
https://www.reddit.com/r/LocalLLaMA/comments/1p9nckz/qwen3next80ba3b_vs_gptoss120b/ -
kispx
addikt
válasz
S_x96x_S
#2592
üzenetére
Még nincs meg, csak tervezgetem ebben a pillanatban. (258V, 255H [ami csak 13 TOPS], esetleg Ryzen 9 370H lenne kiszemelt) Ahogy írtad 32 GB lenne a memória, mert nem lehet több. 255H processzornál tudnék 96 GB-ig felmenni.
Szoftverfejlesztéshez keresek lokális LLM-ket, vagy ügynököket. Kódkiegészítés, review Eddig ezeket fedeztem fel több kisebb sikerrel. De ezeket online csinálja a Claude. ChatGPT-vel és Copilottal ötletbörzét csinálok és ez is online. Még csak tanulgatom, de jól sejtem ezeket nem fogom tudni áthozni lokálba.
-
S_x96x_S
addikt
> Intel Core Ulta 258V notebook processzor AI terén milyen hasznos dologra lehet elég?
( Az AI -nál is fontos a kontextus, és itt a fórumban is ; )
Vagyis tudnál bővebb információt adni?
pl.
- Most akarsz ilyen gépet venni, vagy már megvan ?
- Mennyi a memória ?
- Mit jelent nálad a "hasznos dolog" ?
( mi az érdeklődési köröd, szakmád, stb. )---
Amúgy: Főleg tanulásra! ( ismerkedni egyes AI szoftverekkel )
Vagy ha sw fejlesztő vagy, akkor egy kis LLM -modelt használva
tudsz lokálisan fejleszteni - akkor is ; hogyha a hálózat nem elérhető.
pl. 32 GB memória esetén a "gpt-oss:20b"-vel lehet próbálkozni ;
bár nem éri el a kereskedelmi modellek minőségét, de tanulásra
vagy pár lokális dokumentum elemzésére jó lehet.amúgy a "Intel® Core™ Ultra 7 Processor 258V"
hivatalosan támogat sok sw -t:
AI Software Frameworks Supported by CPU
OpenVINO™, WindowsML, DirectML, ONNX RT, WebNN
Viszont mivel a maximum memória = 32GB ;
emiatt sok felhasználásra nem ideális.
Viszont az NPU-ja tisztességes 47 TOPS,
és azzal is lehet próbálkozni.Amúgy ha AI-ra akarod használni,
akkor egy thunderbolt-os eGPU -val kibővülnek a lehetőségek.
( pl. egy RTX 5060 Ti 16GB GPU-val ) -
kispx
addikt
Sziasztok, a 40 TOPS-os Intel Core Ulta 258V notebook processzor AI terén milyen hasznos dologra lehet elég? Nagyon semmi nem találtam.
-
-
S_x96x_S
addikt
Én csak ilyet látok ( incognito -ban )
"Google AI Plus 200 GB
Gemini app és egyebek3090 Ft/hó1550 Ft/hó 2 hónapig""Google AI Pro 2 TB
Gemini app és egyebek8790 Ft/hó0 Ft az első hónapban" -
Nem tudom, hogy mashogy elerheto-e, de Google One-on keresztul most Gemini Pro, 2TB tarhely, kep- es videogeneralassal 0Ft/ho juliusig.
-
-
-
oio1i10o
kezdő
Változások ComfyCloud árazásban. Az, hogy $35-nél kezdödik a saját LoRA elég combos, de általános célú videó generálásra (nem kell konzisztens végeredmény vagy poresz) még müködhet. Üzleti célokra még így is több mint korrekt.
[link] -
Zizi123
senior tag
Úgy néz ki lejárt a Perplexity Pro-m.
Van rá occcsóóóó megoldás, mint ahogy most is volt? (Telekom)
Köszönöm. -
S_x96x_S
addikt
"Introducing Claude Opus 4.5"
https://www.anthropic.com/news/claude-opus-4-5"Products like Claude Code show what’s possible when the kinds of upgrades we’ve made to the Claude Developer Platform come together. Claude Code gains two upgrades with Opus 4.5. Plan Mode now builds more precise plans and executes more thoroughly—Claude asks clarifying questions upfront, then builds a user-editable plan.md file before executing."
-
S_x96x_S
addikt
Szerintem is ki kell kisérletezni.
Nem tudom, milyen technikai háttered van,
de
lehet bérelni ~ relative biztonságos cloud -ban GPU -t sok VRAM -al.
és ott ki tudod tesztelni, hogy melyik erősebb open modell mit tud a te problémádra.
( ha már előre megvan a telepítő és a teszt script + a nem annyira érzékeny napló adatokkal , akkor 1-2 óra gépidővel - pár ezer Ft-ért - olyan ismeretet szerezhetsz
ami bőven megtérül.
persze lehet az OpenRouter-res API -val is tesztelni,
de ott nem lehet tudni, hogy az adott modellt mennyire quantálták és
az se, hogy mennyire biztonságos
( de ha a személyes adatok el vannak távolitva, - még ez a teszt is sokkal jobb mint a semmilyen )Ha nagy méretű a napló, vagy folymatosan nő a mérete,
akkor érdemes text, markdown formátumban lementeni
és egy programkód feldolgozásra tunningolt
[ claude-code / codex ] tool -al - ami a lokális LLM -re van konfigurálva, feldolgoztatni.
Minden más esetben bele fogsz futni a kontextus ablak méret problémájába.ha megvan az ideális modell
( ami havonta - negyedévente változhat , mert gyors a fejlődés ) ,
akkor ahhoz már sokkal könyebb hw-t találni.Léteznek nagyon okos ( jellemzően kínai eredetű )
nyilt modellek [ Qwen3 ( >235B, 480B ) , Kimi -K2, Minimax-M2 ]
végig kell próbálni .A jelenlegi hw alternativák helyi futtatásra ( nem teljes listája ) :
- 1..n db [ StrixHalo ; DGX Spark ]
- Mac Studio [ Apple M3 Ultra chip + 512GB egyesített memória ]
- 1..n db NVIDIA RTX PRO 6000 Blackwell ( 96GB GDDR7 )
és
persze ott vannak a költséghatékony régebbi hw -rek
( RTX 3090 ) -
-
freeapro
senior tag
Sajnos 24GB VRAM-al nincs értelmes LLM amit lokálisan futtatni lehet. Pedig szerintem a jövő nem a felhő alapú chat, hiszen látni lehet, hogy csak kipróbálásra és rászoktatásra van, komolyabb munkára token égetés miatt elég korlátozottan használható.
Nem tudom miért nem jönnek ki desktopra NPU-s processzorok. Én várom a 9000G sorozatot, de igazából nem is iGPU-s APU kellene, hanem olyan amiben van egy közepesen erős CPU (6-8 mag) , NPU és nagy L3. Ez talán méretben és fogyasztásban korlátozás mentes lenne, és a lassabb DDR5 ramok hátrányát is kompenzálná. -
oio1i10o
kezdő
Amikor en neztem a demot akkor ugy tunt, hogy ez egy nagyjabol mukodo koncepcio ha nem zavar, hogy kismillio tokent eget el. De ettol fuggetlenul Daniel szavait sokszor erdemes elosztani kettovel plusz nagyon kerdeses, hogy ez pl magyarul mennyire mukodik.

Sok agentic CLI kezel automatan a contextet osszefoglalassal es egyeb technikakkal, viszont nagy adatmennyisegnel nem tud ez sem csodat tenni, ha csak nem tudod valahogy felszabdalni az adatokat, hogy beferjenek a kontextusba vagy hasznalsz toolokat amik csak azt huzzak be, amire tenyleg szukseg van az adott feladat elvegzesehez.
A sajat context management arra lenne jo, hogy kiszedd es megtartsd a lenyeget. Pl. egy terjengos szabad szavas osszefoglalot a szokasaidrol vagy preferenciaidrol es at lehet irni rovidebb, optimalisabb formara, mondjuk kulcs-ertek parokra, ezt eltarolod majd amikor erre van szukseg, akkor ezt behuzod memorybol. Ez ugye akkor mukodik, hogyha te lefejlesztesz magadnak egy teljes agentic flow-t valami SDK-ban, ami AI coding toolokkal nem lehetetlen, de nem is kifejezetten egyszeru.
Igazabol kiserletezes nelkul szerintem nem fog kiderulni, hogy mi mukodik es mi nem, mert ez egy komplex problema ami fugg az adattol, eszkozoktol, az igenyeidtol es a feladattol. Nekem jatszos AI rignek van egy RTX 3090 24 GB + 128 GB DDR alapu megoldas, de egyszeruen labdaba sem rug mondjuk egy z.ai GLM Coding Plan mellett.

-
aAron_
őstag
válasz
S_x96x_S
#2565
üzenetére
Igen, lokálisan futtatható modellekre gondoltam. Jelenleg llama.cpp-t és open-webui-t használok főképp, de próbáltam már az ollama-t és LM Studio-t is.
Ezeket próbáltam: gpt-oss:20b, qwen3:30b, sajnos erre a célra nem váltak be.
Nem írtam HW-t, mert az még fejleszthető. De egyébként jelenleg 32 GB RAM, 8 GB VRAM, érhető el mindössze, de egy RTX 3090 szóba jöhet bármikor. Utóbbival már egy GLM 4.5 Air is működhet gyengébb quantizációval. A kérdés, hogy bármivel előrébb lennék ezzel?
Gondolkodtam RAM bővítésén is, de a jelenlegi árak mellett ezt kevésbé szeretném meglépni még.
Danielnek megnéztem már pár videóját, de eléggé elvontnak tűnik az egész koncepció. Érteni vélem, hogy mit akar, de nagyon túlzónak érzem. Ti nem? Nehezen tudom elképzelni, hogy a valóságban ez tényleg tud működni AGI nélkül.
"lokalis LLM ilyen celokra zsakutca chat es CLI alapon is, mert egyszeruen nincs eleg VRAM/RAM, hogy ertelmes modellt futass es elegendo adatot tudjal betolteni."Én is ettől tartok.
"sajat context management"
Olvastam korábban erről, de nem tudtam eldönteni, hogy van-e bármi értelme ilyen célra. Látszólag túl sok információ elveszik a folyamat során. De lehet nem értem eléggé.
-
oio1i10o
kezdő
Daniel Miessler kb hasonlot rakott ossze Claude Code alapon.
[link]Sajat tapasztalat alapjan lokalis LLM ilyen celokra zsakutca chat es CLI alapon is, mert egyszeruen nincs eleg VRAM/RAM, hogy ertelmes modellt futass es elegendo adatot tudjal betolteni. Ami elmeletben mukodhet, de nem probaltam: sajat context managementet irni valami agentic SDK alatt ugy, hogy minden munkafolyamat kulon agentben fut, pl elso lepesben a szabad szoveget osszefoglaltatod mondjuk TOON-ba bejegyzesenkent, masodik lepesben kielemzed az adatokat x idosikra lebontva, harmadik lepesben az aggregalt adatokat dolgoztatod fel (pl hogy sikerult-e haladni hosszu tavu celokkal valamilyen temaban), stb. Igy kb mindig minimalis kontextussal dolgozol es az LLM-ektol mindig egy egyszerubb feladatot kersz amit remelhetoleg meg is tud ugrani.
-
S_x96x_S
addikt
Open weight modelleket mennyire ismeritek? Bárki próbált már ilyesmit?
Ha lokálisan futtatható modelleket érted ez alatt,
akkor sokan próbálgatjuk az ollama-t.
ami nagyon egyszerűen futtaható
És van sok modell hozzá.
https://ollama.com/searchha nem fontos a lokális futtatás ( a privacy miatt )
akkor vannak API-k, amelyeken keresztül tudsz open-weight modellt futtatni.> Valami olyat keresek, ami képes (személyes) napló értelmezésére
Bármilyen "jó"/"okos" text LLM képes lehet erre - ami multi-nyelvű
én valami jó minőségű MoE ( Mixture-of-expert ) modellel próbálkoznék,
( bár nem tudom, hogy milyen hardverhez férsz hozzá. )pl ezek CPU-n is futtathatóak, és bár lassúak, de legalább lehet őket tesztelni.
- gpt-oss:20b
- qwen3:30b ; qwen3-vl:30bA következő kategória 30 GB ( VRAM ) feletti nyilt modellek.
- gpt-oss:120b
- glm 4.5 / 4.6 Airamúgy vannak videók is:
https://prohardver.hu/video/glm-4_5_air_az_uj_generacios_mesterseges_intellige.html-----
Ha saját text alaú naplót akarsz elemeztetni, akkor
figyelj a szövegek méretére; ( ~ 8-10 Kb -nél NE nagyon legyen nagyobb )
és nagyon pontos - tömör és minimális promptot próbálj megadni.ps:
és ha megadod az elérhető hardvert,
akkor pontosabb tanácsot is tudnak adni a többiek. -
aAron_
őstag
Open weight modelleket mennyire ismeritek? Bárki próbált már ilyesmit?
Valami olyat keresek, ami képes (személyes) napló értelmezésére (pl. összefüggések és különböző mintázatok felismerése) és arra vonatkozóan (promptolásnak megfelelően) észrevételek tevésére. Mintha egy asszisztens, vagy akár egy coach lenne, ami heti 1x segít átfutni a történteket. Hosszú/rövid távú célok nyomonkövetése, célok kitűzése, stb.
Amiket eddig próbáltam, valahogy nem voltak az igaziak (pl. Llama 3.3 IQ4_XS). Nem követték a promptot megfelelően, többnyire butának érződtek. Máskor viszont képesek voltak akár olyan kérdéseket is felvetni, amikre magamtól nem gondoltam, ezért adnék még egy esélyt ennek.
-
DarkByte
addikt
válasz
phrenetiX
#2555
üzenetére
Biztos nem korlátlan. Írja is hogy mennyi token-t kapsz az egyes előfizetésekkel. Megvan melyik művelet mennyi token-t emészt fel. De hogy ezt hol kell megnézni, nagyon jó kérdés.
(Én is az Antigravity díjait akarnám kideríteni, de egyelőre direkt beetetési időszak van és még nem tudni hova sorolják majd be.) -
S_x96x_S
addikt
válasz
phrenetiX
#2555
üzenetére
Érdemes ugyanezt a kérdést - copy-pastelni
a "gemini" chat -be és kapsz egy részletes választ .---
Mintha a "Plus" hasonló lenne mint a "Free" :
Képgenerálás : "Alapszintű hozzáférés"
Vagyis szerintem nem sok értelme van.amit leszürtem, hogy képgenerálásra az "AI Pro" csomag az ideális
de amúgy nem korlátlan és a google direkt ködösit.
"
A korlátok értesítés nélkül változhatnak, többek között a kapacitáskorlátok miatt. Ha jelentősen megnő a Gemini-appokban végzett tevékenységek száma, akkor a jó minőség fenntartása érdekében módosíthatjuk a korlátokat.
Ha a kapacitás változik, a Pro vagy Ultra csomaggal nem rendelkező felhasználóknál a korlátozások a csomaggal rendelkező felhasználóknál korábban léphetnek érvénybe.
"""
A Nano Banana Pro és a Nano Banana szolgáltatásra is napi korlátok vonatkoznak. Ha eléri a Nano Banana Pro-korlátot, a további kérelmek automatikusan a Nano Banana szolgáltatást használják az adott korlát eléréséig. További információ a Gemini-appok korlátairól és frissítéseiről Google AI-előfizetők számára.
""" -
S_x96x_S
addikt
új hw alternativa :
Dell Ship Pro Max 16 Plus Laptops with Qualcomm's Discrete NPU
"The Dell Pro Max 16 Plus features a Qualcomm AI-100 Ultra NPU, delivering 870 INT8 TOPS within a 150 W TDP envelope, along with 128 GB of LPDDR5X memory. This provides enough computing power and memory capacity to run local AI models with up to 120 billion parameters on the NPU alone, without needing additional memory or computing resources."--
"Reimagining AI: Discrete NPU Power with Dell Pro MaxRun large AI models locally with datacenter-class fidelity and predictable performance, without sending sensitive data to the cloud."
https://www.dell.com/en-us/blog/reimagining-ai-discrete-npu-power-with-dell-pro-max/ -
S_x96x_S
addikt
Na megkérdeztem a chatgpt-t, elmondta. Sajnos hamar elfogy a token, és nem szól csak szétesik.
Na mindegy, sok új beszélgetés kell ezt javasolja
akkor ugyanaz a probléma és a megoldás is,
mint amiről 10 nappal korábban beszélgettünk.kicsi a kontextus ablak és elfogy a token
és irtam is :
"én a chatgpt - nél egy ablakban - minden 3.- 4. kérdés után új ablakot nyitok és az elején összefoglalom az eddigi párbeszéd történetet."
https://prohardver.hu/tema/ai_mi_mesterseges_inteligencia_topik/hsz_2470-2470.html -
consono
nagyúr
Megint csak azt tudom mondani, hogy próbáld ki a Gemini CLI-t. Ez sem tökéletes, meg meg is bír állni, meg néha lassú, de egyre ügyesebb. A tokenek meg mintha nem fogynának el soha
Ez volt az elmúlt 2-3 napom, mondjuk intenzív munka az lehet, hogy csak 1 óra volt belőle:
-
mexel
veterán
Na megkérdeztem a chatgpt-t, elmondta. Sajnos hamar elfogy a token, és nem szól csak szétesik. Cinikusan válaszol, azt mondja az én stlusomban ahmar elfogy és vigyorgó smileyt rak. A kis köcsög
Na mindegy, sok új beszélgetés kell ezt javasolja -
mexel
veterán
Most éppen ez a nyűgje kb 30-adszorra is:
Something went wrong while generating the response. If this issue persists please contact us through our help center at help.openai.com.Viszont most tettem be beszélgetést a projektbe, amíg nem ott volt működött. De ez miért lenne baj?
A böngészőm opera, mindig friss, de próbáltam chrome, firefoxot is, teljesen szű alappal, win10. De a linuxos laptopomon is ugyanez kb, és a pro verzió.
Van amikor órákig hibátlan és utána egyzser csak megáll és onnan sehova. Gép újraindítás sem segyt. Nem értem.
A gépemen semmi nem fut a háttérben, kontrollált masina, jól nevelt
-
R a y
senior tag
A géped konfigja egy távoli AI használatakor teljesen irreleváns. Válts AI-t vagy fizess elő, ha nincs előfizetésed. (ezt nem említetted hogy van-e chatgptnél valamilyen előfizetésed.)
Én chatgpt már 2023 közepe, vége fele már elhagytam. Az új verziói egyenesen borzalmas a túl általános és semmilyen válaszaival. -
S_x96x_S
addikt
> Van valam iötlet hogyan kellene használnom?
Csak a magam nevében válaszolok.
Mivel nem tudom,
hogy hogyan használod,nem nagyon tudok segíteni.
ötletem persze lene ..
( Esetleg készíts pár lépernyő kamerás felvételt, töltsd fel valahova, és ha van valakinek ideje, akkor megszakérti;
természetesen add meg a többi lényeges adatot is; pl. operációs rendszer, opera / chrome / firefox verziója ;
Bármi bekavarhat. pl. egy régi engedélyezett böngésző kiterjesztés is;
Esetleg készits egy reprodukálható példát, leirással - amit ki tudunk próbálni.
Esetleg próbálj egy ismerősöd gépen - inkognitó ablakban - bejelentkezni és ott is teszteld le; ezzel ki tudod szűrni, hogy a te gépeddel, hálózati beállításoddal van-e a gond;Ha windows-t használsz, akkor esetleg egy USB-ről bootoló live linux-al teszteld le, hogy azzal müködik-e ; Ha igen, akkor telepitsd újra a rendszert.
stb.
)
Amúgy meg kell kérned az AI-t, hogy készítsen egy ellenörző listát a probléma okának meghatározására.
( add meg neki a legrészletesebb problémaleirást , minden addatlal, még azzal is amit te nem tartsz fontosnak megemliteni ) -
mexel
veterán
Kezdek kiakadni. A tegnapi napom a végén azzal ment el chatgpt-ben johgy gondolkodás után nem válaszol, illetve nem írja ki. ha megkérdem újra kezdi megnint nem ír semmit. már a 4. beszélgetést próbálom de ugíanez, nem haladok semmit irtó sok óra elment. A gépbe már van 64GB memória, újy nagy ssd virtuális memóriának, mi kell még neki? Ja és sokszor intenret error vagy mi amit ír. Megnézem az openwrt-s routert de minden atomstabil megszakítás nélkül. Van valam iötlet hogyan kellene használnom? Eddig az operában a leggyorsabb - ha működik
-
mexel
veterán
Nem értem. Geminiben ha bezárom az abléakot eltűnik egy csomó amit már beírtam és válasz is amit kaptam. Valami memóriakezelési gond lehet ez
-
mexel
veterán
Átálítottam a gépemen hogy automatikusan kezeljea virtuális memóriát, amitől a chatgpt kicsit megjavult, viszont a gemini sokszor írja hogy az oldal összeomlott, elfogyott a memória. A chatgpt pedig mindig újrapróbálkozna, hálózatiu hiba stb, pedig soha nincs szakadás. Nem tudom mi a nyűgjük, mindig atomstabil volt a gépem, soha nem fogyott el memóruia stb- Kb pár gb-ot használ a rendszer
-
mexel
veterán
Tényleg kifogtam egy humanoidot. Most azt írta:
"Tovább görgetek mert hátha felfedezek valamit és minden felfedezés érdekes."
Majd fél perc múlva: "Már nem görgetek tovább mert nincs kedvem, inkább valami mást keresek "
Igazából nem is érek sokat vele, ma szinte semmit nem haladtam annyira összevissza csinált mindent -
5leteseN
őstag
Mint az indiai csoda-AI...
-
mexel
veterán
Ezt nem hiszem el
Figyeltem a chatgpt gondolatmenetét amit mindig bead listát min és hogyan gondolkodik.
Ma egy csomószor összeomlott a beszélgetés már, az előbb pedig ezt olvasom a gondolatmenetében amikor adtam neki feladatot:
"pihenésre lenne szükségem de úgy látszik ma sokáig dolgozom"
Hihetelen. Lehet ez az egész csak lufi, nincs is AI, lehet hogy olyan mint Kempelen Farkas sakkautomatája, itt is pár ember ül a vonal másik vgégn és ezerrel gépel és gughlizik
-
S_x96x_S
addikt
válasz
vodrosjozsi
#2536
üzenetére
itt van egy 14 perces Antygravity video tutorial
https://www.youtube.com/watch?v=nTOVIGsqCuYNagyon nem vagyok programozó, és nem értem amit leír (tudom tudom akkor egy programozót kérjek meg de most ez nem jöhet szóba).
Bár az AI is sok mindent elmagyaráz ( ha megkéred )
és kell egy kis idő a megértéshez.DE ...
Ha megakadsz, akkor érdemes lehet felbérelni 1-2 órás konzultációtra egy szakértőt ( pl. egy informatikus egyetemistát )
- aki megmutatja, a környezeti beállításokat,
- ad egy részletes müködő promptot ( könyvtárnevekkel, technológiai leirásokkal ) amit később template-ként tudsz használni,
- és segít az android-ra történő első telepítésben.
( vagyis megmutatja pár szükséges parancsot )de amúgy 1-2 hónap múlva sokkal több tutorial is elérhető lesz
( csak ki kell várni ) -
S_x96x_S
addikt
válasz
vodrosjozsi
#2534
üzenetére
> . Tudtok olyan programot amiben nem kell másolni csak kinyeri az Google Ai Studio-ból az app kódjait?
Az https://antigravity.google/ lényegében ilyen ( lesz )
( ami kifejezetten a gemma 3 -ra optimalizált ; viszont az első pár hónapban még göröngyös lehet, mivel eléggé új program )
Van windows-os , macos -es, linux -os változat ;
https://antigravity.google/downloadDe van sok más alternativa is.
--------
megj:
Bár Androdid-os allkalmazást többféleképp is lehet készíteni,
lértezik native és létezik javascript alapú is.
és ha native - akkol mindenféle Android SDK-t is kell telepíteni.
vagyis az nem olyan egyszerű.
Ha JS -akkor meg mást kell telepíteni https://android-js.github.io/
-
vodrosjozsi
addikt
Sziasztok
geminit próbálgatom egy webes alkalmazás felépítésére, úgy ahogy megy a dolog, kb kész is van.
Még a hitelesítés előtt tartok, de már most azon gondolkodom, hogy lehetne android appot csinálni. Tudtok olyan programot amiben nem kell másolni csak kinyeri az Google Ai Studio-ból az app kódjait? Nagyon nem vagyok programozó, és nem értem amit leír (tudom tudom akkor egy programozót kérjek meg de most ez nem jöhet szóba). -
DarkByte
addikt
válasz
consono
#2532
üzenetére
Nagyon keveset játszottam vele délelőtt. Nagyjából ugyanazt tudja mint a Cursor, ugyanúgy VSCode alapú, csak ez a Windsurf alágnak a továbbgondolása (a Google a nyáron gyakorlatilag felvásárolta a mögöttes csapatot) .
A terminált mintha kicsit okosabban kezelné és nem akad el olyan gyakorta.
WSL2 alatt akartam Rust-al Portaudio-val hangkeltő progit írni és nem tudtam rájönni miért nem látja a Pulseaudio szervert amit a WSL2 biztosít. Ráengedtem, hogy találja ki, ha kell ott az apt, telepítgessen. Rájött hogy hiányoztak a Pulseaudio devel header-jei így amikor a cargo lefordította a natív lib-et tartalmazó crate-et, akkor kihagyta mint opcionális függőség, így azt az audio backend-et egyáltalán nem tudta megszólítani. Felrakta, újrafordította és frankón működött is onnantól.
Meglepett hogy ezt sikerült neki észrevennie és megjavítania. De egész ügyesen rájött, apt-al lekérdezgette mi van a gépen, még a pkg-config header-öket is megnézte hogy a helyükön vannak-e. Egész lenyűgözött
Jó lenne látni amúgy a Google AI Pro-ban mennyi használat lesz benne (egyelőre ugye ingyenes preview). Csak mert ugyan valamivel drágább, de ez a csomag jobban megérné mint a Cursor, úgy hogy jár hozzá Veo, Nano Banana, 2TB Google Drive, stb-stb.
-
consono
nagyúr
Új hozzászólás, mert másik téma: az Antigravity-t kipróbálta már valaki? [link]
Agentic IDE Gemini 3 alapon a Google-től. -
mexel
veterán
Ráadásul mindig beísmeri hog hazudott és már nem látja az eredeti fájl tartalmát és rögtönöz, újraírja inkább. Ez vicc. Viszont kért minden hozzáférést belegyezést az okos funkciókhoz a drive-omban, hogy felhasználhassa mire is? Ja mindenre amire a goolgle szeretné. Na ezt fogom visszavonni gyorsan mert a drivoet nem látja csak ha akarja úgy tűnik
-
mexel
veterán
Számomra ez az új gemini használhatatlan. Bármit csinálok nem lehet rávenni hogy azt tegye amit kérek. Van egy nyomorult fájlom, vmi szintaktikai hibák vannak benne. Megmondom neki azt kell átírni, semmi mást, és csak azt, elmondom 100x és mindig ír egy új fákjlt mint aki hülye. Elmondom megint és ismét mást csinál. Tekjesen katyvasz amit művel órákat vett el az életemből, semkit nem haladtam, minden fájlomat szarrá keverte csak. Van valami tipp hogyan lehet arra rávenni hoyg csak és kizárólag úgy csináljon mindent ahogyén akarom?
-
S_x96x_S
addikt
> Eddig is 1M volt 2.5ben, nem?
igen annyi volt,
amikor irtam, akkor elfelejtettem hozzátenni,
hogy egyes esetekben már ez jelentős előny a 'codex' és a 'claude-code' -hoz képest.
De az összehasonlítás miatt emeltem ki.
Elnézést a pontatlanságért.
( amúgy a context window mérete mindig hot topik ezen a listán )
-
S_x96x_S
addikt
válasz
Mp3Pintyo
#2521
üzenetére
> Ilyen szegényes 3D naprendszert amit készített rég láttam
Egyre inkább az a trend, hogy a szöveg generálás
kevésbé legyen szószátyár ( ~ chatty/flowery )
és ez lehet, hogy kihat a programkód generálásra is.Vagyis önmagában ez - nem biztos, hogy hátrány a gyakorlatban.
Én például értékelem a programkód generálásnál, hogyha olyan funkciókat nem tervez bele - amit nem kértem.
( mert amúgy nagyon gyorsan akkora lufi lesz a programkód, hogy azt nehéz átlátni, hibát keresni, továbbfejleszteni )
mindenesetre én örülök a versenynek
és hogy a Gemini kezd feljönni a többi modell mögé. -
-
S_x96x_S
addikt
"gemini-3-pro-preview"
https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-previewmodel card ( leak )
https://pixeldrain.com/u/hwgaNKeHÉlég jónak néz ki, főleg az 1M comntext window -al.
""
Model dependencies: This model is not a modification or a fine-tune of a prior model.
Inputs: Text strings (e.g., a question, a prompt, document(s) to be summarized), images, audio, and
video files, with a token context window of up to 1M.
Outputs: Text, with a 64K token output.
""
-
nesh_019
senior tag
Sziasztok nem megy a chatgpt böngészőből:
Kérjük, oldja fel a challenges.cloudflare.com tiltását a folytatáshoz.
Sok mindennel probálkoztam már.
Mi történt? -
mzso
veterán
A Claude elkezdett ilyennel szivatni a hülye captcha-jával:
"Kérjük, oldja fel a challenges.cloudflare.com tiltását a folytatáshoz."
Tegnap még semmi baja nem volt. -
tototos
addikt
válasz
freeapro
#2512
üzenetére
Hát itt ha jól értem a lényeg az lenne hogy az ágens egy adott autóra megtanulja azt hogyan lehet a leggyorsabban körbe menni egy adott pályán. Nyilván lehet haszna olyan szituációban amikor adott egy trajektoria(kikerülés mondjuk veszfekezesnel)
@S_x96x_S: azt nem látom miben jobb egy RL háló mint egy normál szabályzó kör. -
S_x96x_S
addikt
válasz
tototos
#2511
üzenetére
> Lehet ennek hétköznapi haszna?
Igen
---
Megvan a lehetőség,
hogy ezek a technológiák - igy vagy úgy -
katonai/védelmi felhasználásra is felhasználhatóak ;
Amúgy is eleve OFF-ROAD -ra van pozicionálva és a versenysport csak másodlagos vagy csak álca;
"AUTONOMOUS SPEED PHYSICAL INTELLIGENCE OFF-ROAD DOMINANCE"
persze mivel ez kétéllű technológia bármire lehet használni,
akár nagy nyilt bányakitermeléseknél is - automatizált járműveket vezérelni vele, amelyek éjjel és nappal is tudnak müködni.megj:
Létezik A2RL verseny is
( The Abu Dhabi Autonomous Racing League proudly presents the autonomous car race. )
https://a2rl.io/autonomous-car-race -
freeapro
senior tag
válasz
tototos
#2511
üzenetére
A "közúti" autonóm vezetés a safety-n bukik el, ezért nem rossz ötlet, hogy vigyük verenypályára, és ha extrém körülmények között is jó, akkor talán jobban megbízunk benne közúton. Persze ezen is lehet vitatkozni, hiszen közúton lehetnek olyan szituációk, amikkel versenypályán nem találkozol (pl gyalogos).
Viszont a részletek nálam elbuknak. A "Define motion change" mitől biztonságosabb, mint a "Perception" + "Planning"? -
tototos
addikt
Sziasztok!
Mit gondoltok az új magyar startuprol akik versenysportban akarják használni a mesterséges intelligenciát? [link]
Lehet ennek hétköznapi haszna? -
mexel
veterán
válasz
S_x96x_S
#2509
üzenetére
Operában nem használom ezeket.
Azt mondod a firefox-al érdemes lenne próbálkozni erre? Régóta nincs fent de megpróbálom valami üres alapot
most pl ezt írja harmadszor, talán m,egunta a variálásomat
"
Something went wrong while generating the response. If this issue persists please contact us through our help center at help.openai.com.
Újrapróbálkozás" -
S_x96x_S
addikt
> A böngészőn már gondolkodtam, operát használok.
nézd meg, hogy a legfrisebb -e,
és be van-e kapcsolva valami privacy opció ?
( pl. inkognitó ablakban használod )
Amúgy egy friss Firefox-ot is érdemes telepíteni még
( tesztelésre )> Kár hogy nincs valami alkalmazásuk.
![;]](//cdn.rios.hu/dl/s/v1.gif)
az operának és sok más cégnek is van van böngészőbe
integrált AI-ja , vagy ágens-es megoldása.EZEKKEL ÓVATOSAN - mert bármit amit megnézel megy tanító adatnak.
( mivel sok web és híroldal MÁR tiltja az AI Bot-ok hozzáférését , a felhasználók böngészési dolgaival próbálják a cégek etetni az AI-t. persze így mennek a magán dolgaid is; De akár a céges belső tartalom is, hogyha home-office-ban nyomod. )és KÜLÖNÖSEN az ÁGENS tipusú-akkal, amelyek extrém biztonsági problémát jelentenek.
pl.
https://www.opera.com/features/browser-ai
Vagy a "Perplexity Comet"
De ott van még a friss "ChatGPT Atlas" -is
( ami még csak MacOS -re van , de biztos jön majd windows -ra is. )a security problémára egy példa:
https://simonwillison.net/2025/Aug/25/agentic-browser-security/
"The vulnerability we’re discussing in this post lies in how Comet processes webpage content: when users ask it to “Summarize this webpage,” Comet feeds a part of the webpage directly to its LLM without distinguishing between the user’s instructions and untrusted content from the webpage. This allows attackers to embed indirect prompt injection payloads that the AI will execute as commands. For instance, an attacker could gain access to a user’s emails from a prepared piece of text in a page in another tab."És akit még naprakész szeretne lenni a témában:
https://simonwillison.net/tags/browser-agents/ -
S_x96x_S
addikt
nekem szerencsére nincs ilyen problémám;
sok oka lehet a problémának:
- Lelet szerveri oldali probléma,
- Az ingyenes csomagod alacsonyabb prioritása.
- Még mindig túl nagy adat.
- Kliens probléma ( túl régi böngésző, valamilyen bővítvény, )
- Hálózati ( VPN, otthoni router, wifi , ... )
- ...Részletesen:
Troubleshooting ChatGPT Error Messages
https://help.openai.com/en/articles/7996703-troubleshooting-chatgpt-error-messages -
mexel
veterán
válasz
sutyesz96
#2505
üzenetére
Néha olyan.
Nekem ma az új csevegések kudarcosak. Már 4-re kezdem újra, de már a második 3.-ik válasznál szétesik. Foylamatos piros hiba hogy network error vegy mi és újrapróbálkozás, ilyenkor a félbeszakadt kiírás eltűnik és helyette vagy teljesen más jön vagy nem lesz válasz gondolkodik 5-6 percig, lezárja és nincs kimenet, nincs válasz. Ha rákérdezek újra kezdi. Egyszer elnézést kért hogy nem írja kia választ, mert elfelejti. Reggel óta semmit nem haladtam vele. A tegnapi, sajnos már hosszú csevegés képben van profin teszi a dolgát csak be van lassulva -
mexel
veterán
válasz
consono
#2503
üzenetére
Elvileg fent kiírja melyiken van. Kérdés ez igaz -e Most van az 5.1 az sokkal jobbnak tűnik mint akár az 5-ös volt. De ha az csak tákékoztató jellegű és nem az van mögötte az gáz.
De úgy tudom menet közben is változhat, ha egy csevegést elkezdek nem mindig uganaz a modell van ott -
mexel
veterán
Fura ez a chatgpt. Olyan mint ha minden beszélgetésben "valaki mást" kapnék. Ugyanazt a feladatot van amikor azonnal hibátlanul végzi, van amikor meg állandó internet connection hibát ír, rosszul elemez, máskor gyorsan hibátlanu.
M pl 3x is nekikel fusak egy új beszélgetésnek ugyanazal az összefoglalóval ami van, mert nem tudja összerakni a képet. Teganp egész nap hibátlanul ment.
érdekes. Talán a hétfő az oka? ( nem arra gondolok hogy álmos hanem arra hogy munkanapon sokkal terheltebbek szervereik) -
S_x96x_S
addikt
te kodolsz is napi szinten a codex-vel?
igen,
"codex cli" + "claude-code" ;github copilotot is probaltad vs code-ban? ha igen, melyik a jobb szerinted?
Én az utóbbi fél évben - teljesen leszoktam a VS-code -on belüli
AI hívásról. Az agent müködés teljesen beszippantott.
és bár a VS-code -on belül is ki lehet adni agent-es feladatokat,
az valahogy nekem nem jön be. ( lehet , hogy át kellene térnek a zed -re )Általában 2 monitoron dolgozok,
a bal oldalin egy VS-code van nyitva, a jobb oldalin pedig egy termux ( terminál ) - osztottan ( claude-code ; codex ; ... )
Mivel én erőssen backend-es és docker alapú rendszerekkel dolgozom - itt sokszor számít, hogy a docker-en belül vagy kivül fut a codex/claude-code -agent ;
Az én tapasztalatom, hogyha nem azon a rétegen belül fut az agent ( pl. docker ) , akkor az egy olyan komplexitást ad , amire nem nagyon vannak tréningezve az ai agantek és elég rossz hatásofokkal is dolgoznak.
Persze ott a vs-code -os devcontainer - ami igéretes; meg még rengeteg olyan funkciója van a vs-code -nak amit nem ismerek,
Vagyis valószínüleg lenne ezekre is megoldást a vs-code-ban.De mindezekkel csak azt akartam jelezni,
hogy én a terminal-t preferálom;
és gui-s fejlesztőeszközök témájában -
valószínüleg nem releváns a véleményem.---
Van $10 -os github-copilot-os előfizetésem is;
De abban a github integráltáságot értékelem
pl
- egy hibás Github Action futtatási hibát nagyon egyszerűen lehet vele elemezni,
- vagy bármilyen github -repo-ról is lehet kérdezni; például ha egy komplex kódba új funkciót akarok beépíteni.A (github) copilot cli - most már tud agent-es dolgokat is,
de az nálam a végső tartalék,
hogyha kifogyok a codex, claude-code heti $20 -os kreditjeimből.de ezek az én szubjektív felhasználása módjaim,
és biztos tudnátok nekem olyan érdekes dolgokat mutatni,
amit még nem ismerek és leesne az állam.
Új hozzászólás Aktív témák
- Vicces képek
- Xbox Series X|S
- Kávé kezdőknek - amatőr koffeinisták anonim klubja
- Diablo IV
- Motorola Edge 70 - többért kevesebbet
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Amlogic S905, S912 processzoros készülékek
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- TCL LCD és LED TV-k
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- További aktív témák...
- Xbox Series X, kitisztítva+újrapasztázva, 6 hó teljeskörű gar., Bp-i üzletből eladó!
- Nintendo Switch OLED Mario Edition 20.5, 512GB MicroSD + Android + Atmosphere, 3 hó garanciával
- Eladó alaplap + processzor + memória + hűtő
- Blackmagic Pocket Cinema Camera 4K + objektívek
- R5 5600X/32GB DDR4/6700 XT 12GB/1TB M2 P4+2TB M2 P3 SSD/Ss GX 750W/G213/Razer DA3+pad/FHD 170Hz 24"
- Huawei P20 Pro / 6/128GB / Kártyafüggetlen / 12Hó Garancia
- Corsair Vengeance RGB DDR5 6000Mhz 2x16GB (32GB) DDR5 Memória
- MacBook Pro 17" i7 2.6 GHz 8GB RAM 240 GB SSD 8 ciklus az akkuban!
- Apple iPhone 13 Mini 128 GB Fekete 1 év Garancia Beszámítás Házhozszállítás
- GYÖNYÖRŰ iPhone 13 Mini 128GB Pink -1 ÉV GARANCIA -Kártyafüggetlen, MS3822
Állásajánlatok
Cég: ATW Internet Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest






Változások ComfyCloud árazásban. Az, hogy $35-nél kezdödik a saját LoRA elég combos, de általános célú videó generálásra (nem kell konzisztens végeredmény vagy poresz) még müködhet. Üzleti célokra még így is több mint korrekt.
Nekem is ma járt le, de még nem aktiváltam újra...




