- ZIDOO médialejátszók
- Gaming notebook topik
- Mini-ITX
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- Szünetmentes tápegységek (UPS)
- OLED TV topic
- Asztrofotózás
- TKL formátumú, vezetékmentes "Fekete Özvegyet" dobott piacra a Razer
- 3D nyomtatás
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
-
PROHARDVER!
Mára a ProHardver!/IT.News Fórum is nagylétszámú Linuxban jártas taggal büszkélkedhet. Nehéz szinteket felállítani egy olyan rendszer ismeretében, ami annyira sokrétű, hogy teljesen szinte lehetetlen megismerni minden egyes részét. Azt azonban mindenki tudja, hogy kezdő-e vagy sem. Elsősorban nekik szólnak az alábbiak, de érdemes mindenkinek elolvasnia, mint útjelző táblát.
Új hozzászólás Aktív témák
-
Frawly
veterán
válasz
samujózsi #29099 üzenetére
Most hogy újra végiggondolom, igazad van. Mégis csak át kéne engedni, különben a fizikai host gépen hiába van TRIM, ha úgy látja, hogy az egész qcow2 fájl foglalja a saját lemezterületét, hiába lett valami törölve belőle, nem szabadul fel a már nem használt blokk belőle.
Ezen a linken az első válaszban adnak meg működő példát.
De a legtisztább az lenne, ha az SSD oda lenne dedikálva fizikailag a virtuális gépnek, mert akkor semmit nem kell átengedni, a guest-en elég simán beállítani a TRIM-et.
Illetve NVMe-n nem tudom hogy lehet megoldani. Mert a TRIM parancs csak PATA/SATA/AHCI SSD-khez van, az UNMAP csak SCSI/SAS/UASP interface-esekhez. NVMe-n viszont a TRIM-et végző parancs bele van integrálva más lemezműveletekbe, ezért külön nem lehet meghívni, meg semmin keresztül átengedni. Na már most nem tudom, hogy a discard átengedése ezen mit segít.
-
Frawly
veterán
válasz
Dißnäëß #29094 üzenetére
Nem a guest-ben kell a discard-ot beállítani, hanem a host OS fájlrendszerében, amin a qcow2 képfájl van. Kivéve, ha az SSD-t fizikai egészében adod át a virtuális gépnek, mert akkor a guest-en kell állítani, a host pedig nem használja.
(#29097) bambano: robokuty nagyon eltűnt mostanában.
-
samujózsi
senior tag
válasz
Dißnäëß #29094 üzenetére
Elvileg tud trimet közvetíteni, kvm guest és az ssd közt, de nem tudom, mit kellett beállítani hozzá és költözéskor legyalultam a virtuális gépeket a notebookról.
A guestből az lsblk segítségével meg tudod nézni, alkalmasnak látja-e a virtuális géped a diszket ilyesmire, de erről sincs több emlékem. -
Dißnäëß
nagyúr
válasz
samujózsi #29093 üzenetére
10-es elég flexibilis ilyen téren, rengeteg mindenen beindul ugyanaz a telepítés (próbáltam már, még az Intel-AMD-Intel dupla váltásomat is túlélte egy előző install-om, csak teleszemeteltem).
Lehet simán kiköltözök róla akkor és Linux alatt egy VM-es W10-re teszem át azt a keveset, aminek Windows kell.
Arról van infód, hogy host SSD-n ha létrehozok qcow2 default formátumú diszket, TRIM van-e egészen a fizikai SSD-ig kezelve ? A rátett Linuxnak megadhatom a discard-ot, de vajon értelmezi a host OS ezt ?
-
samujózsi
senior tag
válasz
Dißnäëß #29092 üzenetére
Qemu-ban futtatnád a fizikai vasra telepített windows10-t?
Mert az (szerintem) nem fog menni.
Telepítéskor a windows a hardverhez igazítja magát és a qemu-ban totál más hardverkörnyezetet fog találni. 10-esnél erre nem vennék ugyan mérget, korábbi verziók mind így működtek. -
Dißnäëß
nagyúr
Kedves haladó Linuxosok !
Dual boot-os a masinám, az SSD egy részén W10 C: , másik részén pedig egy Debian, utóbbin QEMU-s virtualizácós móka, műxik is gyönyörűen.
Van valami egyszerű mód arra, hogy meglévő W10 installációmat mount-oljam egy QEMU-s VM alá, mint HDD-t, és boot-oljon és használhassam ?
Csak érdekel és nem akarom a W10-et újratelepíteni, hanem csak leinstallálok róla olyanokat, ami nem kell és marad az, ami nem tud Windows nélkül létezni (pl. Battlefield V). Átállnék minden egyebemmel, mindennapos tevékenységeimmel a Linuxra.
-
inf3rno
nagyúr
válasz
Frawly #29087 üzenetére
Minden rendszernél előfordulhat, ami egyszerre fájlrendszert és adatbázist is használ adat tárolásra. Ha csak adatbázis van, akkor esetleg a tranzakciók használata védhet ellene.
Én is úgy értettem a sérültet, hogy inkonzisztens lesz a snapshot időben.
Ha folyamatos rendelkezésre állás kell, akkor az írás leállítása nem feltétlen jöhet szóba.
-
Dißnäëß
nagyúr
..
-
-
samujózsi
senior tag
válasz
Frawly #29087 üzenetére
Mi köze a backup szoftvernek a snapshothoz?
Egyébként nem annyira a kötetet kell lecsatolni a konzisztens, nulla adatvesztéssel járó backuphoz, hanem az adatok írását végző szoftvert kell lelőni, ha nincs olyan adatbázisod, ami lehetővé teszi az online mentést.
Mondjuk azt nem tudom, btrfs/zfs tudnak-e ilyet, szerintem nem. -
Frawly
veterán
válasz
inf3rno #29086 üzenetére
A snapshot sérült biztosan nem lesz. Legfeljebb egy időállapotot nem konzisztensen mutat. Ja, ez a megoldás sem mindenható, ha az lenne, akkor kihaltak volna a backup szoftverek és mindenki snapshotokat készítene kizárólag.
De mondom, ennek a gyakorlati jelentősége kicsi, mert olyan rendszerről, aminek a tartalma már a backup készítése alatt megváltozhat. Nyilván, ha tudod, hogy neked ilyened van, akkor más megoldás után kell nézni, vagy le kell csatolni a kötetet, és úgy backupolni.
-
inf3rno
nagyúr
válasz
Frawly #29084 üzenetére
A sok tera lehet, hogy ritka, de egy normál HDD olvasási sebessége 120MB/s körül van. Lehet, hogy a RAID valamit dob rajta, de ha többszáz MB adat van, már annak a másolása is több másodpercig tart, és több másodperc alatt történhetnek írások egy átlagos alkalmazás esetében is. Állítólag a snapshot sem csodaszer erre: [link], szóval könnyen lehet, hogy sok backup-ról, amit manapság mentenek el, éles helyzetben kiderül, hogy használhatatlan vagy minimum sérült.
-
OddMan
őstag
Btrfs fájlrendszer hogyan szórja szét az adatokat raid10 esetén, ha mondjuk 4db 1TB-os HDD-t használok? Ha jól tudom a Btrfs raid10 az inkább a raid 0+1 típusra hasonlít.
Például hardveres vagy mdadm raid esetén sokszor akár 2db lemez kiesése esetén is működik még a raid10 vagy raid0+1.
Például ha a raid10 az sdb1, sdc1, sdd1, sde1 partíciókat használja, akkor a következő esetekben, akár 2db merevlemez is kieshet. Például ha az sdb1, sdd1 vagy az sdc1, sde1 esik ki. Ugye raid0+1 esetén pedig kieshet az sdb1, sdc1 vagy sdd1, sde1.A kérdésem, hogy a Btrfs raid10-nél ez hogyan működik, a fentebbi konfigot figyelembe véve, tehát 4db 1TB-os HDD esetén?
Gyanítom, hogy nem úgy, mint az mdadm vagy egy hardveres raid-nél, bér ebben nem vagyok biztos és erre keresem a választ. Illetve örülnék, ha valaki tudna linkelni valami leírást arról, hogyan teszi az adatokat a Btrfs fájlrendszer a merevlemezekre saját szoftver raid használatkor. -
Frawly
veterán
válasz
Dißnäëß #29082 üzenetére
Pont azért egyesítették a két ZFS projektet, hogy ne legyen eltérés a kódok között. ZFS esetén valóban nem szükséges a softraid.
inf3rno: azért az ritka, ha valahol olyan sok tera gyorsan változó adat van, ami már a mentés készítése alatt megváltozik. Eleve a háttértárak korlátozott sávszélessége is korlátozza ennek az előfordulását. Attól is függ milyen adatot akarsz menteni, meg milyen fájlrendszerről.
-
inf3rno
nagyúr
válasz
Frawly #29078 üzenetére
Nem állítottam, hogy bármelyik is kiváltaná a másikat.
Ha már így szóba került, akkor inkább azzal lenne értelme foglalkozni, hogyha rendelkezésre állás és backup is kell, akkor mégis hogyan írunk föl több terabyte állandóan változó adatot valamire? Elkezdjük a másolást, aztán mire a végére érünk már tök más adat van fent a lemezen...
-
-
Speeedfire
félisten
Hi!
Adott egy surface pro, amire dual boot-tal egy android x86-ot tettem. Ennek egy grub2 loadere van. A bajom, hogy csak billentyűvel tudok választani a listából. Jó lenne ha lehetne a hangerővel is. Valakinek erre van valami tippje? -
Dißnäëß
nagyúr
Semmi komoly amúgy, csak nálam úgy "kell" archiválni, hogy közben elérhetőek is maradnak az adatok.
Mondjuk az a rahedli saját CD backup, amiket a kilencvenes évek óta gyűjtögettünk anno faterral, meg sokminden egyéb még.
Kitehetem polcra is (kint is van egy 500 GB-sen) ami hiperfontos nekem, a többi ennél mérsékelten fontosabb csak, de annál meg megint fontosabb, hogy egyetlen diszken legyenek.
Nem vagyok egyszerű eset. Na, ilyenekre jó a softraid + btrfs (míg a btrfs saját raid-szerű megoldása nem lesz iszonyú stabil, silent corruption ellen jó). De lehet végül nem tökölök és feldobok egy VM-ben egy BSD alapú NAS-t, alárendelem a diszkeket és jónapot, zfs.
Még agyalok ezen azért.rsync: a tippet köszi, le-man-ozom.
-
Frawly
veterán
válasz
inf3rno #29067 üzenetére
Nem sarkítás, igazuk van. A RAID a backupot nem váltja ki. Mert hiába a rendelkezésre állás, meg a fájlrendszer checksumja, az ellen nem véd, ha pl. emberi hibából, vagy szoftveres bugból adódóan felülírsz adatot, törölsz, vagy pl. ransomware darálja be. Vagy pl. a RAID és a fs checksum hibakorrekciós képessége is korlátos, ha túl sok lemez esik ki, vagy túl nagy blokknyi adat sérül, arra védelmet nem nyújtanak. Backupnak mindig lennie kell, hiába a redundáns RAID megoldás, utóbbi tényleg arra jó, hogy ha a lemez hibájából esik ki valamennyi, akkor legalább a rendelkezésre állás meglegyen.
Sokan tévesen hiszik, hogy jujj, RAID, akkor teljesen védve vannak, és nem kell backup. De, kell.
-
válasz
Dißnäëß #29059 üzenetére
Nem vagyok egy nagy szkript mágus, de ezt szerintem úgy kezdeném, hogy mindennek legenerálom az md5sum-ját. Egy-egy fájlba, aztán onnan kiindulva jöhet a többi funkció megvalósítása.
(#29073) inf3rno A modern fájlrendszerek checksum képessége tényleg hasznos. Sőt én emiatt konkrétan elavultnak tartok bármilyen nem szoftver RAID-et. A hardver RAID vezérlő meghalásától sokkal jobban félnék, mint egy stabil fs-től. A másik meg nyilván az ECC ram, ott ahol fontos adat van mindenképpen ECC ram kell.
A helyzet komolyságától függően lehet a backup-ra is szoftveres RAID-et tenni Ennek normál esetben nem látom értelmét. Ha meg valami tényleg komoly kell, akkor meg georedundancia + backup mágnesszalagra.
-
inf3rno
nagyúr
Mert a backup is hozzásegít a rendelkezésre álláshoz, hiszen ha elveszik az adat, akkor minden leáll. Illetve a RAID is hozzásegít a biztonsághoz, mert többször letárolja ugyanazt, így egy meghajtó hibája miatt nem veszik el az adat, és nem kell azonnal a backup-hoz nyúlni. Ezen kívül a modern fájlrendszereknél (zfs, btrfs) RAID-el szokták kombinálni a block checksum-ozást, és így ezek a fájlrendszerek védenek bitrot ellen is, amire a backup önmagában nem képes. A helyzet komolyságától függően lehet a backup-ra is szoftveres RAID-et tenni, illetve lehet több backup-ot is használni, de ez azért a legtöbb projektnél ágyúval verébre.
-
samujózsi
senior tag
válasz
Dißnäëß #29059 üzenetére
Nem állítom, hogy pontosan értem, mit szeretnél.
Ha a B alatti könyvtárstruktúra módosítást szeretnéd az A-ra átvezetni, arra szerintem (!!) nem találsz automatizált megoldást.
Van az rsync, amivel azonos könyvtárstruktúrákat tudsz szinkronba hozni, akár úgy is, hogy ami az egyik oldalról hiányzik, azt törölje a másikon is, de ha jól értelek, akkor nálad olyan kellene, hogy x fájlt a sokadik alkönyvtárból fel kéne hozni mondjuk a második szintre (példa: A/s/d/f/x van most az egyik, B/m/x a másik helyen és te az A/s/d/f/x-et törölnéd, helyette lenne A/m/x, de ha az A/s/d/f alatt van olyan, ami a B/m alatt nincs, akkor azt megőriznéd)
Ezt jelen ismereteim szerint csak manuálisan lehet.Illetve még olyat csinálhatsz, hogy ha van elég helyed, hogy A alá visszamásolsz mindent B-ről, az új struktúrának megfelelően, de törlés nélkül és ráküldöd az fdupes parancsot, és ebből válogatod ki a felesleges fájlokat, majd törlöd őket.
Mondom: feltéve, hogy jól értelek és az rsync sem változott túl sokat az elmúlt két évben.
-
Dißnäëß
nagyúr
válasz
samujózsi #29064 üzenetére
DD-zni azért root kell, ha meg mezei user kezdi el tolni ezt, eléggé falba ütközik és én user-ként használom a Linuxot, nem rootként, még sudo-t se adtam a saját user-emnek.
Persze rommá lehet törni bármit.. 100% biztonság nincs.Jött már be nekem ez a softraid, mert SMART szerint az egyik HDD-n lett 1 szem (!) bad sector-om, ami elvileg pótolva lett a tartalék területről (relocated), több nem szaporodott már hónapok óta, de intő jel, hogy sürgős csere, a diszket meg megtartom
porno-ralinux iso-ra -
samujózsi
senior tag
válasz
Dißnäëß #29062 üzenetére
Az kimaradt: a RAID nem véd a fájlrendszer sérülése ellen. (Pl zsaroló vírusok, vagy épp egy jól irányzott dd parancs
)
Értelme lehet házi használatnál is, például a sok kis kapacitású diszkből egy nagyot összerakni (ezt szintén kifelejtettem).
Csak mikor olyat látok, hogy valaki fontos adatot és RAID-et említ egy mondatban, akkor feláll a szőr a hátamon. -
Dißnäëß
nagyúr
válasz
Dißnäëß #29062 üzenetére
Az már érdekesebb kérdés, hogy szükéges-e mindezt az adatot egyszerre, egyben elérni, vagy elég archiválni őket (az archív redundanciájának biztosításáról beszéltünk már?
) , vagy ahogy Te írod, backup, tehát minimum két helyen van aszinkron módon tárolva ugyanaz az adat, az egyik az élő, a másik meg akkor frissül, mikor úgy gondolja a user.
Ez jó meglátás, de én itt is hiába vannak mondjuk 2014-es képeim, a kényelmet választottam, hogy bárhol, bármikor elérem őket. Raid van, backup nincs. Raid logikai hiba ellen nem véd, viszont szegmentálva a storage-ot vagy fájlrendszereket vagy könyvtárakat (kinek mi), lehet olyat, hogy aktuál évi adat r/w, tavalyi és régebbi adat r/o -ként mount-olva és akkor ez ad némi biztonságot user hiba ellen is.
De amúgy jogos a felvetés.
-
Dißnäëß
nagyúr
válasz
samujózsi #29061 üzenetére
Szerintem nincs kavarodás. Nekem például a softraid egy desktop kategóriájú gépen belefér, nincs igényem olyanra, hogy szünetmentes táp és külön belső akkuval ellátott kontroller kártya és ilyesmi megoldások. Jó, hogy egyben lát az ember logikailag olyan dolgot, ami mind sebességben, mind megbízhatóságban tolerál minimum egy diszk kiesést, még ha minden egyéb feltétel is nemredundáns.
Alaplap SATA vezérlő beszarás és társai ellen nem véd, nyilván. (Bár ha mindegyik alkatrész külön PCIe kontrollerről megy, a softraid ezt már kezelte is, de a többi ellen akkor sem véd, pláne nem memória hiba ellen, stb. De hát a desktop az desktop).
Kérdésedre válaszolva: lehet ezt feketén-fehéren is nézni és akkor semmi értelme az otthoni raid-nek sem, a szoftver raid-nek sem (a sebességen kívül), btrfs-nek meg pláne nem. Viszont lehet szürkén is nézni és akkor oda helyezed a megkötendő kompromisszum-csúszkát, ahova szeretnéd. Van aki feketébe tolja el, szeret kockáztatni egyre nagyobbat és van, aki fehérbe, a szürkén belül, minimalizál 1-2 kockázatot. És ez így jó és szép, hogy van lehetőségünk erre.
Nem túl sok kompromisszum, nem túl sok biztonság, több kompromisszum (enterprise szerverek, pénz, zúgás), több biztonság, ezek egyszerű dolgok, de semmiképp sem egybitesek, mint ahogy az igény sem egybites, ami ezen technológiák létrejöttét indukálta.
Ha NAGYON félsz adatvesztéstől, nyilván tudod a megfelelő védekezést ez ellen, de az tökmás liga, mint egy desktop motyó tele kompromisszummal, épphogy a bare-minimumot adva. Nálam ez a bare minimum tök elég évek óta. Lehet statisztikailag kimutatható lenne, hogy az elkövetkező 80 életévem alatt mekkora az esélye egy újra és újra átmigrált többterás raid5 tömbömön ülő adat részleges, vagy teljes elvesztésének, de nem nagyon rugózom ezt agyon, viszont annak igenis piszok nagy esélye van, ha 1 diszken tárolom mindezt, hogy akár 1 éven belül is bukjam őket. Számomra elégséges ezt a kockázatot mitigálni.
-
samujózsi
senior tag
válasz
Dißnäëß #29060 üzenetére
Félve kérdezem: nincs itt némi kavarodás a fejekben a különböző RAID megvalósítások használatát/célját illetően?
Ami fontos, arról backupot kell készíteni, akár naponta többet is.
A RAID arra van, hogy hardverhiba esetén ne kelljen leállni, illetve egyes variációknál a performancia javítására.
Nem először látok olyat, hogy fontos adat=RAID, csak ezért említem.Ha olyan adatokról van szó, ahol akár pár percnyi adatvesztés is gondot okoz, akkor meg adatbázis, folyamatosan fizikailag másikndiszkre archivált redo logokkal. Vagy ha tud ilyet a btrfs/zfs, akkor akár azt is lehet használni.
-
Dißnäëß
nagyúr
válasz
OddMan #29051 üzenetére
Bár a kérdésedre nem válasz, én a btrfs raid-jellegű funkcióitól még kicsit félek, nem véletlenül írják sok helyen, hogy inkább zfs-ezzen az ember, vagy klasszik md raid. Viszont az tetszik benne, hogy nincs adat degradation, mert block level checksum-okat használ + még pár olyan funkció, ami hasznos lehet később.
Én azt látom, hogy szimpla egyedülálló fájlrendszerként (1 partícióra) ajánlják, bár mai napig nem stabil a hivatalos státusza az egésznek (ez önmagában kérdőjel ugye, hogy használjuk-e), az extra és vonzó funkciói viszont még ehhez képest is experimental szint.
1-2 hónapon belül építek egy virtualizációs host-ot, ezen lesz egy NAS-ra használt VM is terveim szerint, a host-ba 3db HDD jön az SSD-k mellé és a HDD-ket md raid 5-be teszem, majd erre btrfs-t, így a raid megvalósítás nem a btrfs-re hárul, amiben nem tudnék megbízni, hanem a klasszik softraid. És utóbbi sem tökéletes, de én még mindig kevésbé fázok tőle, mint btrfs ezen funkcióitól. (Vagy zfs, lehet errefele is elkacsintgatok, ott natívan zfs alatt merném csinálni a raidz-t, az sokkal kiforrottabb).
Jópár évig volt Debianon 3x2TB majd 3x4TB md raid 5-öm, meredek dolgokat is csináltam vele, nekem amúgy eléggé bevált, nem láttam indokoltnak a 6-ot, de ez ízlés kérdése, pedig tele voltam mindenféle fontos fotókkal (hobbi fotósként).
Egy olcsó szünetmentes nem árt azért, amit havi 1x kipróbálsz valami más fogyasztóval, akksi idő tekintetében. (Egy dolog, mit jelez magáról és egy másik dolog, hogy ténylegesen kitart-e X terhelés mellett annyi ideig, míg a gép szépen lelövi magát és leáll).
De ez csak én vagyok - 1 óvatos duhaj.
-
Dißnäëß
nagyúr
Sziaszok !
Remélem elfér haladóban, de lehet kezdőben kellene.. mindegy. (Elnézést, ha igen).
Két könyvtár közötti szinkronizációs kérdésem lenne.Van két media fájlokat tartalmazó könyvtáram, A és B. (Legyenek privát képek a DSLR-emből, raw-k).
B könyvtárat apámnak adnám egy külső HDD-n, így őt A-ból képeztem, kb. háromnegyede megvan B-n az A-nak és ez így is marad, nem kell minden.
Viszont kiderült számomra, hogy pár kisebb könyvtárszerkezeti módosítást és "újítást" B-n csináltam meg, A helyett, holott a kettőnek identikusnak illene lennie. Tehát a B-n lévő ~75%-nyi adatot vissza kellene valahogy replikálnom A-ra úgy, hogy:
- B alkönyvtáraiban ugyanazok a RAW fájlok vannak, mint A-n, ezeket skip-elje a másoló, nem kell átvinni őket újra (majdnem 1 tera)
- B alkönyvtáraiban nincsenek újabb alkönyvtárak, mint A-n, így A-n lévő alkönyvtárakat ki kéne gyepálnia a másolónak és teljesen identikusan a B alkönyvtár struktúrát kellene, hogy leképezze A-n is
- a többi alkönyvtárat A-n hagyja érintetlenülVan erre valami tool, parancs, bármi, ami segíthet ? Szinkronizálás lenne a cél, tehát ami megvan B-n már, azt tegye át A-ra úgy, hogy A-ba módosítson bele B-knek megfelelően, ami többlet pedig A-n van, azt hagyja békén.
-
samujózsi
senior tag
válasz
Frawly #29056 üzenetére
Köszi, úgy egy órája fedeztem fel, hogy az ovmf picit több a sima efi-nél, csak nem volt időm foglalkozni vele (mindig így járok: kérdezek, aztán amíg várom, hogy valaki válaszoljon, unalmamban megtalálom a választ
)
Sajnos a secure bootot nem tudom mellőzni, mert hülye lesz tőle az alaplapom. Valami BIOS bug lehet, de pl több napos uptime után se reboot, se poweroff nem működik, bios/efi szinten lefagy, és ha nincs secure boot... már nem emlékszem, de akkor valamiért egyáltalán nem tudtam bebootolni rajta pendrive-ról. Régi Asus alaplap.
Eddig legfeljebb annyi problémám volt a secure bootból, hogy bsd-t nem sikerült telepíteni.Szerencsére az ubuntu megy vele.
De ha kicserélem az ssd-t, majd megnézem újra, hátha csak én rontottam el valamit amikor ki akartam kapcsolni. -
Frawly
veterán
Én jelenleg a QEMU-t használom KVM-mel, ahhoz ha telepíted a ovmf csomagot, és megmutatot a proginak az OVMF_CODE.df binárist, akkor UEFI-t használ, és ahogy a menüjében matattam, Secure Bootot is tud. Viszont én nem ajánlom, hogy Secure Bootot használj, sok előnye nincs, de az OS telepítéseket rendkívül megnehezíti.
-
samujózsi
senior tag
Használ itt valaki LVM snapshot-ot online mentésekhez?
-
samujózsi
senior tag
Linuxon létezik olyan virtualizációs szoftver, ami linux hostRA (a vmware különböző variációi emiatt kiesnek azt hiszem) telepíthető és amivel a UEFI+secure boot is használható?
Mielőtt a fizikai vason nekiesek, szeretném virtuális gépen kipróbálni az archlinux telepítését ilyen környezetben.
A virtualbox tud UEFI-t (talán már működik is benne), de emlékeim szerint nem secure boot-os.
-
OddMan
őstag
[Btrfs] fájlrendszert szeretnék használni adattárolásra. A kérdésem, hogy a RAID56 többnyire már megbízhatóan használható? Itt azt írják [link], hogy több bug-ot is sikerült már kijavítani ezzel kapcsolatban, bár jelenleg maradt még egy komolyabb bug a "write-hole". Ha jól tudom, ez a jellegű hiba az mdadm-ben is benne van jelenleg is, mégis mindenki használja. Ugye a "write hole" bug akkor okozhat gondot, ha a szerver nem megfelelően indul újra vagy áll le pl. áramszünet miatt. Mondjuk gondolom szünetmentes használatával ennek a hibának az előfordulása azért drasztikusan csökkenthető. Ha jól tudom már a "scrub" használata sem okoz adatvesztést, akkor sem ha raid56 mellett használjuk. Érdekelne olyanok véleménye akik Btrfs-t használnak, hogy mi a tapasztalatuk, illetve ti mit hallottatok erről a témáról mostanában 2019-ben?
I
-
Vladi
nagyúr
offolást, anyázást, egymás ba... személyeskedést töröltem.
-
samujózsi
senior tag
válasz
vargalex #29045 üzenetére
Tényleg be volt állítva. A routerre, ami viszont nem tud a tiltásokról.
Az egészből csak azt nem értem ezek után, hogy miért váltott a notebookom DNS-t, mikor az egyébként használt lokálist is elérte.
Most egysystemd-resolve -i wlp1s0 --revert
segítségével visszaállítottam az eredeti állapotot, de most megfelelően működik. Nem értem. Pedig azt hittem, hogy értem. -
samujózsi
senior tag
válasz
vargalex #29045 üzenetére
Szerintem be volt, épp ezért anyáztam a drágám hülyesége miatt.
Jó, atitkosított(?hitelesített?) DNSDNSsec számomra ismeretlen terep, itt meg valószínűleg emiatt működött másképp a rendszer, mint ahogy azt elvártam, csak most egyszerűbb volt morogni miatta, mint utánajárni -
vargalex
félisten
válasz
samujózsi #29044 üzenetére
A systemd-resolved fallbackDNS-t állítsd be, különben ennek hiányában valóban béna módon publikus DNS-ekre fallback-ol...
-
sh4d0w
félisten
válasz
samujózsi #29042 üzenetére
Ez a rész nekem is cseszi a csőrömet. Nagyon jó, hogy online elérhetőek a docker image-ek, meg a különböző alkalmazás image-ek, de nem lehet tudni, melyik hivatalos, ellenőrzött és melyek azok, amikben esetleg vki elrejtett egy sort, hogy küldje el pl. a billentyűzésedet...
-
samujózsi
senior tag
válasz
vargalex #29041 üzenetére
Félreérted: a docker, mint szoftver, a hivatalos tárolóban van. Viszont a docker által használt image-ek tartalma... na az már nem annyira tűnik megbízhatónak.
Ugyanez igaz a snap-re is. Ott is van hivatalos, meg nem hivatalos anyag, csak kevésbé vannak elkülönítve. Mondjuk egy dnsmasq konténer a dockerhez... van n+1, de ki tudja, mind megbízható-e? Inkább összerakom magamnak. De van ami nem tudok. -
vargalex
félisten
válasz
samujózsi #29040 üzenetére
Pont ezért kérdezem, hogy tudjak javasolni. Eddig részedről a docker hangzott el korábban, az pl. Arch esetén hivatalos tárolóban van.
-
samujózsi
senior tag
válasz
vargalex #29039 üzenetére
Te írtad: (#29035)
Konkrét csomagot nem tudok, mert telepítés után első dolgom bekapcsolni a universe és multiverse repokat.
Nekem pont az volt a.kérdésem, hogy tudsz-e olyan disztrot, ami legalább ennyi csomagot biztosít a többé-kevésbé hivatalos repokból.Snapre meg a pycharm és a chromium amit említeni tudok, illetve valóban külső tárolóként a google chrome-ot.
-
samujózsi
senior tag
válasz
vargalex #29035 üzenetére
Az a baj, hogy amihez ubin külső tároló kell, ahhoz általában a többinél is. Már feltéve, hogy a uni-/multiverse repokat is ide számoljuk. Vagy tudsz olyan disztrot, ami ennél széleskörűbb hivatalos csomagkészlettel rendelkezik? Ugyanis én azért ragadtam le az ubuntunál, mert ezen kellett a legkevésbé külsős csomagokra támaszkodni - igaz, azzal nem voltam teljesen tisztában, hogy a universe/multiverse mit is takarnak.
A snap használata lassan kényszer lesz, ahogy elnézem az ubuntu irányt, a docker meg... hát majd kiderül, meg az nem is ubuntu függő.
-
samujózsi
senior tag
válasz
vargalex #29033 üzenetére
Közben lejárt a szerkesztési idő: annyit még hozzátennék, hogy nem igazán értek ezekhez a dolgokhoz, a biztonsággal mindig úgy voltam, hogy amit tudok, megteszek az önvédelem érdekében, a komoly tippeket általában igyekszem legalább átgondolni, hogy érdemes-e adott esetben plusz munkát beleölni a rendszerbe, csak ehhez az is kell, hogy aki mondja, az legalább tudja, hogy miről beszél. A kioktató stílust akkor is rosszul tűröm, ha nálam lényegesen nagyobb tudással rendelkező produkálja. Ha meg olyan, aki messze van ettől...
-
samujózsi
senior tag
válasz
vargalex #29033 üzenetére
Tökmindegy, az ubuntu is teli van nem hivatalos cuccokkal.
Lásd snap, docker, de emlékeim szerint a uni-/multiverse tárolók sincsenek komolyabb ellenőrzés alatt.
Egyébként csak beírtam, hogy linux repo malware és az első hírt belinkeltem, mint példát, hogy nem nulla az esélye egy ilyen fertőzésnek.
A wifi sem sérthetetlen (wpa2-vel bezárólag biztosan) stb.
Millió +1 lyuk van a linuxokon is, csak nem éri meg foglalkozni ezek kihasználásával, ezért hiszik sokan, hogy linux=tökéletes biztonság.
Windows-on is még a 95-ös vagy talán a 98-as volt az utolsó, amin vírusom volt, azóta csak pár furcsa eset, amit látszólag vírus okozott, reinstall lett a vége, de egyetlen kereső sem talált rajtuk semmit.
Ilyen alapon mondhatnám, hogy tisztán linux alapon, semmi esélye egy kártevőnek. -
samujózsi
senior tag
válasz
Jester01 #29029 üzenetére
Van egy dockerd nevű programja, ami rootként fut és adott esetben módosítja például a netfilter tábláit, láncait (meg csinál még rengeteg egyebet, én sem ismerem, most ismerkedek vele).
Ez nem a konténer, hanem egy menedzsment eszköz, ha jól értem. A konténernek általában nem kell root jog.A port kérdés jogos, végül is nem ő hallgat azokon a portokon, hanem a konténer, oda meg forwardolja a beeső kéréseket, tehát valójában a netfilter szabályok módosítása miatt szükséges (többek közt) a root jog.
De mondom, én sem ismerem még eléggé és egyelőre nehezen megy az ismerkedés, mert közben ezer más dologgal is próbálok foglalkozni. -
Jester01
veterán
-
samujózsi
senior tag
válasz
Jester01 #29021 üzenetére
A demon?
Szerintem az teljesen normális.
Meg úgy általában az is gáz lenne, ha pl 1024 alatti portra rá tudna ültetni szolgáltatást root jog nélkül (még akkor is, ha ennek manapság nincs sok gyakorlati értelme)
Ebből a szempontból kb mindegy, hogy root vagy a capabilities által biztosított jogokról beszélünk (szerintem) -
samujózsi
senior tag
válasz
vargalex #29019 üzenetére
Persze, a többit nincs is értelme azt hiszem.
Nem is azon problémázok, hogy működik. Csak azon, hogy a docker a saját kezecskéibe veszi a tűzfal szabályok módosítását, ami SZERINTEM nagyon nem illik a unix/linux filozófiába.Hacsak nem hagytam ki valamit az olvasásból, például a kvm nem csinál ilyesmit.
Más kérdés, hogy végső soron én magam kérem ezt a módosítást a -p kapcsolóval...
-
samujózsi
senior tag
válasz
samujózsi #29015 üzenetére
A docksit (
) olvasva a válasz az, hogy 42! ... izé..., hogy igen: a docker módosítgat ezt-azt a netfilter szabályok közt.
Ami engem kicsit zavar: nem okozhat ez biztonsági problémákat? Nem kavarhat be, ha a használt tűzfal konfiguráló szoftverben saját szabályokat alkalmazok, netán eleve nulláról felépítve, iptables parancsokkal magam állítom be ezeket a szabályokat?
Nem az lenne a normális, ha ezeket nem csinálná meg helyettem a docker? (Kicsit windows feelingem van tőle) -
samujózsi
senior tag
Nem vagyok nagy hálózatos ebből következően nagyon nem értek valamit: a szerveremen ufw segítségével piszkálom a "tűzfalat".
Elvileg az ssh kivételével minden blokkolva van.
Ha elindítok egy docker konténert és publikálom valamelyik portját, az viszont gond nélkül elérhető lesz kívülről.
Mondjuk egydocker run -d --name nginx -p 80:80 nginx
parancs hatására kinyílik a 80-as port, persze átirányítva a konténerbe.
Ezt akkor hogy? A docker "önhatalmúlag" beletúr a netfilter szabályaiba, megkerülve az e célra használt szoftvert? Vagy hogy éri el, hogy a tűzfal tiltása ellenére megnyíljon a publikált port? -
samujózsi
senior tag
válasz
sh4d0w #29011 üzenetére
Mert? Jobb helyeken hosszú évekre megy archivumba a log, worm tárolóra. Abban meg emlékezetem szerint van egyedi azonosító, ami a headerbe is bekerül. De javíts ki, ha tévedek, én már rég nem nézegetem a headereket. (Kb. azóta, hogy gmailre váltottam a freemailről)
Egyébként ezt szeretem a magyar fórumokban: az arcoskodás megy, a segítőkészség meg a béka segge alatt, sokszor mindez nulla tudással párosítva.
-
-
BTom1970
aktív tag
Adott egy linux szerver házon belül. Erre kapcsolódnak gépek, ezek is a házon belül vannak. A levelezés Outlook-kal vagy Squirrelmail-lel megy.
Kérdés, hogy meg lehet-e állapítani egy e-mail (fejléc) -ből, hogy az egyik házon belüli gép küldte.
Az Outlooknál benne van a gép címe az e-mail fejlécben. De ez így van a Squirrelmail-nél is, mert az a szerverről küld e-mail-t? Attól még küldő gép címe bekerül a fejlécbe? -
samujózsi
senior tag
válasz
vargalex #29001 üzenetére
Két külön dologról beszélünk.
Az eredeti lassulás(nak tűnő) dolog, hogy bár pl.wget -o /dev/null ...
paranccsal folyamatosan, 100Mbps (10-11MB/s) töltődik mondjuk egy linux ISO, a router admin felülete, a disqus komment szekció, meg úgy általában, elég sok oldal, iszonyat lassan, bár folyamatosan jelenik meg. A 33k-s modem sebessége csak enyhe túlzás volt, a látvány eléggé hasonlít rá. Szinte sorról, sorra jelennek meg az oldalak (bár nem mind).
Most például többnyire jól nyílnak meg a netes lapok, csak a hvg kommentfelülete akadozik notebookról. Ha ugyanazt megnézem mobilról, ott normális sebességgel nyílik.
A squid mindkettőnél aktív, reklámblokkolót megpróbáltam cserélni/kiiktatni, semmi változás, plusz a router webes admin felülete mindkettőről egyformán lassú...
Néha olyan az egész, mintha valami a háttérben dolgozna a hálózaton, csak nem látszana a netstat/ss kimenetében.A másik, hogy esetenként, naponta egy-két alkalommal, pár másodpercre fennakad a szeme a gépnek és se kép, se hang (hang egyébként is ritkán, mert nem ezen hallgatok zenét
)
A power management közreműködése egyébként elgondolkodtató, ezt eddig nem néztem, de körülnézek, hátha találok ott valami disznóságot.
-
vargalex
félisten
válasz
samujózsi #29000 üzenetére
Olyannal már találkoztam wifi esetén, hogy a routeren valami energiagazdálkodás miatt viszonylag sok idő kellett, hogy "észbekapjon". A jelenség az volt, mint nálad, URL-t megnyitva néhány másodpercre megállt, majd elkezdte a betöltést. Ilyenkor azt vettem észre, hogy a wifi kliensen (azaz a notebook-on) folyamatos ping-et futtatva (pl. index.hu-ra) megszűnt ez a jelenség. De ez kliens független volt.
Új hozzászólás Aktív témák
Hirdetés
- Assassin's Creed Shadows Collector's Edition PC
- Windows 10 11 Pro Office 19 21 Pro Plus Retail kulcs 1 PC Mac AKCIÓ! Automatikus 0-24
- Vírusirtó, Antivirus, VPN kulcsok
- ROBUX ÁRON ALUL - VÁSÁROLJ ROBLOX ROBUXOT MÉG MA, ELKÉPESZTŐ KEDVEZMÉNNYEL (Bármilyen platformra)
- Eredeti Microsoft termékek - MEGA Akciók! Windows, Office Pro Plus, Project Pro, Visio Pro stb.
- Intel ES Core i5-3470 4-Core 3.2GHz LGA1155
- Apple iPhone 14 Pro Max / 256 GB / 88% akkumulátor / 1év Garanciával / Gyári Független
- ÁRGARANCIA! Épített KomPhone Ryzen 7 5700X 32/64GB RAM RTX 5060Ti 8GB GAMER PC termékbeszámítással
- ÁRGARANCIA!Épített KomPhone i5 12400F 16/32/64GB RAM RTX 4060 Ti 8GB GAMER PC termékbeszámítással
- Azonnali készpénzes INTEL CPU NVIDIA VGA számítógép felvásárlás személyesen / postával korrekt áron
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest