Hirdetés
- Friss adatok érkeztek a Lunar Lake-MX-ről
- Nem lesznek olcsók az új, ARM-os és windowsos notebookok
- SSD kibeszélő
- AMD Navi Radeon™ RX 6xxx sorozat
- OLED TV topic
- Hobby elektronika
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Kormányok / Autós szimulátorok topicja
- Samsung Galaxy Tab S9 Ultra - nagy képernyő mindenre
- Hogy is néznek ki a gépeink?
Hirdetés
Új hozzászólás Aktív témák
-
stigma
addikt
Nextcloud esetén simán megoldottam, mert volt leírásom, illetve ott a szükséges portokat (HTTP:80 és HTTPS:443-at) átengedtem a routeren és probléma nélkül üzemel.
Owncloud esetén ugye alapértelmezetten 8080-as poron átjön ami tök jó, de szerettem volna SSL-t, és amiatt a HTTPS-es 4443-as porton akartam átengedni, de sajnos nem sikerült.
Lehet hogy valamit elcsesztem a leírás alapján, de majd hétvégén megnézem.
Ugye ezért rossz ha több eszközről tesztelek, mert mindenhol port átírányítást kellene alkalmazni, ami a routerben egyszerű de Dockerben nem biztos (mármint a konfigurálásban)Portrainer-t azért szerentém megtanulni/alkalmazni mert OMV-ben a Dokcker arra fog épülni és így könnyebb lesz a menedzselés, illetve a backup, mert most nincs más csak ha parancssori mókolás ha konténert akarok lementeni és nem újra konfiglni.
....iPhone 13 / iPad 9th Gen. Wifi 64GB...
-
stigma
addikt
Köszi mindkettőtöknek, ebben még nem annyira vagyok profi, de biztos találok vaamit a neten ahonnan össze tudom ollózni.
Hosztolni csak 1 -et akarok csak minidig van valamit amit kitalálok és le akarom tesztelni ezért van az, hogy több portot is át kell irányítanom mert ugye nem lehet egyszerre 2 eszközömnek ugyanugy a 80-as vagy 443-as portot használni.
Ebben az esetben most a NAS-on lévő Nextcloud használja a 80 és 433-as portot, de most egy Rock64-et ha tesztelek dockert és ugyanezeket a Nextcloud appot akkor azt már mondjuk 8080-as vagy 4443-as portokra kell kiengednem.OMV = Openmediavault.
NAs oprendszer, kis vason is tökéletesen fut. Kb 1 éve ezt használom nagy megelégedésre egy Asrock J4105-ITX lappal és 8GB rammal, melyből kb 4GB is elég lenne.......iPhone 13 / iPad 9th Gen. Wifi 64GB...
-
stigma
addikt
Néha picit nehézkesen írok, mert még én is tanulom a Docker-t és a hozzá passzoló szavakat, szóval bocs ha valamit máshogy fogalmazom.
Pont erre van szükségem,mert otthon egy NUC-ról megy a filmezés, melyen Libreelec rendszer van telepítve, ahova 1 kattintással Dockert és Portainer-t tudok varázsolni ezáltal már egyszerűbben fel tudom/tudnám tenni.Portainer-t hétvégén 10 perc erejéig tettem fel, és próbáltam ki, ott még nagyon sok minden ismeretlen számomra, szóval ha lesz időm hétvégén elolvasom a hivatalos oldalon lévő dokumentációt vagy rákeresek youtube videok-ra hogy nyomják a profik
Illetve a NAS oprendszere-újabb változatában beépítették a Portrainer-t mint Docker konténer kezelőt így ha megtanulom, akkor két legyet ütök egy csapásra
....iPhone 13 / iPad 9th Gen. Wifi 64GB...
-
stigma
addikt
Hali, köszi a példát és a megosztást.
Nextcloud jobb sokkal, csak ezeken az ARM procikon az alap funckiókra valamivel gyorsabban pufferelt az Owncloud, igaz az nem Docker-ben volt hanem kézi telepítéssel.Többi miatt priviben kereslek.
....iPhone 13 / iPad 9th Gen. Wifi 64GB...
-
instantwater
addikt
Bitwarden felhős fiókot kér.
Köszönöm, így tudom, hogy hogyan és hol van az adatbázisom, nem pedig egy nagy közös adatbázisban kitudja milyen titkosítással.Ez a baj, hogy hallani sem hallottak róla
Nyugatabbra azért jobb a helyzet.Mikor fogja az ELTE ismerni legalább azt a szót, hogy konténerizáció, és hálózatok?
Amikor én jártam az IK-ra néhány éve, még mindig a "szekvenciális inputfájlból" című feladatok voltak különféle módon.
Köszönöm, a főnököm többet fizet, ha gyors a szerver, mintha jól tudok text fájlból maximumot keresni.
-
stigma
addikt
Ebben igazad van, első körben utátanézek, olvasgatok ennek az egésznek, mert persze ehhez is nagy elánnal álltam neki , főleg hogy tudatlan vagyok.
Owncloud-ot max csak ki akartam próbálni milyen a 10-es verzió, mert otthonra alap
felahsználásnak tökéletes lenne.
Leszedni és futtani sikerült, de persze valamit szarul konfiguráltam, így nem megy..
Nextcloud-om fut, mail szervert sikerült Google fiókkal összekötni, köszi a segítséget....iPhone 13 / iPad 9th Gen. Wifi 64GB...
-
instantwater
addikt
A Docker nem segít inkompatibilis alkalmazások esetén.
Javasolnám, hogy csak LTS verziókat használj azokból a szoftverekből amiket konténerizálsz, így viszonylag ritkán, pár havonta vagy évente kell csak frissítened, függően a szoftvered kiadási ciklusaitól.
Én a hetekben szaladtam bele egy elég komoly hibába ezzel kapcsolatban.
Node.js app, rejtélyes memóriaszivárgással.Kiderült, hogy a kolléga amikor megírta a Dockerfilet úgy döntött, hogy ő Node 9-et fog használni, mert akkor még az volt a legfrissebb.
Viszont a hibát ott követte el, hogy a 9-es verzió nem LTS, tehát nem a stabilitásra van kihegyezve, hanem az új featurek tesztelésére, Node 8 lett volna a helyes döntés ami ugyan régebbi de LTS.Frissítettem Node 10-re a Dockerfilet, újrabuildeltem az imaget, és láss csodát elmúlt a memóriaszivárgás.
A Node 10 az egy LTS verzió.
Productionben ez a minimum, hogy amit lehet, azt stabilt használni, de home serveren miért szívatnád magad instabil verziók tesztelésével?
Neked a saját kis szervered a production, annak kell kiszolgálnia az igényeidet.
Kivéve ha az igényed az, hogy minél jobb hibakereső legyél. -
szuszinho
őstag
Nem működik
A gép IP: 192.168.143.107, 1194 portot nyitottam a routerben. DDNS beállítva.
Openvpn: felvettem egy új felhasználót, admint töröltem, as.conf fájlt is módosítottam. A server name alapból 172.19.0.2. Ezt írom át a ddns címre. Listen on all interfaces yes.
Ami érdekes, hogy eth0-t is lehet választani, de nincs ilyen interface.Telefonon próbálok csatlakozni: Access Server, itt megadom a szükséges adatokat, majd ezt kapom: Failed to import file.
-
szuszinho
őstag
A pubilc IP van a ddns-ben beállítva. (Nem is tudom, lehet-e mást).
A többit megnézem.
version: "2"
services:
openvpn-as:
image: linuxserver/openvpn-as
container_name: openvpn-as
cap_add:
- NET_ADMIN
environment:
- PUID=1000
- PGID=1000
- TZ=Europe/Budapest
volumes:
- openvpn:/config
ports:
- 943:943
- 9443:9443
- 1194:1194/udp
restart: unless-stopped[ Szerkesztve ]
-
instantwater
addikt
Eléggé más dologra vannak kitalálva.
A compose az "egygépes" környezetre van kitalálva, hogy szépen besshzol majd upolsz amit akarsz.
Ennek egy doppingolása volt a swarm ami végül nem lett népszerű.A Kubernetes pedig egy 3..n (n=10,20,100) szerveres környezetre van kitalálva, ahol
a rendszer dönti el, hogy melyik konténer melyik fizikai gépre kerüljön,
költözteti őket, ha lehal egy gép,
automatikusan bekonfigurálja a gépek között a routolást, hogy mindegy legyen melyik gépen fut a konténered,
hálózati meghajtókat csatol,
loadbalancereket kér az infrastruktúra szolgáltatótól,
logot gyűjt központosítva,
névtereket kezel,
dinamikusan bekonfigurálja a konténereid környezeti változóit, nem kell kézzel fájlokat barkácsolnod majd feltöltened minden szerverre,
monitorozza az erőforrásokat és képes autoscalingre,
feltételek alapján priorizálja az erőforrások kiosztását, és a legalacsonyabb prioritású konténereket lövi ki először, hogy a magasab prioritásúak tovább futhassanak.Az egyik legnagyobb előnye, hogyha olyan konténereid vannak amik kimaxolják a gép erőforrásait, akkor a stackedet kiteszi több gépre, és menetközben skálázni is tud.
Ezt a composevel nem lehet megcsinálni.
Ezért találták ki a Swarmot, de az már történelem.Körtét az almával.
-
őstag
Hát ez tényleg csúnyácska...
Találkoztam én is egy ilyesmivel, de este már nem sikerült felfognom. Túl bonyolultnak tűnt, de úgy látszik ez a megoldás.
Marad az általad javasolt megoldás. Tegnap egyből indult is, látják egymást a konténerek név alapján.
Köszönöm a segítséget! -
samujózsi
tag
Bocs, félálomban írtam: a host saját lo interface-ére gondoltam a 127.0.0.1 kapcsán. Mert ha csak azon hallgat az adott port, akkor kívülről nem lehet elérni.
Az továbbra sem tiszta, hogy ha egymástól független alkalmazáscsomagoknak adnék közös szolgáltatást, azoknak hogyan illene ezt összerakni.
Mondjuk syslog szerver vagy pl adatbázis szerver, amiben a különböző szolgáltatások eltérő sémába dolgoznak közös szerveren.Restart: konkrétan kipróbáltam a fentieket, mielőtt leírtam:
docker run alpine
Kaptam egy promptot.cd root
touch x.x
ctrl-ddocker restart xxxx (fenti konténer)
docker exec -it xxxx /bin/sh
ls -l root
És ott az x.xLehet, hogy hibás az ubuntu 18.04 docker csomagja, de nálam így működik.
Primadonnát felveszünk! https://youtu.be/9lETrcMJZJM
-
samujózsi
tag
A best practice számomra az, hogy a közös pontot a futtató hoston a 127.0.0.1 címen publikálom és csak a portot kell megjegyezni, a host asszem, elérhető valamilyen névvel. Szóval kb amit írsz. Csak azt hittem, van valami más, "szabványos" mód is.
Még nem jutottam el oda, hogy beizzítsam a notebookon a konténereket. Próbálok majd logot készíteni a konténer létrehozásáról és a restartokról. Semmi szándékos perzisztencia nincs benne.
Primadonnát felveszünk! https://youtu.be/9lETrcMJZJM
-
samujózsi
tag
Most kipróbáltam másik kvm-ben, az előzőben valami el lett... szóval ellett... izé el lett...
Megy a docker ufw mellett is a kvm guestben.
Csak azt utálom, hogy ha szabályozni akarom adott szolgáltatás elérhetőségét, akkor azt manuálisan kell, mert a docker ahogy korábban megtárgyaltuk, belepiszkál az iptables táblákba.[ Szerkesztve ]
Primadonnát felveszünk! https://youtu.be/9lETrcMJZJM
-
samujózsi
tag
Csak a root vs nem root témára reagálnék, mert most mobilon vagyok.
Ubuntu 18.04:apt install docker.io
docker run --rm -v /tmp:/xxx -it alpine
#/ touch /xxx/valami
ctrl-d
ls -l /tmp/valamiLehet, hogy meg fogsz lepődni?
De ha még fut a konténer és nézel egy
ps xau
kimenetet, ott is root a user.Vagy... ha épp üres a géped, indíts el egy fork-bomb parancsot egy konténerben (valami dereng, hogy alpine konténerrel pont nem ment)
Csak előtte nem árt egy sync, mert esélyes, hogy a host is vele megy.Nem tudom, mindez mennyire ubuntu specifikus.
Ui: összes szoftver=bináris+függőségek+shell+... rengeteg dolog van még egy alpine konténerben is, hát még egy centos v. ubuntu konténerben...
[ Szerkesztve ]
Primadonnát felveszünk! https://youtu.be/9lETrcMJZJM
-
samujózsi
tag
No, szóval már a gép mellől.
Elindítottam egy nginx konténert, ez debian (vagy ubuntu?) alapú:root@aae537fa9531:/# dpkg -l | grep '^ii' | wc -l
118
Ez azt jelenti, hogy 118 telepített, karbantartandó csomag.
118 olyan csomag, amelyekben bárhol, bármikor felfedezhetnek valamilyen hibát. Pedig csak egy mezítlábas nginx, alkalmazás nélkül. Ha még mellé kerül valami keretrendszer, akár php, akár python (erről lehet vitatkozni, hogy az külön konténer vagy mehetnek egybe), az még több függőséget jelent.És amíg csak én játszom a saját gépemen, addig ez belefér, de ha valami érzékeny adatokat tároló szolgáltatásról van szó? Egy debian/ubuntu szerveren kiadok egy
apt-get update && apt-get upgrade
parancsot, akkor látom, hogy jött-e update. Egy régi, stabil rendszeren ez nagyon sokáig úgy tér vissza, hogy nincs semmi update. Aztán hirtelen jön egy, amikor találnak valamit és javítják. Ezt dockerben hogy kezeled? Én eddig annyit találtam, hogy lesem az alap image dátumát és ha változik, akkor rebuild (a pull átírja a futó image-hez tartozó layereket is?). Nem túl szimpatikus.
És akkor még ott van a buildeléskor felrakott csomag és függőségei, amit (ez most jutott eszembe) a base image készítője nem is fog update-elni.Primadonnát felveszünk! https://youtu.be/9lETrcMJZJM
-
samujózsi
tag
Nem értesz: a konténerben root vagyok, a /tmp-be írt fájl a host szerint is a root tulajdona.
Ha beállítom a user mappinget a /etc/docker/daemon.json fájlban, akkor már nem.
Ez így alapjáraton (nincs user mapping) elég necces számomra. De valami oka biztosan van, hogy a default szerint a hoston lévő user/group id-ket használja...Ahogy az update-tel kapcsolatos aggályaimat sem igazán. O.K., a base image-ben lévőkkel talán nincs gond, a pull lehúzza és egy restartnál már élhetnek. De mi van azokkal, amiket a build során telepítettem? Azok nem részei a base-nek, így a pull nem hozza a javítást rájuk.
Ha nem követem az általam telepített csomagok minden egyes update-jét, akkor hogyan fognak felkerülni? Mondjuk egy squid hoz magával 10-20 csomagot függőségként pluszban, a base image-en felül. Két build közt, ha egyáltalán van rajta csomagkezelő (többnyire van), akkor minden eddigi javaslattal szembe menve, kénytelen vagyok a csomagkezelő update funkcióját használni két rebuild között.squid - elvileg tud syslog-ba logolni (-s -l kapcsolók), a konténert --log-driver=journal-lal indítom, a logok mégis a /var/log/squid alá mennek. (most láttam, lehet, hogy a /dev/log-ot is mappelni kéne, majd megnézem)
Update: részben valóban a /dev/log mappelése hiányzott, bár így sem kerek a történet, mert miért írja a syslogba is? De ez már lehet, hogy a systemd hülyesége, nem a dockeré.
[ Szerkesztve ]
Primadonnát felveszünk! https://youtu.be/9lETrcMJZJM
-
samujózsi
tag
Elég sokban, de most ha akarnám se tudnám részletezni.
Előtte mindenképp végig akarom nézni a fenti linken lévő válaszokat.
Csak egy kiragadott dolog: ezzel plusz munka van. Ha nincs konténer, akkor ott van készen a korrekt, működő update, itt meg továbbra is úgy értem, nekem kell gányolni, hogy minden naprakész legyen.Primadonnát felveszünk! https://youtu.be/9lETrcMJZJM
-
-
samujózsi
tag
szerintem ezt gondold àt újra, mert kb semmi köze ahhoz, amit írtam... épp azt írtam, hogy egy ilyen update/patch telepítésének megvan a maga rendje. Általában. Azért volt már olyan, ami akkora lyukat javított, hogy teszt nélkül fel kellett zavarni az éles szerverre.
IPS/IDS meg nem igazán arra van, hogy helyettesítse a biztonsági patch-ek telepítését.
Primadonnát felveszünk! https://youtu.be/9lETrcMJZJM
-
samujózsi
tag
Hűbammeg... hát ebből jobb ha kimaradok.
És ilyenkor röhög a rossz májam, az "én megmondtam", hogy ez a docker azért elég necces játék, mert amíg egy disztro készítőjében, ha kényszerből is, de megbízom, addig a docker, amit nem from scratch építek... és ugye a docker egyik nagy előnye pont az lenne, hogy a from scratch kihagyható.(#223) huliganboy
Akkor eleve tárgytalan amit írtam. Egyébként az ötlet onnan jött, hogy log általában van, ha a konténer elindul normálisan.Primadonnát felveszünk! https://youtu.be/9lETrcMJZJM
-
instantwater
addikt
Azért kell neki olvasási jog a Docker sockethez, mert figyeli a futó konténereket, és amelyiken megfelelő változók vannak konfigurálva, azokhoz beállítja a proxyzást.
Úgy gondolom, hogy egy olyan image amit már több mint 100 milliószor letöltöttek nem adhat okot aggodalomra.
Illetve teljesen opensource a megoldás, tehát, ha akarod leszedheted GitHubról és buildelheted magadnak. Ott is van közel 13 ezer csillagja.
Használtam már számtalanszor, és nagyon jól jön, ha csak egy sima Docker hostod van, és kényelmesen akarsz több dolgot futtatni rajta.
Mondjuk oda kell figyelni, mert ha a standard 80/443 porton figyel a proxy, akkor céltáblája lehet különböző botoknak de valamit valamiért, és az eredeti példában szereplő random portok nem éppen megfelelő védelem a botok ellen.
Inkább valami fail2ban vagy tűzfal a megoldás.[ Szerkesztve ]
-
őstag
Az a baj ezzel, hogy a Hyper-V konzolon keresztül elérhetetlen ez a VM, a vhdx file-t felcsatolja, de az ext4 fájlrendszerrel már nem tud mit kezdeni ez a szerencsétlen. Így sajnos nem tudom szépen megoldani, marad a szokásos felmountolás. (C:\kulso\mappa:/belso/mappa)
Rimuru: Próbáltam már korábban is az inspect-et, de nem nagyon segített:
"CreatedAt": "2020-02-20T19:48:01Z",
"Driver": "local",
"Labels": {},
"Mountpoint": "/var/lib/docker/volumes/test_test/_data",
"Name": "test_test",
"Options": {},
"Scope": "local"Hát nem ezzel lett szimpatikusabb a Windows...
-
szuszinho
őstag
Dehogy veszem kioktatásnak! Elég hiányosak ezen ismereteim, olvasok is bőszen.
Szóval, létrehoztam a qbit-xyz.duckdns.org-ot. Mikor végre megértem, és összeáll a kép, regisztrálok majd "igazi" domaint.
Most a letsencrypt konfig fog ki rajtam. A minta fájlhoz az átnevezésén kívül, ha a port megegyezik, nem kell nyúlni. Viszont, a default szerveres fájlt nem tudom hogy kellene belőni. Aztán most még azt sem, hogy az azonos portot használó konténereket hogy kell majd beállítani. Keresgélek... -
szuszinho
őstag
Akkor mégis csak kell portokat változtatni (átmappelni), mint reverse proxy nélkül, csak nem a portot kell megjegyezni, hanem a subdomain-t. Akkor ezt értem
Ami nem akar még összeállni, az az, hogy hogyan kell ezt megoldani. Tehát a konkrét példa, hogy van egyelőre az yxz.duckdns.org és a qbit-xzy.duckdns.org. Előzőre bejön a szükséges oldal, de a az utóbbira nem tudom beállítani az alkalmazást.
Csak ismételni tudom magam, hogy azt csináltam eddig, hogy a sample fájlt átneveztem a proxy-confs mappában. A gondom az, hogy nem tudom a site-confs mappába kell-e a default fájlon kívül egyéb, illetve maga a default fájl tartalma hogy is nézzen ki. (Qbit fut, IP+port segítségével elérem.) -
Silεncε
őstag
duckdns esetén is simán lehet aldomaineket létrehozni, én karácsony tájékán lőttem be egy ilyen (cloud.xyz.duckdns.org, stb). Én úgy oldottam meg, hogy az nginx configban adtam meg a különböző domaineket egyesével mint location, majd ezek lettek továbbküldve localhost megfelelő portjára. Hogy ez mennyire jó megoldás, nem tudom, de működött (és még Let's encrypttel SSL is volt ráhúzva).
Új hozzászólás Aktív témák
- BestBuy ruhás topik
- Autós topik
- Aliexpress tapasztalatok
- Friss adatok érkeztek a Lunar Lake-MX-ről
- Path of Exile (ARPG)
- EAFC 24
- Poco X6 Pro - ötös alá
- Százmillió Samsung telepítheti a One UI 6.1-et és a Galaxy AI-t
- GTA V
- Nem lesznek olcsók az új, ARM-os és windowsos notebookok
- További aktív témák...
- Bontatlan - BATTLEFIELD 1 Collectors Edition - Játékszoftver nélkül
- Eladó aktív domain nevek, weboldal tartalommal együtt
- Bitdefender Total Security 3év/3eszköz! - "Tökéletes védelem most kedvező áron..."
- Steam,EA,Epic és egyébb játékok Pc-re vagy XBox!
- Windows 10/11 Home/Pro , Office OEM/Retail kulcsok