Puncte:0

Nu pot pune LCX bridge să funcționeze

drapel jp

Nu pot obține un bridge de rețea sub arch-linux (actualizat) ca gazdă să funcționeze: Sunt conștient că valoarea implicită lxc este citită la momentul creării containerului (am creat un container nou după modificarea setărilor de rețea).

(bază) [r0b3@toshi ~]$ sudo lxc-start -n container32 --logfile aaaaxxxxxs.txt --logpriority DEBUG
lxc-start: container32: lxccontainer.c: wait_on_daemonized_start: 868 A primit starea containerului „ABORTING” în loc de „RUNNING”
lxc-start: container32: tools/lxc_start.c: main: 308 Containerul nu a pornit
lxc-start: container32: tools/lxc_start.c: main: 311 Pentru a obține mai multe detalii, rulați containerul în modul prim-plan
lxc-start: container32: tools/lxc_start.c: main: 313 Informații suplimentare pot fi obținute prin setarea opțiunilor --logfile și --logpriority

Ultimul conținut al jurnalului este:

lxc-start container32 20210620114326.855 WARN cgfsng - cgroups/cgfsng.c:cgfsng_setup_limits_legacy:2749 - Argument nevalid - Ignorarea limitelor vechi cgroup pe sistemul cgroup2 pur
lxc-start container32 20210620114326.856 INFO cgfsng - cgroups/cgfsng.c:cgfsng_setup_limits:2857 - Au fost setate limitele pentru ierarhia cgroup unificată
lxc-start container32 20210620114326.862 EROARE network - network.c:netdev_configure_server_veth:659 - Operațiunea nu este acceptată - Nu s-a putut crea perechea veth „vethotXiCD” și „vethMRVTzD”
lxc-start container32 20210620114326.862 EROARE network - network.c:lxc_create_network_priv:3418 - Operațiunea nu este acceptată - Nu s-a putut crea dispozitivul de rețea
lxc-start container32 20210620114326.862 EROARE start - start.c:lxc_spawn:1844 - Nu s-a putut crea rețeaua
lxc-start container32 20210620114326.862 DEBUG network - network.c:lxc_delete_network:4180 - Dispozitive de rețea șterse
lxc-start container32 20210620114326.862 EROARE lxccontainer - lxccontainer.c:wait_on_daemonized_start:868 - A primit starea containerului „ABORTING” în loc de „RUNNING”
lxc-start container32 20210620114326.862 EROARE lxc_start - tools/lxc_start.c:main:308 - Containerul nu a pornit
lxc-start container32 20210620114326.862 EROARE lxc_start - tools/lxc_start.c:main:311 - Pentru a obține mai multe detalii, rulați containerul în modul prim-plan
lxc-start container32 20210620114326.862 EROARE lxc_start - tools/lxc_start.c:main:313 - Informații suplimentare pot fi obținute prin setarea opțiunilor --logfile și --logpriority
lxc-start container32 20210620114326.862 EROARE start - start.c:__lxc_start:2073 - Nu s-a putut genera containerul „container32”
lxc-start container32 20210620114326.862 WARN start - start.c:lxc_abort:1016 - Niciun astfel de proces - Nu s-a putut trimite SIGKILL prin pidfd 20 pentru procesul 128228
lxc-start container32 20210620114326.863 INFO conf - conf.c:run_script_argv:332 - Se execută scriptul „/usr/share/lxcfs/lxc.reboot.hook” pentru containerul „container32”, secțiunea de configurare „lxc”

depanare pana acum:

configurația containerului cat /etc/lxc/default.conf

cat /etc/lxc/default.conf
#lxc.net.0.type = niciunul

#lxc.net.0.type = veth
##lxc.net.0.link = lxcbr0
#lxc.net.0.link = br1
##lxc.net.0.flags = sus
#lxc.net.0.hwaddr = 00:16:3e:xx:xx:xx
#lxc.net.0.name = eth0



lxc.net.0.type = veth
lxc.net.0.flags = sus
lxc.net.0.link = lxcbr0
lxc.net.0.name = eth0
lxc.net.0.hwaddr = 00:16:3e:f9:d3:03
lxc.net.0.mtu = 1500

podul pare a fi sus systemctl status --lines=0 --no-pager lxc.service lxc-net.service

â lxc.service - Inițializarea containerului LXC și codul de pornire automată
     Încărcat: încărcat (/usr/lib/systemd/system/lxc.service; dezactivat; prestabilit furnizor: dezactivat)
     Activ: activ (ieșit) din Dum 2021-06-20 13:42:03 CEST; acum 12 minute
       Documente: man:lxc-autostart
             bărbat: lxc
    Proces: 128157 ExecStartPre=/usr/lib/lxc/lxc-apparmor-load (cod=ieșit, stare=0/SUCCESS)
    Proces: 128158 ExecStart=/usr/lib/lxc/lxc-containers start (cod=exit, status=0/SUCCESS)
   PID principal: 128158 (cod=ieșit, stare=0/SUCCESS)
        CPU: 24 ms

â lxc-net.service - Configurare punte de rețea LXC
     Încărcat: încărcat (/usr/lib/systemd/system/lxc-net.service; activat; prestabilit furnizor: dezactivat)
     Activ: activ (ieșit) din Dum 2021-06-20 13:42:00 CEST; acum 12 minute
       Documente: man:lxc
    Proces: 128126 ExecStart=/usr/lib/lxc/lxc-net start (cod=exit, status=0/SUCCESS)
   PID principal: 128126 (cod=ieșit, stare=0/SUCCESS)
      Sarcini: 1 (limită: 9421)
     Memorie: 1,1 M
        CPU: 38 ms
     CGroup: /system.slice/lxc-net.service
             ââ128150 dnsmasq --conf-file=/dev/null -u dnsmasq --strict-order --bind-interfaces --pid-file=/run/lxc/dnsmasq.pid --listen-address 10.0.3.1 --dhcp-range â¦

ip a

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue stare UNKNOWN grup implicit qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft pentru totdeauna preferred_lft pentru totdeauna
    inet6 ::1/128 scope host 
       valid_lft pentru totdeauna preferred_lft pentru totdeauna
2: enp4s0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
    link/ether 7c:05:07:ff:2e:14 brd ff:ff:ff:ff:ff:ff
3: wlp3s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue stare UP grup implicit qlen 1000
    link/ether 24:fd:52:cf:c9:86 brd ff:ff:ff:ff:ff:ff
    inet 192.168.0.153/24 brd 192.168.0.255 scope global dynamic noprefixroute wlp3s0
       valid_lft 544603sec preferred_lft 469003sec
    inet6 2a02:810a:8cc0:5310:26fd:52ff:fecf:c986/64 scope global dynamic mngtmpaddr 
       valid_lft 86399sec preferred_lft 43199sec
    inet6 fe80::26fd:52ff:fecf:c986/64 scope link 
       valid_lft pentru totdeauna preferred_lft pentru totdeauna
4: docker0: <NO-CARRIER, BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN grup implicit 
    link/ether 02:42:09:84:64:c2 brd ff:ff:ff:ff:ff:ff
    inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
       valid_lft pentru totdeauna preferred_lft pentru totdeauna
23: lxcbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN grup implicit qlen 1000
    link/ether 00:16:3e:00:00:00 brd ff:ff:ff:ff:ff:ff
    inet 10.0.3.1/24 brd 10.0.3.255 scope global lxcbr0
       valid_lft pentru totdeauna preferred_lft pentru totdeauna

journalctl -u lxc-net.service

20 iunie 13:42:00 toshi systemd[1]: Se pornește configurarea podului de rețea LXC...
20 iunie 13:42:00 toshi dnsmasq[128150]: gestartet, Versiunea 2.85, ZwischenspeichergröÃe 150
Jun 20 13:42:00 toshi dnsmasq[128150]: Optionen bei Ãbersetzung: IPv6 GNU-getopt DBus no-UBus i18n IDN2 DHCP DHCPv6 no-Lua TFTP conntrack ipset auth cryptohash DNSSEC >
20 iunie 13:42:00 toshi systemd[1]: Configurarea podului de rețea LXC finalizată.
20 iunie 13:42:00 toshi dnsmasq-dhcp[128150]: DHCP, IP-Bereich 10.0.3.2 -- 10.0.3.254, Leasezeit 1h
20 iunie 13:42:00 toshi dnsmasq-dhcp[128150]: DHCP, Sockets exclusiv an die Schnittstelle lxcbr0 gebunden
20 iunie 13:42:00 toshi dnsmasq[128150]: lese /etc/resolv.conf
20 iunie 13:42:00 toshi dnsmasq[128150]: Benutze Namensserver 192.168.0.1#53
20 iunie 13:42:00 toshi dnsmasq[128150]: /etc/hosts gelesen - 3 Adressen
A.B avatar
drapel cl
A.B
Problema relevantă este acolo `lxc-start container32 20210620114326.862 EROARE network - network.c:netdev_configure_server_veth:659 - Operațiunea nu este acceptată - Nu s-a creat perechea veth "vethotXiCD" și "vethMRVTzD"`. Rulați un nucleu personalizat? Ați uitat să activați interfețele CONFIG_VETH în configurația sa? Bănuiesc că nici Docker nu funcționează, nu-i așa?
A.B avatar
drapel cl
A.B
Puteți rula cu succes ca root această comandă? `ip link add name vethA tip veth peer name vethB` (verificați existența interfețelor cu `ip link show type veth`)
drapel jp
`[root@toshi ~]# ip link add name vethA tip veth peer name vethB Eroare: tip de dispozitiv necunoscut.`
drapel jp
Nu am compilat nucleul, folosesc nucleul standard Arch Linux
A.B avatar
drapel cl
A.B
Oricum, comanda de mai sus nu a funcționat în timp ce ar fi trebuit să funcționeze.Aveți o problemă de suport pentru kernel care este cauza problemelor dvs. ce zici de `grep CONFIG_VETH /boot/config*`? precum și `uname -r`. Poate că nu folosiți cu adevărat Arch, ci un fel de VPS precum openvz care împiedică utilizarea nucleului lui Arch. Vă rugăm să instalați https://aur.archlinux.org/packages/virt-what/ și să rulați comanda. Care este rezultatul?
drapel jp
`uname -r` dă `5.12.11-arch1-1`, sunt pe o mașină reală pentru că o pot lins aici. /boot/config* nici măcar nu există!
Puncte:1
drapel jp

Problema a fost că funcționalitatea „ethernet virtual” necesită veth conducător auto. Acest driver este/nu a fost compilat în nucleu, dar poate fi încărcat ca modul.

Încărcarea manuală a driverului cu sudo modprobe veth a facut truc.

A.B avatar
drapel cl
A.B
Ar trebui să fie încărcat automat. Nu m-am gândit la faptul că nu ar fi. Mai există ceva care împiedică acest lucru în configurația dvs., dar mă bucur că ați găsit o soluție.

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.