Bookworm friert nach Sicherheitsupdate regelmäßig ein

Alles rund um sicherheitsrelevante Fragen und Probleme.
Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 13.07.2024 12:17:44

Anfang des Monats habe ich seit längerem mal wieder alle Sicherheitsupdates in Bookworm auf meinm NUC8 eingespielt (dist-upgrage). Seitdem macht das System Probleme:

Der Webbrowser führt zu sehr hoher CPU-Last auf aufwendigen Webseiten. Nach kurzer Zeit ruckelt der Mauszeiger beim Bewegen bis er sich gar nicht bewegt. Auf Tatsatureingaben erfolgt keine Reaktion. Sogar die Uhr in der Taskleiste bleibt stehen. Ich habe ein Diagramm der CPU-Auslastung und Speichernutzung in der Taskleiste (LXDE-Plugin). Speicherauslastung ist nur bei 50%, CPU am Anschlag. Beide Flussdiagramme bleiben natürlich auch stehen.
Mit viel Glück konnte ich nun mehrfach auf einen Textconsole wechseln und 'top' starten. Allerdings sehe ich keine Prozesse dauerhaft, die wirklich weit am Anschlag sind. Ich habe die wenige andere Software aus externen Quellen schon beendet, ohne das der Fehler verschwindet. Der Browser selber ist nicht mal bei jedem Aktualisierungszyklus in Top mit Spitzenlast zu sehen.
Wenn ich nichts mache, dann fängt sich das System nach einigen Minuten wieder und die CPU-Auslastung geht komplett runter. Doch sobald ich über die Webseite auch nur die Maus wieder bewege, schießt sie wieder hoch und blockiert das System erneut. :(

Der Fehler (=System einfrieren) tritt sowohl in Firefox als auch im Chromium-Browser auf. Sehr schnell passiert das z.B. auf heise.de, wenn ich durch einige Artikel browse. Aber auch Amazon und anderen Seiten hatte ich das Problem schon. Ich glaube nicht, dass es am Browser selbst liegt. Zwar wurden beide aktualisiert, aber das wäre wirklich ein Zufall. Ich konnte Firefox heute auch nun noch ein zweites mal aktualisieren - ohne das sich am Fehler etwas ändert.

Ich bin gerade ziemlich ratlos, wie ich dem Fehler noch auf die Spur kommen kann. Hat jemand noch ein Tipp? Hier mal ein paar Kandidaten, welche bei dem Sicherheitsupdate aktualisiert wurde. Ist jemanden da vielleicht zufällig ein Bug/Issue bekannt, der darauf zutreffen könnte:

Code: Alles auswählen

Entpacken von linux-image-amd64 (6.1.94-1) über (6.1.38-4) ...
Entpacken von firefox-esr (115.12.0esr-1~deb12u1) über (115.9.1esr-1~deb12u1) ...
Entpacken von chromium (126.0.6478.126-1~deb12u1) über (122.0.6261.128-1~deb12u1) ...
Entpacken von libc6:amd64 (2.36-9+deb12u7) über (2.36-9+deb12u4) ...
Entpacken von xserver-xorg-legacy (2:21.1.7-3+deb12u7) über (2:21.1.7-3+deb12u2) ...
Entpacken von xserver-xorg-core (2:21.1.7-3+deb12u7) über (2:21.1.7-3+deb12u2) ...
heute nochmal:
Entpacken von firefox-esr (115.13.0esr-1~deb12u1) über (115.12.0esr-1~deb12u1) ...


Vor dem Update lief das System wie gesagt einwandfrei. Neustart auf den neuen Kernel habe ich selbstverständlich auch durchgeführt. Ich nutze das System selbstverständlich als normaler User und nicht als root. Insofern bin ich erstaunt, dass Userprozesse es überhaupt dermaßen blockieren können.

kreuzschnabel
Beiträge: 497
Registriert: 24.09.2020 14:51:14

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von kreuzschnabel » 13.07.2024 12:33:47

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 12:17:44
Vor dem Update lief das System wie gesagt einwandfrei. Neustart auf den neuen Kernel habe ich selbstverständlich auch durchgeführt.
Läuft’s jetzt noch mit dem alten Kernel?

Dein Desktop ist LXDE, wie du mehr versehentlich nebenbei verrätst?
Ich nutze das System selbstverständlich als normaler User und nicht als root. Insofern bin ich erstaunt, dass Userprozesse es überhaupt dermaßen blockieren können.
Doch, das geht schon :) außer du setzt entsprechende Beschränkungen.

--ks
Hier so: Debian Stable/Sid (nach Laune) – KDE Plasma – Lenovo Thinkpad T470p – i7-7700HQ – 32GB RAM

mat6937
Beiträge: 3363
Registriert: 09.12.2014 10:44:00

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von mat6937 » 13.07.2024 12:33:59

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 12:17:44
Der Browser selber ist nicht mal bei jedem Aktualisierungszyklus in Top mit Spitzenlast zu sehen.
Wie ist bei solcher Spitzenlast, der Speicherverbrauch bzw. gibt es Dienste die (evtl. nur temporär) swap-Speicher benutzen?

Code: Alles auswählen

free -m
smem -t -p
?
Debian 12.8 mit LXDE, OpenBSD 7.6 mit i3wm, FreeBSD 14.1 mit Xfce

Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 13.07.2024 12:37:15

Ich nutze gar kein swap. kswapd0 stand bei top immer auf 100% oder 99,9%, aber das scheint wohl irgendwie eine Fehlanzeige zu sein. Speicher war immer nur bei 50% (wenn man cached zeug rausrechne). Aber ich kann es noch mal versuchen nachzustellen und kurz vor dem vollständigen Blockieren die beiden Befehle auszuführen.

Nachtrag: Wie es so ist, lässt sich der Fehler gerade nicht nachstellen. Dabei hatte ich eben nur einmal xorg neugestartet (Ctrl-Alt-Backspace), als ein kleines grafisches Kästchen an der Taskleiste stehen geblieben war und die LXDE-Taskleiste auf Klicks nicht mehr reagierte - unmittelbar nach so einem längeren Hänger des Browsers.
Zuletzt geändert von Kermit24 am 13.07.2024 12:45:31, insgesamt 1-mal geändert.

mat6937
Beiträge: 3363
Registriert: 09.12.2014 10:44:00

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von mat6937 » 13.07.2024 12:42:28

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 12:37:15
Ich nutze gar kein swap.
Ich auch nicht, aber bookworm wollte das schon, in/mit der default config. Denn dort wo bullseye (LXDE) nur 250 MB im RAM braucht, sind es mit bookworm (LXDE) schon ca. 700 MB im RAM.
Debian 12.8 mit LXDE, OpenBSD 7.6 mit i3wm, FreeBSD 14.1 mit Xfce

Benutzeravatar
MSfree
Beiträge: 11604
Registriert: 25.09.2007 19:59:30

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von MSfree » 13.07.2024 12:48:18

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 12:17:44
Der Webbrowser führt zu sehr hoher CPU-Last auf aufwendigen Webseiten. Nach kurzer Zeit ruckelt der Mauszeiger beim Bewegen bis er sich gar nicht bewegt.
Das ist ein typisches Zeichen dafür, daß du den falschen Treiber für deine Graphik benutzt.

Was ergibt die Ausgabe von

Code: Alles auswählen

dpkg -l xserver\*

Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 13.07.2024 13:18:21

Vielleicht hast Du recht. Ich hatte ja auch swap im verdacht, da kswapd0 (ProcessID 80) unter top mit 99,9% CPU Usage erscheint, aber nicht in der Gesamtlast auftaucht. Kann man irgendwo feststellen, ob Swap eingeschaltet ist? In /etc/fstab oder /etc/mtab taucht nichts auf. Ich habe auch keine Swap-Partiton.
free -m zeigt aktuell, wo ich wirklich 2 Browser gleichzeitg und sehr viele Tabs aufhabe (deutlich mehr als bei dem Fehler):

Code: Alles auswählen

 
              gesamt       benutzt     frei      gemns.  Puffer/Cache verfügbar
Speicher:      15876        8429        4235        1008        4539        7447
Swap:              0           0           0
Ich verstehe nicht, warum ich den Fehler jetzt nicht mehr nachstellen kann: Beim ersten mal habe ich nach den Einfrieren den ganzen Rechner neugestartet. Danach hatte ich auch eine gewisse Zeit wieder Ruhe.

Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 13.07.2024 13:20:32

MSfree hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 12:48:18
Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 12:17:44
Der Webbrowser führt zu sehr hoher CPU-Last auf aufwendigen Webseiten. Nach kurzer Zeit ruckelt der Mauszeiger beim Bewegen bis er sich gar nicht bewegt.
Das ist ein typisches Zeichen dafür, daß du den falschen Treiber für deine Graphik benutzt.

Was ergibt die Ausgabe von

Code: Alles auswählen

dpkg -l xserver\*
So etwas vermute ich auch:

Code: Alles auswählen

dpkg -l xserver\*
Gewünscht=Unbekannt/Installieren/R=Entfernen/P=Vollständig Löschen/Halten
| Status=Nicht/Installiert/Config/U=Entpackt/halb konFiguriert/
         Halb installiert/Trigger erWartet/Trigger anhängig
|/ Fehler?=(kein)/R=Neuinstallation notwendig (Status, Fehler: GROSS=schlecht)
||/ Name                           Version                  Architektur  Beschr>
+++-==============================-========================-============-======>
un  xserver                        <keine>                  <keine>      (keine>
ii  xserver-common                 2:21.1.7-3+deb12u7       all          common>
un  xserver-xephyr                 <keine>                  <keine>      (keine>
ii  xserver-xorg                   1:7.7+23                 amd64        X.Org >
ii  xserver-xorg-core              2:21.1.7-3+deb12u7       amd64        Xorg X>
un  xserver-xorg-driver-all        <keine>                  <keine>      (keine>
ii  xserver-xorg-input-all         1:7.7+23                 amd64        X.Org >
un  xserver-xorg-input-evtouch     <keine>                  <keine>      (keine>
ii  xserver-xorg-input-libinput    1.2.1-1+b1               amd64        X.Org >
un  xserver-xorg-input-vmmouse     <keine>                  <keine>      (keine>
ii  xserver-xorg-input-wacom       1.1.0-1                  amd64        X.Org >
ii  xserver-xorg-legacy            2:21.1.7-3+deb12u7       amd64        setuid>
ii  xserver-xorg-video-all         1:7.7+23                 amd64        X.Org >
ii  xserver-xorg-video-amdgpu      23.0.0-1                 amd64        X.Org >
ii  xserver-xorg-video-ati         1:19.1.0-3               amd64        X.Org >
ii  xserver-xorg-video-fbdev       1:0.5.0-2                amd64        X.Org >
ii  xserver-xorg-video-intel       2:2.99.917+git20210115-1 amd64        X.Org >
un  xserver-xorg-video-mach64      <keine>                  <keine>      (keine>
un  xserver-xorg-video-modesetting <keine>                  <keine>      (keine>
ii  xserver-xorg-video-nouveau     1:1.0.17-2               amd64        X.Org >
ii  xserver-xorg-video-qxl         0.1.5+git20200331-3      amd64        X.Org >
un  xserver-xorg-video-r128        <keine>                  <keine>      (keine>
ii  xserver-xorg-video-radeon      1:19.1.0-3               amd64        X.Org >
ii  xserver-xorg-video-vesa        1:2.5.0-1+b1             amd64        X.Org >
ii  xserver-xorg-video-vmware      1:13.3.0-3.1+b1          amd64        X.Org >
lines 9-31/31 (END)
Allerdings wurden nur die 3 Pakete beim Update aktualisiert:

Code: Alles auswählen

Entpacken von xserver-common (2:21.1.7-3+deb12u7) über (2:21.1.7-3+deb12u2) ...
Entpacken von xserver-xorg-legacy (2:21.1.7-3+deb12u7) über (2:21.1.7-3+deb12u2) ...
Entpacken von xserver-xorg-core (2:21.1.7-3+deb12u7) über (2:21.1.7-3+deb12u2) ...
Es ist verrückt, ich habe den Fehler nun schon zig mal gehabt. Auch ein Neustart des Browser hielt nie lange. Doch jetzt kann ich ihn gerade nicht mehr nachstellen. Aber er kommt garantiert bald wieder.

Nachtrag: Ich habe ein Foto davon gemacht, wann die Uhr stehen geblieben ist. Im Syslog finde ich um diese Zeit:

Code: Alles auswählen

2024-07-13T10:45:15.627024+02:00 nuc fwupd[664062]: 08:45:15.626 FuPluginIntelMe      failed to get public key using /fpf/OemCred: generic failure [0xb]
Diesen Fehler gibt es noch 10mal die letzten tage. Es kann auch nur ein zeitlicher Zufall sein. Aber was macht fwupd?

Code: Alles auswählen

ii  fwupd          1.8.12-2     amd64        Firmware update daemon
Ich habe es mal deinstalliert. Es wurde aber auch nicht upgedatet beim besagten dist-upgrade.


Nachtrag2: Um exakt diese Zeit sind ganz viele Einträge im syslog wie diese:

Code: Alles auswählen

2024-07-13T10:46:19.189761+02:00 nuc rtkit-daemon[2277]: Supervising 13 threads of 7 processes of 2 users.
2024-07-13T10:46:19.190120+02:00 nuc rtkit-daemon[2277]: Supervising 13 threads of 7 processes of 2 users.
2024-07-13T10:46:19.190182+02:00 nuc rtkit-daemon[2277]: Supervising 13 threads of 7 processes of 2 users.
2024-07-13T10:46:19.190232+02:00 nuc rtkit-daemon[2277]: Supervising 13 threads of 7 processes of 2 users.
2024-07-13T10:46:19.190279+02:00 nuc rtkit-daemon[2277]: Supervising 13 threads of 7 processes of 2 users.
2024-07-13T10:46:19.190326+02:00 nuc rtkit-daemon[2277]: Supervising 13 threads of 7 processes of 2 users.
2024-07-13T10:46:19.190371+02:00 nuc rtkit-daemon[2277]: Supervising 13 threads of 7 processes of 2 users.
2024-07-13T10:46:19.190620+02:00 nuc rtkit-daemon[2277]: Supervising 13 threads of 7 processes of 2 users.
Und auch davor immer solche Meldungen etwa um die Zeit, wo es gehangen hat.

Das ist irgendein DBUS-Zeugs? Davon wurde auch einiges aktualisiert:

Code: Alles auswählen

Entpacken von dbus-x11 (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Entpacken von dbus-user-session (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Entpacken von dbus-daemon (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Entpacken von dbus-bin (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Entpacken von dbus-system-bus-common (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Entpacken von dbus-session-bus-common (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Entpacken von dbus (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Entpacken von libdbus-1-dev:amd64 (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Entpacken von libdbus-1-3:amd64 (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Entpacken von libdbus-1-3:i386 (1.14.10-1~deb12u1) über (1.14.8-2~deb12u1) ...
Nachtrag3: ok, interessanter wird der Log vielleicht, wo er sich dann selber wiederbelebt:

Code: Alles auswählen

2024-07-13T10:50:39.395019+02:00 nuc kernel: [532778.688077] Timer invoked oom-killer: gfp_mask=0x140cca(GFP_HIGHUSER_MOVABLE|__GFP_COMP), order=0, oom_score_adj=167
2024-07-13T10:50:39.427295+02:00 nuc kernel: [532778.688084] CPU: 7 PID: 664741 Comm: Timer Tainted: G           OE      6.1.0-22-amd64 #1  Debian 6.1.94-1
2024-07-13T10:50:39.427301+02:00 nuc kernel: [532778.688087] Hardware name: Intel(R) Client Systems NUC8i5BEH/NUC8BEB, BIOS BECFL357.86A.0092.2023.0214.1114 02/14/2023
2024-07-13T10:50:39.427303+02:00 nuc kernel: [532778.688088] Call Trace:
2024-07-13T10:50:39.427304+02:00 nuc kernel: [532778.688090]  <TASK>
2024-07-13T10:50:39.427305+02:00 nuc kernel: [532778.688092]  dump_stack_lvl+0x44/0x5c
2024-07-13T10:50:39.427306+02:00 nuc kernel: [532778.688098]  dump_header+0x4a/0x211
2024-07-13T10:50:39.427307+02:00 nuc kernel: [532778.688101]  oom_kill_process.cold+0xb/0x10
2024-07-13T10:50:39.427308+02:00 nuc kernel: [532778.688104]  out_of_memory+0x1fd/0x4c0
2024-07-13T10:50:39.427309+02:00 nuc kernel: [532778.688108]  __alloc_pages_slowpath.constprop.0+0xc6c/0xe30
2024-07-13T10:50:39.427309+02:00 nuc kernel: [532778.688113]  __alloc_pages+0x305/0x330
2024-07-13T10:50:39.427310+02:00 nuc kernel: [532778.688116]  folio_alloc+0x17/0x50
2024-07-13T10:50:39.427311+02:00 nuc kernel: [532778.688119]  __filemap_get_folio+0x155/0x340
2024-07-13T10:50:39.427312+02:00 nuc kernel: [532778.688123]  filemap_fault+0x139/0x910
2024-07-13T10:50:39.427313+02:00 nuc kernel: [532778.688125]  ? filemap_map_pages+0x153/0x700
2024-07-13T10:50:39.427318+02:00 nuc kernel: [532778.688128]  __do_fault+0x30/0x110
2024-07-13T10:50:39.427319+02:00 nuc kernel: [532778.688131]  do_fault+0x1b9/0x410
2024-07-13T10:50:39.427319+02:00 nuc kernel: [532778.688134]  __handle_mm_fault+0x660/0xfa0
2024-07-13T10:50:39.427320+02:00 nuc kernel: [532778.688138]  handle_mm_fault+0xdb/0x2d0
2024-07-13T10:50:39.427321+02:00 nuc kernel: [532778.688141]  do_user_addr_fault+0x191/0x550
2024-07-13T10:50:39.427322+02:00 nuc kernel: [532778.688144]  exc_page_fault+0x70/0x170
2024-07-13T10:50:39.427322+02:00 nuc kernel: [532778.688147]  asm_exc_page_fault+0x22/0x30
2024-07-13T10:50:39.427323+02:00 nuc kernel: [532778.688150] RIP: 0033:0x7fc7a7f9ff39
2024-07-13T10:50:39.427324+02:00 nuc kernel: [532778.688155] Code: Unable to access opcode bytes at 0x7fc7a7f9ff0f.
2024-07-13T10:50:39.427325+02:00 nuc kernel: [532778.688156] RSP: 002b:00007fc7a6fe0430 EFLAGS: 00010202
2024-07-13T10:50:39.427326+02:00 nuc kernel: [532778.688158] RAX: 0000000000000001 RBX: 00007fc7b34c4d40 RCX: 00007fc7b34c4db8
2024-07-13T10:50:39.427327+02:00 nuc kernel: [532778.688160] RDX: 0000000000000001 RSI: 0000000000000000 RDI: 00007fc7b34c4d68
2024-07-13T10:50:39.427328+02:00 nuc kernel: [532778.688161] RBP: 0000000000000000 R08: 0000000000000005 R09: 00000000000001ab
2024-07-13T10:50:39.427329+02:00 nuc kernel: [532778.688162] R10: 00007fc7a6fe03d0 R11: 0000000000000246 R12: 000000387bb5c04a
2024-07-13T10:50:39.427330+02:00 nuc kernel: [532778.688163] R13: 00007fc7a6fe04e0 R14: 00007fc7a6fe04c0 R15: 000000000000002c
2024-07-13T10:50:39.427331+02:00 nuc kernel: [532778.688167]  </TASK>
2024-07-13T10:50:39.427331+02:00 nuc kernel: [532778.688168] Mem-Info:
2024-07-13T10:50:39.427332+02:00 nuc kernel: [532778.688169] active_anon:4196 inactive_anon:2314611 isolated_anon:0
2024-07-13T10:50:39.427333+02:00 nuc kernel: [532778.688169]  active_file:181 inactive_file:473 isolated_file:90
2024-07-13T10:50:39.427334+02:00 nuc kernel: [532778.688169]  unevictable:1535134 dirty:0 writeback:0
2024-07-13T10:50:39.427335+02:00 nuc kernel: [532778.688169]  slab_reclaimable:68023 slab_unreclaimable:50331
2024-07-13T10:50:39.427335+02:00 nuc kernel: [532778.688169]  mapped:21519 shmem:1566663 pagetables:24050
2024-07-13T10:50:39.427336+02:00 nuc kernel: [532778.688169]  sec_pagetables:0 bounce:0
2024-07-13T10:50:39.427337+02:00 nuc kernel: [532778.688169]  kernel_misc_reclaimable:0
2024-07-13T10:50:39.427338+02:00 nuc kernel: [532778.688169]  free:34662 free_pcp:239 free_cma:0
2024-07-13T10:50:39.427339+02:00 nuc kernel: [532778.688174] Node 0 active_anon:16784kB inactive_anon:9258444kB active_file:724kB inactive_file:1892kB unevictable:6140536kB isolated(anon):0kB isolated(file):360kB mapped:86076kB dirty:0kB writeback:0kB shmem:6266652kB shmem_thp: 3137536kB shmem_pmdmapped: 0kB anon_thp: 3184640kB writeback_tmp:0kB kernel_stack:31120kB pagetables:96200kB sec_pagetables:0kB all_unreclaimable? no
2024-07-13T10:50:39.427340+02:00 nuc kernel: [532778.688178] Node 0 DMA free:13312kB boost:0kB min:64kB low:80kB high:96kB reserved_highatomic:0KB active_anon:0kB inactive_anon:0kB active_file:0kB inactive_file:0kB unevictable:0kB writepending:0kB present:15992kB managed:15360kB mlocked:0kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB
2024-07-13T10:50:39.427341+02:00 nuc kernel: [532778.688183] lowmem_reserve[]: 0 1814 15799 15799 15799
2024-07-13T10:50:39.427342+02:00 nuc kernel: [532778.688187] Node 0 DMA32 free:63352kB boost:0kB min:7752kB low:9688kB high:11624kB reserved_highatomic:0KB active_anon:456kB inactive_anon:287908kB active_file:44kB inactive_file:0kB unevictable:1541376kB writepending:0kB present:1979240kB managed:1913308kB mlocked:0kB bounce:0kB free_pcp:676kB local_pcp:0kB free_cma:0kB
2024-07-13T10:50:39.427343+02:00 nuc kernel: [532778.688192] lowmem_reserve[]: 0 0 13985 13985 13985
2024-07-13T10:50:39.427344+02:00 nuc kernel: [532778.688195] Node 0 Normal free:61984kB boost:0kB min:59764kB low:74704kB high:89644kB reserved_highatomic:6144KB active_anon:16328kB inactive_anon:8970536kB active_file:1208kB inactive_file:1764kB unevictable:4599160kB writepending:0kB present:14663680kB managed:14328756kB mlocked:296kB bounce:0kB free_pcp:280kB local_pcp:0kB free_cma:0kB
2024-07-13T10:50:39.427345+02:00 nuc kernel: [532778.688199] lowmem_reserve[]: 0 0 0 0 0
2024-07-13T10:50:39.427346+02:00 nuc kernel: [532778.688202] Node 0 DMA: 0*4kB 0*8kB 0*16kB 0*32kB 0*64kB 0*128kB 0*256kB 0*512kB 1*1024kB (U) 2*2048kB (UM) 2*4096kB (M) = 13312kB
2024-07-13T10:50:39.427347+02:00 nuc kernel: [532778.688213] Node 0 DMA32: 128*4kB (UME) 174*8kB (UM) 240*16kB (UME) 122*32kB (UME) 77*64kB (UME) 61*128kB (UME) 20*256kB (UME) 28*512kB (ME) 15*1024kB (ME) 1*2048kB (M) 1*4096kB (U) = 63344kB
2024-07-13T10:50:39.427348+02:00 nuc kernel: [532778.688226] Node 0 Normal: 2206*4kB (UME) 571*8kB (UM) 350*16kB (UME) 229*32kB (ME) 114*64kB (UME) 70*128kB (UME) 26*256kB (UM) 9*512kB (ME) 2*1024kB (M) 3*2048kB (U) 0*4096kB = 62032kB
2024-07-13T10:50:39.427349+02:00 nuc kernel: [532778.688240] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=1048576kB
2024-07-13T10:50:39.427350+02:00 nuc kernel: [532778.688241] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=2048kB
2024-07-13T10:50:39.427351+02:00 nuc kernel: [532778.688243] 1567453 total pagecache pages
2024-07-13T10:50:39.427353+02:00 nuc kernel: [532778.688243] 0 pages in swap cache
2024-07-13T10:50:39.427354+02:00 nuc kernel: [532778.688244] Free swap  = 0kB
2024-07-13T10:50:39.427355+02:00 nuc kernel: [532778.688245] Total swap = 0kB
2024-07-13T10:50:39.427356+02:00 nuc kernel: [532778.688246] 4164728 pages RAM
2024-07-13T10:50:39.427357+02:00 nuc kernel: [532778.688246] 0 pages HighMem/MovableOnly
2024-07-13T10:50:39.427358+02:00 nuc kernel: [532778.688247] 100372 pages reserved
2024-07-13T10:50:39.427359+02:00 nuc kernel: [532778.688247] 0 pages hwpoisoned
[ ... lange Auflistung aller laufenden Prozesse ... ]
2024-07-13T10:50:39.427709+02:00 nuc kernel: [532778.688762] oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=user.slice,mems_allowed=0,global_oom,task_memcg=/user.slice/user-1001.slice/session-4.scope,task=chromium,pid=546325,uid=1001
2024-07-13T10:50:39.427710+02:00 nuc kernel: [532778.688846] Out of memory: Killed process 546325 (chromium) total-vm:1188854632kB, anon-rss:132564kB, file-rss:0kB, shmem-rss:2528kB, UID:1001 pgtables:1880kB oom_score_adj:300
2024-07-13T10:50:40.208578+02:00 nuc systemd[1]: session-4.scope: A process of this unit has been killed by the OOM killer.
Scheinbar ist währenddessen doch der Speicher vollgelaufen wegen Chromium? Deshalb OOM-Killer. Aber es passiert ja leider auch mit Firefox. Vor dem Update gab es nie solche Probleme - und ich nutze diesen Rechner schon sehr lange mit Bookworm.

Hier auch einmal mit Firefox gestern abend:

Code: Alles auswählen

2024-07-07T22:21:50.641773+02:00 nuc kernel: [55863.934724] Out of memory: Killed process 87695 (Isolated Web Co) total-vm:12901240kB, anon-rss:10085592kB, file-rss:0kB, shmem-rss:51136kB, UID:1001 pgtables:21356kB oom_score_adj:100
Ich vermute aber immer noch, dass die beiden Browser selbst nicht die Ursache sind. Ich habe immer beide parallel offen und es gab vor dem Update weder mit dem einen, noch mit dem anderen Probleme.

kreuzschnabel
Beiträge: 497
Registriert: 24.09.2020 14:51:14

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von kreuzschnabel » 13.07.2024 14:17:38

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 13:18:21
Kann man irgendwo feststellen, ob Swap eingeschaltet ist?

Code: Alles auswählen

sudo swapon
--ks
Hier so: Debian Stable/Sid (nach Laune) – KDE Plasma – Lenovo Thinkpad T470p – i7-7700HQ – 32GB RAM

Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 13.07.2024 14:22:19

'swapon' gibt überhaupt keine Ausgabe zurück. Ich hatte schon Angst, dass ich damit nun den swap eingeschaltet habe.

Benutzeravatar
MSfree
Beiträge: 11604
Registriert: 25.09.2007 19:59:30

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von MSfree » 13.07.2024 14:32:47

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 13:20:32
Nachtrag2: Um exakt diese Zeit sind ganz viele Einträge im syslog wie diese:
2024-07-13T10:46:19.189761+02:00 nuc rtkit-daemon[2277]: Supervising 13 threads of 7 processes of 2 users.
Hast du zufällig einen Realtime-Kernel installiert?
Wenn ja, warum?

Der oomkiller (Out of Memory Killer) wirft Prozese raus, die zu viel Speicher verbrauchen. Wenn man es aber schafft, den oomkiller zu aktivieren, wenn 4GB oder mehr RAM im Rechner stecken, dann ist da irgendwas im Argen. Selbst ohne Swap habe ich es noch nie geschafft, daß sich der oomkiller aktiviert. Da muß irgendwo ein Memoryleak im System sein (Realtime-Kernel?).

Ich gehe mal davon aus, daß man einen Core i5-8259U mit mindestens 4GB RAM bestellt hat.
Die nötigen xserver-Module sind bei dir zumindest installiert, und ich gehe davon aus, daß das nötige Intel-Modul inklusive Firmware benutzt wird, denn Firmware wird seit Bookworm automatisch mitinstalliert.

Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 13.07.2024 14:59:22

nein, kein RT-Kernel - zumindest nicht bewusst. Ich habe 16GB RAM.

Ich bin jedoch ein wenig verwirrt wegen der Version:
Entpacken von linux-image-amd64 (6.1.94-1) über (6.1.38-4) ...

uname -a
Linux nuc 6.1.0-22-amd64 #1 SMP PREEMPT_DYNAMIC Debian 6.1.94-1 (2024-06-21) x86_64 GNU/Linux

Ist der Kernel jetzt 6.1.0 oder 6.1.94?

Benutzeravatar
MSfree
Beiträge: 11604
Registriert: 25.09.2007 19:59:30

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von MSfree » 13.07.2024 15:32:10

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 14:59:22
nein, kein RT-Kernel - zumindest nicht bewusst. Ich habe 16GB RAM.
OK, ich war nur verwirrt bezüglich dieses Debianrtkits. Das ist bei mir nicht installiert, ist aber wohl ein empfohlenes Pakete, wenn man multimedia-jack, pulseaudio, pipewire-bin oder libdrumstick-rt2t64 installiert hat. Ich installiere hier immer ohne recommends.
Ich bin jedoch ein wenig verwirrt wegen der Version:
...
Ist der Kernel jetzt 6.1.0 oder 6.1.94?
Beides :wink:
6.1.0-22 ist die Zählung von kernel.org, 6.1.94-1 ist die Zählung von Debian.

Nochmal zum oomkiller:

Ich kann aus deinem obigen Logauszug nicht erkennen, welcher Prozeß gekillt wurde. Sollte wirklich chromium gekillt worden sein, sollte der auch vom Bildschirm verschwinden.

Wenn es wirklich mit den beiden Browsern zusammenhängt, würde ich mal deren Cache löschen, ggfls. auch Cookies und andere Benutzerdaten. Firefox bietet dazu Möglickeiten unter den Einstellungen, auch chromium sollte ähnliches anbieten. Damit kann man sicherstellen, daß sich keine kaputten Dateien im Cache befinden, die eventuell den RAM-Verbrauch beeinflussen.

Mit dem oomkiller habe ich hier jedenfalls noch keinen Kontak gehabt, mit 16GB schon gar nicht.

mat6937
Beiträge: 3363
Registriert: 09.12.2014 10:44:00

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von mat6937 » 13.07.2024 15:55:45

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 13:20:32
Scheinbar ist währenddessen doch der Speicher vollgelaufen wegen Chromium? Deshalb OOM-Killer.
Wie sind z. Zt. die Ausgaben von:

Code: Alles auswählen

cat /etc/sysctl.conf | grep -i oom
sysctl -a | grep -i oom
sysctl vm.swappiness
systemctl status systemd-oomd.service
cat /etc/systemd/oomd.conf
?
Debian 12.8 mit LXDE, OpenBSD 7.6 mit i3wm, FreeBSD 14.1 mit Xfce

Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 13.07.2024 17:07:47

Müsste alles default sein. Ich habe daran nie rumgeschraubt:

Code: Alles auswählen

cat /etc/sysctl.conf | grep -i oom
[keine Ausgaben]

sysctl -a | grep -i oom
vm.oom_dump_tasks = 1
vm.oom_kill_allocating_task = 0
vm.panic_on_oom = 0

sysctl vm.swappiness
vm.swappiness = 60

systemctl status systemd-oomd.service
Unit systemd-oomd.service could not be found

cat /etc/systemd/oomd.conf
cat: /etc/systemd/oomd.conf: Datei oder Verzeichnis nicht gefunden

mat6937
Beiträge: 3363
Registriert: 09.12.2014 10:44:00

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von mat6937 » 13.07.2024 20:50:58

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 17:07:47
Müsste alles default sein.
Dann teste mal mit:

Code: Alles auswählen

apt install systemd-oomd
In der /etc/systemd/oomd.conf die wirksamen Zeilen:

Code: Alles auswählen

DefaultMemoryPressureLimit=80%
DefaultMemoryPressureDurationSec=1s
benutzen/eintragen, danach:

Code: Alles auswählen

systemctl enable systemd-oomd.service
systemctl start systemd-oomd.service
In der /etc/sysctl.conf, die Zeilen:

Code: Alles auswählen

vm.oom_dump_tasks = 0
vm.oom_kill_allocating_task = 1
vm.swappiness = 0
vm.user_reserve_kbytes = 262144
vm.vfs_cache_pressure = 90
vm.min_free_kbytes = 131072
vm.admin_reserve_kbytes = 131072
kernel.perf_event_paranoid = 2
eintragen. Danach rebooten und testen/beobachten.

EDIT:

BTW: Da Du 16GB RAM hast und kein swap-Speicher konfiguriert/zugeweisen hast, könntest Du für den Fall der Fälle (... denn man weiß ja nie), zramswap (z. B. 256 MB) installieren und konfigurieren:

Code: Alles auswählen

apt policy zram-tools

Code: Alles auswählen

:~ $ systemctl status zramswap.service
● zramswap.service - Linux zramswap setup
     Loaded: loaded (/lib/systemd/system/zramswap.service; enabled; vendor preset: enabled)
     Active: active (exited) since Sat 2024-06-29 21:26:05 CEST; 2 weeks 0 days ago
       Docs: man:zramswap(8)
   Main PID: 356 (code=exited, status=0/SUCCESS)
      Tasks: 0 (limit: 3723)
     Memory: 0B
        CPU: 0
     CGroup: /system.slice/zramswap.service

Code: Alles auswählen

:~ $ zramctl
NAME       ALGORITHM DISKSIZE DATA COMPR TOTAL STREAMS MOUNTPOINT
/dev/zram0 lz4           256M   4K   63B    4K       4 [SWAP]
Dann vm.swappiness auf 1 (statt 0) konfigurieren:

Code: Alles auswählen

vm.swappiness = 1
Debian 12.8 mit LXDE, OpenBSD 7.6 mit i3wm, FreeBSD 14.1 mit Xfce

Benutzeravatar
thunder11
Beiträge: 2147
Registriert: 19.04.2023 09:08:30

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von thunder11 » 13.07.2024 22:37:13

Bevor ich weitere Klimmzüge mache, würde ich erstmal Debianrtkit purgen.
Glaube nicht, dass das Paket bei dir notwendig ist.

Code: Alles auswählen

apt rdepends rtkit
rtkit
Reverse Depends:
  Empfiehlt: multimedia-jack
  Empfiehlt: libdrumstick-rt2t64
  Empfiehlt: pulseaudio
  Empfiehlt: pipewire-bin
  Empfiehlt: libdrumstick-rt2t64
Aber erst mal sehen, was da noch mit "eliminiert" wird.

Code: Alles auswählen

apt depends rtkit
rtkit
  Hängt ab von: adduser
 |Hängt ab von: <default-dbus-system-bus>
    dbus
  Hängt ab von: <dbus-system-bus>
    dbus-broker
    dbus
 |Hängt ab von: polkitd
  Hängt ab von: policykit-1
  Hängt ab von: libc6 (>= 2.38)
  Hängt ab von: libcap2 (>= 1:2.10)
  Hängt ab von: libdbus-1-3 (>= 1.9.14)
  Hängt ab von: libsystemd0
    libelogind0
Damit wir genauer wissen, was du für ein Maschinchen hast, vielleicht mal die Ausgabe von

Code: Alles auswählen

inxi -SCGxx

mat6937
Beiträge: 3363
Registriert: 09.12.2014 10:44:00

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von mat6937 » 13.07.2024 22:47:23

thunder11 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 22:37:13
Bevor ich weitere Klimmzüge mache, würde ich erstmal Debianrtkit purgen.
Glaube nicht, dass das Paket bei dir notwendig ist.
Die service-unit ist per default deaktiviert, aber sie wird benutzt:

Code: Alles auswählen

:~$ systemctl is-enabled rtkit-daemon
disabled

Code: Alles auswählen

:~$ systemctl is-active rtkit-daemon
active

Code: Alles auswählen

:~$ systemctl status rtkit-daemon
● rtkit-daemon.service - RealtimeKit Scheduling Policy Service
     Loaded: loaded (/lib/systemd/system/rtkit-daemon.service; disabled; preset: enabled)
     Active: active (running) since Sat 2024-07-13 20:26:45 CEST; 2h 14min ago
   Main PID: 1214 (rtkit-daemon)
      Tasks: 3 (limit: 3476)
     Memory: 564.0K
        CPU: 104ms
     CGroup: /system.slice/rtkit-daemon.service
             └─1214 /usr/libexec/rtkit-daemon
Debian 12.8 mit LXDE, OpenBSD 7.6 mit i3wm, FreeBSD 14.1 mit Xfce

Benutzeravatar
thunder11
Beiträge: 2147
Registriert: 19.04.2023 09:08:30

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von thunder11 » 13.07.2024 22:56:57

vielleicht erstmal probieren:

Code: Alles auswählen

systemctl mask rtkit-daemon.service
Neustarten und beobachten.

Wenn es Probleme geben sollte:

Code: Alles auswählen

systemctl unmask rtkit-daemon.service
Habe das gerade mal bei mir getestet, weil ich schon immer dieses Problem habe.

Ich habe eine VM laufen (virtueller Desktop 5)
Ich starte Firefox (Display schaltet um auf virtuellen D3esktop 2)
Batsch ----> kein Fenster reagiert mehr, aber alles läuft weiter
Dann umschalten auf TTY6 und Virtualbox killen ---> exit auf TTY 6 -->umschalten auf TTY 7
alles wieder gut.

Aber der rtkit-daemon.service ist wohl nicht daran schuld. Wäre ja schön gewesen 8O
Zuletzt geändert von thunder11 am 13.07.2024 23:17:53, insgesamt 1-mal geändert.

mat6937
Beiträge: 3363
Registriert: 09.12.2014 10:44:00

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von mat6937 » 13.07.2024 23:17:46

thunder11 hat geschrieben: ↑ zum Beitrag ↑
13.07.2024 22:56:57
vielleicht erstmal probieren:

Code: Alles auswählen

systemctl mask rtkit-daemon.service
... oder erstmal nur:

Code: Alles auswählen

rtkitctl --exit

Code: Alles auswählen

:~# systemctl status rtkit-daemon
○ rtkit-daemon.service - RealtimeKit Scheduling Policy Service
     Loaded: loaded (/lib/systemd/system/rtkit-daemon.service; disabled; preset: enabled)
     Active: inactive (dead)
EDIT:

Killen mit rtkitctl ist nicht die Lösung, denn der rtkit-daemon wird wieder gestartet (... evtl. vom dbus?):

Code: Alles auswählen

:~$ ps aux | grep -i [r]tkit
rtkit       5832  0.0  0.0  22700  1520 ?        SNsl 23:25   0:00 /usr/libexec/rtkit-daemon
Debian 12.8 mit LXDE, OpenBSD 7.6 mit i3wm, FreeBSD 14.1 mit Xfce

Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 14.07.2024 08:28:56

Dank euch erst mal für die vielen wertvollen Tipps!

Ich habe nach mat6937 nun oomd installiert, die confs angepasst und heute morgen dann ein Reboot durchgeführt.

rtkit-daemon lasse ich erst mal laufen. Ich möchte den Fehler ja gerne noch mal reproduzieren. Aber jetzt will er einfach nicht mehr. Ich habe den Fehler seit dem besagten Sicherheitsupdate zu Anfang des Monats zig mal gehabt und deswegen 2x sogar neugestartet, wo alles gehangen hat. Ich hatte zu den Zeitpunkten auch keine Geduld einfach abzuwarten wie gestern morgen endlich. rtkit-daemon wurde ja auch nicht aktualisiert und läuft schon ewig bei mir. Als ich den anfangs zum ersten mal in der Prozessliste sah, habe ich mich erschrocken. Ich dachte zuerst, ich hätte mir ein rootkit eingefangen. rkhunter ist installiert und lasse ich (un)regelmäßig auch mal per Hand laufen (rkhunter -c)
Wenn der rtkit-daemon wirklich nur optional ist, versuche ich den in Zukunft mal zu purgen. Den ganzen DBUS-Kram habe ich noch nie durchschaut.

Code: Alles auswählen

inxi -SCGxx
System:
  Host: nuc Kernel: 6.1.0-22-amd64 arch: x86_64 bits: 64 compiler: gcc
    v: 12.2.0 Desktop: LXDE v: 0.10.1 wm: Openbox dm: LightDM Distro: Debian
    GNU/Linux 12 (bookworm)
CPU:
  Info: quad core model: Intel Core i5-8259U bits: 64 type: MT MCP
    arch: Coffee Lake rev: A cache: L1: 256 KiB L2: 1024 KiB L3: 6 MiB
  Speed (MHz): avg: 1122 high: 2748 min/max: 400/3800 cores: 1: 400 2: 700
    3: 2683 4: 700 5: 2748 6: 700 7: 400 8: 652 bogomips: 36799
  Flags: avx avx2 ht lm nx pae sse sse2 sse3 sse4_1 sse4_2 ssse3 vmx
Graphics:
  Device-1: Intel CoffeeLake-U GT3e [Iris Plus Graphics 655] driver: i915
    v: kernel arch: Gen-9.5 ports: active: DP-1 empty: DP-2,HDMI-A-1
    bus-ID: 00:02.0 chip-ID: 8086:3ea5
  Display: x11 server: X.Org v: 1.21.1.7 with: Xwayland v: 22.1.9 driver: X:
    loaded: modesetting unloaded: fbdev,vesa dri: iris gpu: i915 display-ID: :0
    screens: 1
  Screen-1: 0 s-res: 1920x1080 s-dpi: 96
  Monitor-1: DP-1 model: LG (GoldStar) IPS FULLHD res: 1920x1080 dpi: 102
    diag: 551mm (21.7")
  API: OpenGL v: 4.6 Mesa 22.3.6 renderer: Mesa Intel Iris Plus Graphics
    655 (CFL GT3) direct-render: Yes

mat6937
Beiträge: 3363
Registriert: 09.12.2014 10:44:00

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von mat6937 » 14.07.2024 08:43:22

Kermit24 hat geschrieben: ↑ zum Beitrag ↑
14.07.2024 08:28:56
rtkit-daemon lasse ich erst mal laufen. Ich möchte den Fehler ja gerne noch mal reproduzieren.
BTW: Der chromium-browser benutzt auch den rtkit-daemon. Ich habe den rtkit-daemon beim booten mit einem cronjob killen lassen und nach dem booten das System bzw. den PC nicht benutzt (ca. eine halbe Stunde). Danach habe ich nach dem rtkit-daemon geschaut und er war nicht aktiv:

Code: Alles auswählen

:~$ systemctl status rtkit-daemon
○ rtkit-daemon.service - RealtimeKit Scheduling Policy Service
     Loaded: loaded (/lib/systemd/system/rtkit-daemon.service; disabled; preset: enabled)
     Active: inactive (dead)
Dann habe ich chromium gestartet und sofort nach dem rtkit-daemon geschaut:

Code: Alles auswählen

:~$ systemctl status rtkit-daemon
● rtkit-daemon.service - RealtimeKit Scheduling Policy Service
     Loaded: loaded (/lib/systemd/system/rtkit-daemon.service; disabled; preset: enabled)
     Active: active (running) since Sun 2024-07-14 08:36:05 CEST; 5min ago
   Main PID: 1359 (rtkit-daemon)
      Tasks: 3 (limit: 3476)
     Memory: 484.0K
        CPU: 12ms
     CGroup: /system.slice/rtkit-daemon.service
             └─1359 /usr/libexec/rtkit-daemon
Debian 12.8 mit LXDE, OpenBSD 7.6 mit i3wm, FreeBSD 14.1 mit Xfce

Benutzeravatar
OrangeJuice
Beiträge: 629
Registriert: 12.06.2017 15:12:40

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von OrangeJuice » 14.07.2024 10:20:45

Vielleicht hilft es ein Bios Update zu machen. Die Intel NUCs werden nun von Asus versorgt.
BIOS Update 0097 for NUC8i3BEx / NUC8i5BEx / NUC8i7BEx
Version 0097
44.07 MB
2024/03/29

It is recommended to download and update the BIOS and firmware for system performance optimization. The update takes a few minutes. Do not turn your computer power off during the update process.
Quelle:
asus.com

Vielleicht spielt auch ein Treiber eine Rolle?
CPU: 7 PID: 664741 Comm: Timer Tainted: G OE 6.1.0-22-amd64 #1 Debian 6.1.94-1
O if an externally-built (“out-of-tree”) module has been loaded.

E if an unsigned module has been loaded in a kernel supporting module signature.
Quelle:
Tainted kernels

Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 21.07.2024 16:35:51

Eine Woche ist um und der der Fehler trat bisher noch 2mal auf. Er hat sich aber ohne oom-killer immer wieder nach etwa 1 Minute berappelt. Im syslog sind jedenfalls wieder nur die rt-kit Meldungen zu finden.
Speicher war immer "nur" um die 50-60% gefüllt (wenn man buffer/cache abzieht). Ich habe jedes mal versucht auf die Textkonsole zu wechseln und ein 'smem -t -p | tee log.txt' auszufühlen. Den Befehl nimmt er noch an, steht dann aber ohne Ausgabe. Heute blieb er dann mal wieder so krass hängen, dass sogar der Mousecursor auf der Textkonsole (von GPM) nicht mehr reagierte. Nach knapp einer Minute kam dann die Ausgabe vom smem und das System lief wieder. Dort ist nichts auffälliges.
Größter Speicherverbrauch war mein RSS-Reader Liferea mit 27%, also gut 1/4. Der RSS-Reader ist bei mir in bookworm schon ewig verbuggt, dass der sich immer mehr Speicher nimmt, wenn er lange (=mehrere Tage/Woche) läuft. Nach beenden und Neustart von liferea benötigt er kaum noch Speicher. Und tatsächlich kann ich danach den Fehler meist nicht mehr nachstellen, wenn er zuvor auftrat. Die RAM-Nutzung liegt nach liferea Neustart nur noch bei 28% (Zuvor zwischen 50-60%). Vielleicht ist Liferea ja der Übeltäter. Allerdings hat das vor dem dist-upgrade nie ernsthafte Probleme gemacht, außer dass ich es wegen des hohen Speicherverbrauchs etwa wöchentlich mal neustarten muss. Es wurde auch nicht aktualisiert.

Im Bookworm-Repository ist leider nur die ziemlich alte Version 1.14.4, weshalb ich dort auch kein Issue eröffnen möchte.
Gefunden habe ich jetzt nur: https://github.com/lwindolf/liferea/issues/1267 Old WebKitCache cache not cleaned
Und tatsächlich: In ~/.cache/liferea/WebKitCache/Version 16/Blobs/ befanden sich über 15000 Dateien (550MB). Das Löschen hat jetzt mehrere Minuten gedauert. Vermute das wird allerdings keinen Unterschied machen, da es lediglich Diskspace verschwendet hat.

Achja, ich wüsste nicht, dass ich irgendwelche extern gebaute Module im Kernel nutze.

Code: Alles auswählen

lsmod
Module                  Size  Used by
usblp                  28672  0
xt_multiport           20480  2
dm_crypt               61440  2
xt_conntrack           16384  1
xt_recent              24576  2
xt_mac                 16384  1
nf_nat_irc             20480  0
nf_conntrack_irc       20480  1 nf_nat_irc
nf_nat_ftp             20480  0
nf_conntrack_ftp       24576  1 nf_nat_ftp
xt_state               16384  0
xt_LOG                 20480  0
nf_log_syslog          24576  0
ipt_REJECT             16384  8
nf_reject_ipv4         16384  1 ipt_REJECT
iptable_nat            16384  0
iptable_filter         16384  0
tls                   135168  0
asix                   65536  0
selftests              16384  1 asix
usbnet                 57344  1 asix
phylink                61440  1 asix
mii                    16384  2 usbnet,asix
libphy                180224  3 selftests,asix,phylink
vboxnetadp             28672  0
vboxnetflt             32768  0
vboxdrv               602112  2 vboxnetadp,vboxnetflt
snd_seq_dummy          16384  0
snd_hrtimer            16384  2
snd_seq                90112  13 snd_seq_dummy
uhid                   20480  4
ppp_async              20480  1
ppp_generic            53248  5 ppp_async
slhc                   20480  1 ppp_generic
xt_CHECKSUM            16384  1
nft_chain_nat          16384  2
xt_MASQUERADE          20480  2
nf_nat                 57344  5 nf_nat_irc,nf_nat_ftp,nft_chain_nat,iptable_nat,xt_MASQUERADE
nf_conntrack          188416  8 xt_conntrack,nf_nat_irc,nf_nat,nf_nat_ftp,xt_state,nf_conntrack_irc,nf_conntrack_ftp,xt_MASQUERADE
nf_defrag_ipv6         24576  1 nf_conntrack
nf_defrag_ipv4         16384  1 nf_conntrack
xt_tcpudp              20480  0
nft_compat             20480  17
bridge                311296  0
stp                    16384  1 bridge
llc                    16384  2 bridge,stp
nvme_fabrics           32768  0
binder_linux          204800  0
rfkill                 36864  2
nf_tables             303104  268 nft_compat,nft_chain_nat
nfnetlink              20480  2 nft_compat,nf_tables
qrtr                   49152  2
sunrpc                692224  1
binfmt_misc            24576  1
nls_ascii              16384  1
nls_cp437              20480  1
squashfs               73728  2
vfat                   24576  1
fat                    90112  1 vfat
intel_rapl_msr         20480  0
intel_rapl_common      32768  1 intel_rapl_msr
x86_pkg_temp_thermal    20480  0
intel_powerclamp       20480  0
coretemp               20480  0
kvm_intel             380928  0
snd_usb_audio         376832  1
snd_usbmidi_lib        45056  1 snd_usb_audio
mei_hdcp               24576  0
kvm                  1142784  1 kvm_intel
snd_hwdep              16384  1 snd_usb_audio
snd_rawmidi            53248  1 snd_usbmidi_lib
irqbypass              16384  1 kvm
snd_seq_device         16384  2 snd_seq,snd_rawmidi
mc                     81920  1 snd_usb_audio
rapl                   20480  0
snd_pcm               159744  1 snd_usb_audio
iTCO_wdt               16384  0
intel_cstate           20480  0
intel_pmc_bxt          16384  1 iTCO_wdt
pl2303                 28672  0
iTCO_vendor_support    16384  1 iTCO_wdt
mei_me                 53248  1
snd_timer              49152  3 snd_seq,snd_hrtimer,snd_pcm
cp210x                 36864  0
usbserial              65536  2 pl2303,cp210x
intel_uncore          217088  0
intel_wmi_thunderbolt    20480  0
watchdog               45056  1 iTCO_wdt
wmi_bmof               16384  0
pcspkr                 16384  0
ee1004                 20480  0
mei                   159744  3 mei_hdcp,mei_me
snd                   126976  14 snd_seq,snd_seq_device,snd_hwdep,snd_usb_audio,snd_usbmidi_lib,snd_timer,snd_pcm,snd_rawmidi
joydev                 28672  0
soundcore              16384  1 snd
intel_pch_thermal      20480  0
acpi_tad               20480  0
acpi_pad              184320  0
intel_pmc_core         53248  0
evdev                  28672  12
sg                     40960  0
parport_pc             40960  0
ppdev                  24576  0
lp                     20480  0
parport                73728  3 parport_pc,lp,ppdev
fuse                  176128  9
loop                   32768  4
dm_mod                184320  5 dm_crypt
efi_pstore             16384  0
configfs               57344  1
ip_tables              36864  2 iptable_filter,iptable_nat
x_tables               61440  14 xt_conntrack,iptable_filter,nft_compat,xt_LOG,xt_multiport,xt_state,xt_tcpudp,xt_CHECKSUM,xt_recent,xt_mac,ipt_REJECT,ip_tables,iptable_nat,xt_MASQUERADE
autofs4                53248  2
ext4                  983040  4
crc16                  16384  1 ext4
mbcache                16384  1 ext4
jbd2                  167936  1 ext4
hid_logitech_hidpp     53248  0
hid_logitech_dj        28672  0
btrfs                1789952  0
zstd_compress         294912  1 btrfs
efivarfs               24576  1
raid10                 65536  0
raid456               180224  0
async_raid6_recov      24576  1 raid456
async_memcpy           20480  2 raid456,async_raid6_recov
async_pq               20480  2 raid456,async_raid6_recov
async_xor              20480  3 async_pq,raid456,async_raid6_recov
async_tx               20480  5 async_pq,async_memcpy,async_xor,raid456,async_raid6_recov
xor                    24576  2 async_xor,btrfs
raid6_pq              122880  4 async_pq,btrfs,raid456,async_raid6_recov
libcrc32c              16384  5 nf_conntrack,nf_nat,btrfs,nf_tables,raid456
crc32c_generic         16384  0
raid1                  53248  0
raid0                  24576  0
multipath              20480  0
linear                 20480  0
md_mod                192512  6 raid1,raid10,raid0,linear,raid456,multipath
hid_generic            16384  0
usbhid                 65536  2 hid_logitech_dj,hid_logitech_hidpp
hid                   159744  5 usbhid,hid_generic,uhid,hid_logitech_dj,hid_logitech_hidpp
uas                    32768  0
usb_storage            81920  1 uas
i915                 3051520  49
crc32_pclmul           16384  0
crc32c_intel           24576  9
ghash_clmulni_intel    16384  0
sha512_ssse3           49152  0
sha512_generic         16384  1 sha512_ssse3
sd_mod                 65536  3
sha256_ssse3           32768  0
nvme                   53248  2
drm_buddy              20480  1 i915
sha1_ssse3             32768  0
i2c_algo_bit           16384  1 i915
drm_display_helper    184320  1 i915
nvme_core             163840  4 nvme,nvme_fabrics
cec                    61440  2 drm_display_helper,i915
t10_pi                 16384  2 sd_mod,nvme_core
rc_core                69632  1 cec
ttm                    94208  1 i915
ahci                   49152  3
crc64_rocksoft_generic    16384  1
rtsx_pci_sdmmc         32768  0
crc64_rocksoft         20480  1 t10_pi
libahci                49152  1 ahci
xhci_pci               24576  0
crc_t10dif             20480  1 t10_pi
mmc_core              212992  1 rtsx_pci_sdmmc
drm_kms_helper        212992  2 drm_display_helper,i915
aesni_intel           393216  4
xhci_hcd              319488  1 xhci_pci
crct10dif_generic      16384  0
crct10dif_pclmul       16384  1
libata                401408  2 libahci,ahci
crypto_simd            16384  1 aesni_intel
cryptd                 28672  4 crypto_simd,ghash_clmulni_intel
drm                   614400  26 drm_kms_helper,drm_display_helper,drm_buddy,i915,ttm
usbcore               348160  13 pl2303,usbserial,xhci_hcd,usbnet,snd_usb_audio,usbhid,snd_usbmidi_lib,cp210x,usblp,usb_storage,xhci_pci,uas,asix
crc64                  20480  2 crc64_rocksoft,crc64_rocksoft_generic
e1000e                315392  0
scsi_mod              286720  5 sd_mod,usb_storage,uas,libata,sg
rtsx_pci              114688  1 rtsx_pci_sdmmc
i2c_i801               36864  0
i2c_smbus              20480  1 i2c_i801
crct10dif_common       16384  3 crct10dif_generic,crc_t10dif,crct10dif_pclmul
usb_common             16384  2 xhci_hcd,usbcore
scsi_common            16384  5 scsi_mod,usb_storage,uas,libata,sg
fan                    20480  0
video                  65536  1 i915
wmi                    36864  3 video,intel_wmi_thunderbolt,wmi_bmof
button                 24576  0
BIOS-Update werde ich demnächst mal angehen.

Kermit24
Beiträge: 311
Registriert: 29.04.2006 14:44:39

Re: Bookworm friert nach Sicherheitsupdate regelmäßig ein

Beitrag von Kermit24 » 23.07.2024 21:26:42

Jetzt konnte ich das System wieder minutenlang anhalten. Ich habe dabei ein 400MB Gigapixel-Foto in geeqie versucht anzuschauen. Ich konnte anhand des Ressourcenmonitors in der Startleiste sehen, wie der Speicherverbrauch langsam auf ca. 2/3 Anstieg und dann blockierte das System wieder komplett!

Offensichtlich liegt es doch am Arbeitsspeicher, aber wieso kann ich nur noch 2/3 meines Arbeitsspeichers nutzen? Vor dem besagten Update, war das nichts so. Kann der Kernel irgendwie freien Speicher reservieren und beim Limit die Blockade hervorrufen? Nach ein paar Minuten war oom-killer wieder aktiv und hat diesmal liferea (eben der Prozess mit dem meisten Speicherbeanspruchung) gekillt. Danach lief es wieder, aber die LXDE-Startleiste reagierte nicht mehr auf Klicks und hatte unten rechts wieder das Rechteck (vermutlich, wo die Benachrichtungen sonst aufploppen), das auch nicht mehr weg ging.

Code: Alles auswählen

2024-07-23T21:02:21.999840+02:00 nuc kernel: [441308.826817] liferea invoked oom-killer: gfp_mask=0x140cca(GFP_HIGHUSER_MOVABLE|__GFP_COMP), order=0, oom_score_adj=0
2024-07-23T21:02:22.001297+02:00 nuc kernel: [441308.826824] CPU: 6 PID: 848432 Comm: liferea Tainted: G           OE      6.1.0-23-amd64 #1  Debian 6.1.99-1
2024-07-23T21:02:22.001305+02:00 nuc kernel: [441308.826827] Hardware name: Intel(R) Client Systems NUC8i5BEH/NUC8BEB, BIOS BECFL357.86A.0092.2023.0214.1114 02/14/2023
2024-07-23T21:02:22.001307+02:00 nuc kernel: [441308.826828] Call Trace:
2024-07-23T21:02:22.001308+02:00 nuc kernel: [441308.826830]  <TASK>
2024-07-23T21:02:22.001309+02:00 nuc kernel: [441308.826833]  dump_stack_lvl+0x44/0x5c
2024-07-23T21:02:22.001310+02:00 nuc kernel: [441308.826839]  dump_header+0x4a/0x211
2024-07-23T21:02:22.001311+02:00 nuc kernel: [441308.826843]  oom_kill_process.cold+0xb/0x10
2024-07-23T21:02:22.001312+02:00 nuc kernel: [441308.826845]  out_of_memory+0x49d/0x4c0
2024-07-23T21:02:22.001313+02:00 nuc kernel: [441308.826850]  __alloc_pages_slowpath.constprop.0+0xc6c/0xe30
2024-07-23T21:02:22.001314+02:00 nuc kernel: [441308.826855]  __alloc_pages+0x305/0x330
2024-07-23T21:02:22.001315+02:00 nuc kernel: [441308.826858]  folio_alloc+0x17/0x50
2024-07-23T21:02:22.001316+02:00 nuc kernel: [441308.826862]  __filemap_get_folio+0x155/0x340
2024-07-23T21:02:22.001317+02:00 nuc kernel: [441308.826865]  filemap_fault+0x139/0x910
2024-07-23T21:02:22.001318+02:00 nuc kernel: [441308.826868]  ? filemap_map_pages+0x153/0x700
2024-07-23T21:02:22.001319+02:00 nuc kernel: [441308.826871]  __do_fault+0x30/0x110
2024-07-23T21:02:22.001321+02:00 nuc kernel: [441308.826875]  do_fault+0x1b9/0x410
2024-07-23T21:02:22.001322+02:00 nuc kernel: [441308.826878]  __handle_mm_fault+0x660/0xfa0
2024-07-23T21:02:22.001323+02:00 nuc kernel: [441308.826883]  handle_mm_fault+0xdb/0x2d0
2024-07-23T21:02:22.001325+02:00 nuc kernel: [441308.826887]  do_user_addr_fault+0x191/0x550
2024-07-23T21:02:22.001326+02:00 nuc kernel: [441308.826891]  exc_page_fault+0x70/0x170
2024-07-23T21:02:22.001327+02:00 nuc kernel: [441308.826896]  asm_exc_page_fault+0x22/0x30
2024-07-23T21:02:22.001328+02:00 nuc kernel: [441308.826899] RIP: 0033:0x7f17cdb3c3d9
2024-07-23T21:02:22.001329+02:00 nuc kernel: [441308.826905] Code: Unable to access opcode bytes at 0x7f17cdb3c3af.
2024-07-23T21:02:22.001330+02:00 nuc kernel: [441308.826906] RSP: 002b:00007ffec34848e0 EFLAGS: 00010202
2024-07-23T21:02:22.001332+02:00 nuc kernel: [441308.826909] RAX: 0000000000000000 RBX: 0000000000000000 RCX: 0000561438512950
2024-07-23T21:02:22.001332+02:00 nuc kernel: [441308.826910] RDX: 0000000000000001 RSI: 0000000000000001 RDI: 00005614372be110
2024-07-23T21:02:22.001334+02:00 nuc kernel: [441308.826912] RBP: 00007ffec3484900 R08: 0000000000000000 R09: 0000000000000000
2024-07-23T21:02:22.001334+02:00 nuc kernel: [441308.826913] R10: 00007ffec349a080 R11: 000000000b07d63a R12: 000000007fffffff
2024-07-23T21:02:22.001336+02:00 nuc kernel: [441308.826915] R13: 000056143727f970 R14: 00007ffec34848f8 R15: 00005614372f1b60
2024-07-23T21:02:22.001337+02:00 nuc kernel: [441308.826919]  </TASK>
2024-07-23T21:02:22.001347+02:00 nuc kernel: [441308.826920] Mem-Info:
2024-07-23T21:02:22.001348+02:00 nuc kernel: [441308.826922] active_anon:4078 inactive_anon:2369062 isolated_anon:0
2024-07-23T21:02:22.001349+02:00 nuc kernel: [441308.826922]  active_file:241 inactive_file:94 isolated_file:0
2024-07-23T21:02:22.001350+02:00 nuc kernel: [441308.826922]  unevictable:1482132 dirty:0 writeback:0
2024-07-23T21:02:22.001351+02:00 nuc kernel: [441308.826922]  slab_reclaimable:62284 slab_unreclaimable:45208
2024-07-23T21:02:22.001352+02:00 nuc kernel: [441308.826922]  mapped:27623 shmem:1517359 pagetables:20248
2024-07-23T21:02:22.001353+02:00 nuc kernel: [441308.826922]  sec_pagetables:0 bounce:0
2024-07-23T21:02:22.001354+02:00 nuc kernel: [441308.826922]  kernel_misc_reclaimable:0
2024-07-23T21:02:22.001355+02:00 nuc kernel: [441308.826922]  free:49998 free_pcp:85 free_cma:0
2024-07-23T21:02:22.001357+02:00 nuc kernel: [441308.826928] Node 0 active_anon:16312kB inactive_anon:9476248kB active_file:964kB inactive_file:376kB unevictable:5928528kB isolated(anon):0kB isolated(file):0kB mapped:110492kB dirty:0kB writeback:0kB shmem:6069436kB shmem_thp: 2732032kB shmem_pmdmapped: 0kB anon_thp: 3168256kB writeback_tmp:0kB kernel_stack:27824kB pagetables:80992kB sec_pagetables:0kB all_unreclaimable? no
2024-07-23T21:02:22.001358+02:00 nuc kernel: [441308.826934] Node 0 DMA free:13312kB boost:0kB min:120kB low:148kB high:176kB reserved_highatomic:0KB active_anon:0kB inactive_anon:0kB active_file:0kB inactive_file:0kB unevictable:0kB writepending:0kB present:15992kB managed:15360kB mlocked:0kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB
2024-07-23T21:02:22.001359+02:00 nuc kernel: [441308.826941] lowmem_reserve[]: 0 1814 15799 15799 15799
2024-07-23T21:02:22.001360+02:00 nuc kernel: [441308.826945] Node 0 DMA32 free:71364kB boost:0kB min:15424kB low:19280kB high:23136kB reserved_highatomic:0KB active_anon:144kB inactive_anon:1077616kB active_file:0kB inactive_file:0kB unevictable:727016kB writepending:0kB present:1979240kB managed:1913308kB mlocked:16kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB
2024-07-23T21:02:22.001361+02:00 nuc kernel: [441308.826952] lowmem_reserve[]: 0 0 13985 13985 13985
2024-07-23T21:02:22.001362+02:00 nuc kernel: [441308.826956] Node 0 Normal free:115316kB boost:0kB min:115520kB low:144400kB high:173280kB reserved_highatomic:0KB active_anon:16168kB inactive_anon:8398632kB active_file:544kB inactive_file:756kB unevictable:5201512kB writepending:0kB present:14663680kB managed:14328752kB mlocked:296kB bounce:0kB free_pcp:340kB local_pcp:0kB free_cma:0kB
2024-07-23T21:02:22.001363+02:00 nuc kernel: [441308.826962] lowmem_reserve[]: 0 0 0 0 0
2024-07-23T21:02:22.001364+02:00 nuc kernel: [441308.826966] Node 0 DMA: 0*4kB 0*8kB 0*16kB 0*32kB 0*64kB 0*128kB 0*256kB 0*512kB 1*1024kB (U) 2*2048kB (UM) 2*4096kB (M) = 13312kB
2024-07-23T21:02:22.001365+02:00 nuc kernel: [441308.826980] Node 0 DMA32: 499*4kB (UME) 479*8kB (UME) 394*16kB (UME) 283*32kB (UME) 122*64kB (UME) 75*128kB (UME) 36*256kB (UME) 18*512kB (UME) 14*1024kB (UME) 0*2048kB 0*4096kB = 71364kB
2024-07-23T21:02:22.001366+02:00 nuc kernel: [441308.826998] Node 0 Normal: 4669*4kB (UME) 2297*8kB (UME) 1019*16kB (UME) 958*32kB (UME) 314*64kB (UME) 83*128kB (UME) 0*256kB 0*512kB 0*1024kB 0*2048kB 0*4096kB = 114732kB
2024-07-23T21:02:22.001367+02:00 nuc kernel: [441308.827013] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=1048576kB
2024-07-23T21:02:22.001368+02:00 nuc kernel: [441308.827015] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=2048kB
2024-07-23T21:02:22.001369+02:00 nuc kernel: [441308.827017] 1517753 total pagecache pages
2024-07-23T21:02:22.001370+02:00 nuc kernel: [441308.827018] 0 pages in swap cache
2024-07-23T21:02:22.001371+02:00 nuc kernel: [441308.827019] Free swap  = 0kB
2024-07-23T21:02:22.001372+02:00 nuc kernel: [441308.827020] Total swap = 0kB
2024-07-23T21:02:22.001373+02:00 nuc kernel: [441308.827021] 4164728 pages RAM
2024-07-23T21:02:22.001374+02:00 nuc kernel: [441308.827022] 0 pages HighMem/MovableOnly
2024-07-23T21:02:22.001374+02:00 nuc kernel: [441308.827023] 100373 pages reserved
2024-07-23T21:02:22.001375+02:00 nuc kernel: [441308.827024] 0 pages hwpoisoned
2024-07-23T21:02:22.001376+02:00 nuc kernel: [441308.827025] oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=user.slice,mems_allowed=0,global_oom,task_memcg=/user.slice/user-1001.slice/session-7.scope,task=liferea,pid=848432,uid=1001
2024-07-23T21:02:22.001377+02:00 nuc kernel: [441308.827098] Out of memory (oom_kill_allocating_task): Killed process 848432 (liferea) total-vm:115376216kB, anon-rss:3435696kB, file-rss:0kB, shmem-rss:10236kB, UID:1001 pgtables:12804kB oom_score_adj:0
2024-07-23T21:02:22.102253+02:00 nuc asterisk[3848]: [2024-07-23 21:01:08] #033[1;33mNOTICE#033[0m[3915]: #033[1;37mchan_sip.c#033[0m:#033[1;37m25009#033[0m #033[1;37mhandle_response_peerpoke#033[0m: Peer 'fvd' is now Lagged. (3949ms / 2000ms)
2024-07-23T21:02:22.108607+02:00 nuc asterisk[3848]: [2024-07-23 21:02:01] #033[1;31mERROR#033[0m[3915]: #033[1;37mnetsock2.c#033[0m:#033[1;37m303#033[0m #033[1;37mast_sockaddr_resolve#033[0m: getaddrinfo("sipgate.de", "(null)", ...): No address associated with hostname
2024-07-23T21:02:22.108753+02:00 nuc asterisk[3848]: [2024-07-23 21:02:01] #033[1;31mWARNING#033[0m[3915]: #033[1;37macl.c#033[0m:#033[1;37m890#033[0m #033[1;37mresolve_first#033[0m: Unable to lookup 'sipgate.de'
2024-07-23T21:02:22.108832+02:00 nuc asterisk[3848]: [2024-07-23 21:02:05] #033[1;33mNOTICE#033[0m[3915]: #033[1;37mchan_sip.c#033[0m:#033[1;37m30555#033[0m #033[1;37msip_poke_noanswer#033[0m: Peer 'fvd' is now UNREACHABLE!  Last qualify: 2037
2024-07-23T21:02:22.108903+02:00 nuc asterisk[3848]: [2024-07-23 21:02:05] #033[1;33mNOTICE#033[0m[3915]: #033[1;37mchan_sip.c#033[0m:#033[1;37m30555#033[0m #033[1;37msip_poke_noanswer#033[0m: Peer 'sipgate' is now UNREACHABLE!  Last qualify: 21
2024-07-23T21:02:22.109186+02:00 nuc systemd[1]: session-7.scope: A process of this unit has been killed by the OOM killer.
2024-07-23T21:02:22.122034+02:00 nuc rtkit-daemon[2153]: The canary thread is apparently starving. Taking action.
2024-07-23T21:02:22.124995+02:00 nuc rtkit-daemon[2153]: Demoting known real-time threads.
2024-07-23T21:02:22.125657+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 1106272 of process 1106139.
2024-07-23T21:02:22.125839+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 995725 of process 995583.
2024-07-23T21:02:22.126420+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4483 of process 4431.
2024-07-23T21:02:22.127025+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4431 of process 4431.
2024-07-23T21:02:22.127182+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4479 of process 4429.
2024-07-23T21:02:22.128065+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4429 of process 4429.
2024-07-23T21:02:22.128246+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4480 of process 4427.
2024-07-23T21:02:22.128567+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4427 of process 4427.
2024-07-23T21:02:22.128731+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4135 of process 4105.
2024-07-23T21:02:22.132300+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4105 of process 4105.
2024-07-23T21:02:22.132464+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4137 of process 4108.
2024-07-23T21:02:22.132910+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4108 of process 4108.
2024-07-23T21:02:22.133054+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4134 of process 4107.
2024-07-23T21:02:22.133166+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4107 of process 4107.
2024-07-23T21:02:22.145042+02:00 nuc rtkit-daemon[2153]: Demoted 14 threads.
2024-07-23T21:02:22.145862+02:00 nuc rtkit-daemon[2153]: The canary thread is apparently starving. Taking action.
2024-07-23T21:02:22.148358+02:00 nuc rtkit-daemon[2153]: Demoting known real-time threads.
2024-07-23T21:02:22.148828+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 1106272 of process 1106139.
2024-07-23T21:02:22.148912+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 995725 of process 995583.
2024-07-23T21:02:22.149409+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4483 of process 4431.
2024-07-23T21:02:22.149519+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4431 of process 4431.
2024-07-23T21:02:22.149581+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4479 of process 4429.
2024-07-23T21:02:22.149635+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4429 of process 4429.
2024-07-23T21:02:22.149690+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4480 of process 4427.
2024-07-23T21:02:22.149741+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4427 of process 4427.
2024-07-23T21:02:22.149799+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4135 of process 4105.
2024-07-23T21:02:22.150095+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4105 of process 4105.
2024-07-23T21:02:22.150165+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4137 of process 4108.
2024-07-23T21:02:22.150222+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4108 of process 4108.
2024-07-23T21:02:22.150273+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4134 of process 4107.
2024-07-23T21:02:22.150345+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4107 of process 4107.
2024-07-23T21:02:22.150795+02:00 nuc rtkit-daemon[2153]: Demoted 14 threads.
2024-07-23T21:02:22.150878+02:00 nuc rtkit-daemon[2153]: The canary thread is apparently starving. Taking action.
2024-07-23T21:02:22.151207+02:00 nuc rtkit-daemon[2153]: Demoting known real-time threads.
2024-07-23T21:02:22.151280+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 1106272 of process 1106139.
2024-07-23T21:02:22.152294+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 995725 of process 995583.
2024-07-23T21:02:22.152371+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4483 of process 4431.
2024-07-23T21:02:22.152784+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4431 of process 4431.
2024-07-23T21:02:22.152859+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4479 of process 4429.
2024-07-23T21:02:22.152918+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4429 of process 4429.
2024-07-23T21:02:22.152976+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4480 of process 4427.
2024-07-23T21:02:22.153033+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4427 of process 4427.
2024-07-23T21:02:22.153082+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4135 of process 4105.
2024-07-23T21:02:22.153131+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4105 of process 4105.
2024-07-23T21:02:22.153180+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4137 of process 4108.
2024-07-23T21:02:22.153842+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4108 of process 4108.
2024-07-23T21:02:22.153924+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4134 of process 4107.
2024-07-23T21:02:22.153977+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4107 of process 4107.
2024-07-23T21:02:22.159946+02:00 nuc rtkit-daemon[2153]: Demoted 14 threads.
2024-07-23T21:02:22.160277+02:00 nuc rtkit-daemon[2153]: The canary thread is apparently starving. Taking action.
2024-07-23T21:02:22.160573+02:00 nuc rtkit-daemon[2153]: Demoting known real-time threads.
2024-07-23T21:02:22.160713+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 1106272 of process 1106139.
2024-07-23T21:02:22.160822+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 995725 of process 995583.
2024-07-23T21:02:22.161743+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4483 of process 4431.
2024-07-23T21:02:22.161916+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4431 of process 4431.
2024-07-23T21:02:22.162037+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4479 of process 4429.
2024-07-23T21:02:22.162777+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4429 of process 4429.
2024-07-23T21:02:22.162940+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4480 of process 4427.
2024-07-23T21:02:22.163701+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4427 of process 4427.
2024-07-23T21:02:22.163870+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4135 of process 4105.
2024-07-23T21:02:22.164270+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4105 of process 4105.
2024-07-23T21:02:22.164419+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4137 of process 4108.
2024-07-23T21:02:22.164702+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4108 of process 4108.
2024-07-23T21:02:22.168225+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4134 of process 4107.
2024-07-23T21:02:22.168383+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4107 of process 4107.
2024-07-23T21:02:22.168495+02:00 nuc rtkit-daemon[2153]: Demoted 14 threads.
2024-07-23T21:02:22.168591+02:00 nuc rtkit-daemon[2153]: The canary thread is apparently starving. Taking action.
2024-07-23T21:02:22.168698+02:00 nuc rtkit-daemon[2153]: Demoting known real-time threads.
2024-07-23T21:02:22.168801+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 1106272 of process 1106139.
2024-07-23T21:02:22.168907+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 995725 of process 995583.
2024-07-23T21:02:22.169299+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4483 of process 4431.
2024-07-23T21:02:22.169460+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4431 of process 4431.
2024-07-23T21:02:22.169566+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4479 of process 4429.
2024-07-23T21:02:22.169669+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4429 of process 4429.
2024-07-23T21:02:22.172202+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4480 of process 4427.
2024-07-23T21:02:22.172284+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4427 of process 4427.
2024-07-23T21:02:22.173146+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4135 of process 4105.
2024-07-23T21:02:22.173225+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4105 of process 4105.
2024-07-23T21:02:22.173603+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4137 of process 4108.
2024-07-23T21:02:22.173778+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4108 of process 4108.
2024-07-23T21:02:22.173843+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4134 of process 4107.
2024-07-23T21:02:22.174038+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4107 of process 4107.
2024-07-23T21:02:22.174107+02:00 nuc rtkit-daemon[2153]: Demoted 14 threads.
2024-07-23T21:02:22.174165+02:00 nuc rtkit-daemon[2153]: The canary thread is apparently starving. Taking action.
2024-07-23T21:02:22.174237+02:00 nuc rtkit-daemon[2153]: Demoting known real-time threads.
2024-07-23T21:02:22.174298+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 1106272 of process 1106139.
2024-07-23T21:02:22.174784+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 995725 of process 995583.
2024-07-23T21:02:22.174867+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4483 of process 4431.
2024-07-23T21:02:22.174927+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4431 of process 4431.
2024-07-23T21:02:22.175288+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4479 of process 4429.
2024-07-23T21:02:22.175370+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4429 of process 4429.
2024-07-23T21:02:22.175427+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4480 of process 4427.
2024-07-23T21:02:22.175480+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4427 of process 4427.
2024-07-23T21:02:22.175534+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4135 of process 4105.
2024-07-23T21:02:22.176115+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4105 of process 4105.
2024-07-23T21:02:22.176203+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4137 of process 4108.
2024-07-23T21:02:22.176259+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4108 of process 4108.
2024-07-23T21:02:22.176596+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4134 of process 4107.
2024-07-23T21:02:22.176980+02:00 nuc rtkit-daemon[2153]: Successfully demoted thread 4107 of process 4107.
2024-07-23T21:02:22.177059+02:00 nuc rtkit-daemon[2153]: Demoted 14 threads.

Antworten