Allgemein
Knowledge Base
- Neue Struktur (In Arbeit)
- Computertechnisches
Community
Privat
![]() | ||
Archiv: 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022 2023 2024 |
|
Hier findet Mann (Frau vielleicht auch) Information und ggf. Sorgen bzw. | ||
Fragen? Keine! Gut so, weitermachen. |
Oro, mein Riechfläschchen! |
Pi-Hole mit unbound...
Sehr ausführlich beschrieben, was unbound genau macht.
Zu frühe Optimierung ist die Wurzel allen Übels...
Es gibt 4 Hauptlösungen ein Computer-Programm schneller zu machen:
Fundstücke...
Budgie Panel aufbohren...
Enthält auch eine Anleitung, wie sich das unter Solus Linux bauen lässt. Geht echt einfach, wenn man weiß, was man machen muss. Nur die Netzwerk Pfeile finde ich hässlich, aber das ist Geschmackssache.
Upgrade Buster to Bullseye auf Raspi 4...
Man kann einfach der Anleitung folgen von https://www.tomshardware.com/how-to/upgrade-raspberry-pi-os-to-bullseye-from-buster aber bei mir gab es ein paar Probleme...
Also einmal selbst runtergeschrieben
sudo apt update sudo apt dist-upgrade -y
Das schlug fehl mit Fehler: The following packages have unmet dependencies: libc6-dev : Breaks: libgcc-8-dev (< 8.4.0-2~) but 8.3.0-6+rpi1 is to be installed E: Error, pkgProblemResolver::Resolve generated breaks, this may be caused by held packages.
Also erst:
sudo apt install gcc-8-base
Nochmal:
sudo apt dist-upgrade -y
Dann die Source-List editieren
sudo vi /etc/apt/sources.list
Da gibt es eine Zeile in der `sources.list` Datei
deb http://raspbian.raspberrypi.org/raspbian/ buster main contrib non-free rpi
das "buster" ersetzen durch "bullseye"
deb http://raspbian.raspberrypi.org/raspbian/ bullseye main contrib non-free rpi
Speichern mit "ESC :wq"
sudo apt update sudo apt dist-upgrade -y sudo apt autoclean sudo reboot
Nach dem neuen Anmelden sollte jetzt Debian Bullseye laufen.
Um jetzt den Pihole wieder zum Laufen zu bringen, muss der DNS noch abgeklemmt werden, da dieser den Port 53 blockiert. Zudem ist eine feste IP Pflicht. In der /etc/dhcpd.conf habe ich eine feste IP Adresse eingestellt.
Dann einfach den "connman" entfernt.
sudo apt remove connman
Das resultierte leider in einem Stehenbleiben des Systems, man sollte den connmand Service wohl vorher abschalten.
sudo service connmand stop
Danach rebooten und dann sollte der Pihole wieder installierbar sein.
Bei mir rennt er wieder und filtert brav was er soll...
UEFI - No space left on device - again...
UEFI ist so ein Scheiß-System!
Ich habe eine neue Platte eingebaut und will jetzt von dieser Booten können. Also mit dem USB-Stick gebootet, die alte Platte einfach kopiert. Jetzt in die chroot-Umgebung und per grub-install Grub neu installieren.
grub-install --target=x86_64-efi --efi-directory=/boot
... No space left on device ...
Das hatten wir doch schon mal, so ein beknacktes System. UEFI ist schrott per default!
Also den Stick nochmal gebootet und jetzt die cmdline editiert und den Parameter "efi_no_storage_paranoia" hinzugefügt. VORSICHT! Das kann nach hinten los gehen. Mir jetzt echt egal!
Danach booten, in die chroot-Umgebung wechseln und den grub-install erneut ausführen.
Funktioniert jetzt ohne Fehler.
Booten geht.
Jetzt bootet die neue Platte, die alte werde ich jetzt ausbauen können.
Solus aufräumen...
Das Rolling Release macht echt Spaß, man müllt sich allerdings mit der Zeit auch eine 1TB Platte mit Installationsdaten voll und die gibt es reichlich.
Wer den Software Center von Solus nicht nutzt, muss ab und zu das eopkg dc
von Hand aufrufen.
# eopkg dc
Kurz danach ist die Platte von sämtlichen gesammelten alten Installationsdaten befreit.
Unbewiesener Nachteil: Ein eopkg history
ist vielleicht nicht mehr möglich.
Wem das nicht reicht, die Logs könnten noch bereinigt werden, hier sammelt Solus auch viel dreck äh Datenmüll.
# journalctl --vacuum-size=100M
Schon sollte auf der Platte wieder reichlich Platz zu finden sein. Mein Belegungsgrad sank von 85% auf 49%. (1TB SSD).
In Android 15 Pixel 7 (selbst getestet)
Fertig.
Jedesmal ist der Mist wo anders versteckt. Ich hasse es!
Booten wollten beim ersten Versuch nicht mehr...
60€ für 1TB Crucial-SSD habe ich mal eben an Amazon gegeben, morgen soll die neue SSD kommen.
Die alte Kingston reagiert extrem lahm.
# hdparm -t --direct /dev/nvme0n1 /dev/nvme0n1: Timing O_DIRECT disk reads: 24 MB in 3.02 seconds = 7.95 MB/sec
Die SSD ist wohl wirklich schrott...
Kingston, NIE WIEDER!...
Da hat man mir doch glatt eine Kingston SSD SNV2S500G untergejubelt. Der Laden wo ich die bekommen habe, ist leider dem allgemeinen Untergang gefolgt. Jetzt habe ich das Problem.
Von Kingston gibt es nur Support, wenn man dieses Kindermädchen installiert hat. Hab ich aber nicht.
Also hilft erst mal der Kernel-Parameter nvme_core.default_ps_max_latency_us=0
damit wird APST (Autonomous Power State Transition) abgeschaltet, der das Problem darstellt.
Bei mir traten immer wieder Fehler auf, die ich mir lange Zeit nicht erklären konnte. Jetzt traten sie so stark hervor und nicht mal ein Reset half, nur richtiges Ausschalten.
Goodbye Microsoft...
Es ist vollbracht, mein Lenovo Laptop x230 ist von M$ Windows 10 befreit. Ich habe mir auch hier der Einfachheit halber ein Solus Linux installiert, nicht weil ich Gentoo nicht mehr mag, aber für diese "leistungsschwache" Hardware (Core i5-3320M @ 2.6GHz) ist es wohl besser nicht ständig den Compiler anzuwerfen, nur weil ich etwas installieren möchte. Und Solus deshalb, weil ich damit immer auf dem neuesten Stand bin und nicht jährlich neue Versionen installieren muss. Rolling Release halt.
Und M$ hat nur noch genervt, weil Windows 11 ja so toll und besser wäre. Pustekuchen, Schluss aus vorbei, Punkt.
Die Installation war vom USB-Stick in ein paar Minuten erledigt.
Die Hardware sollte noch ein paar Jahre halten.
Fundstücke
Günstiges Hosting, es muss nicht immer AWS sein.
Eigentlich war ich ein Fan von Lens, aber mittlerweile ist das Tool einfach zu teuer geworden und OpenLens funktioniert für mich nicht wie gewünscht, also verwende ich jetzt k9s.
das einfach bauen mit
make build
Und ein kleines Script verwenden:
cd $HOME/develop/k9s ./execs/k9s < -n my-namespace > # falls Namespaces verwendet werden.
Das als Script mit Namen `k9s` ablegen und schon kann mittels dieses Scripts auf der Konsole ein k9s gestartet werden. Mann sollte tunlichst ein paar Commands lernen und verstehen. Dann klappt es wunderbar.
Es hört einfach nicht auf Montag zu werden...
Schon wieder Montag...
Danke fürs Video.
OpenSSL
eine GUI wäre, genau so schrecklich würde diese aussehen.
Montag...
Kubernetes auf Raspi
Nicht das ich es jemals vorhabe Kubernetes auf meinem Raspi zu installieren, aber hier wird ein Weg beschrieben.
Self generated black hole...
Ich hatte es mit komplizierter vorgestellt.
Fundstücke...
Server erneuert...
Der kleine Server wurde durch "neuere" Hardware ersetzt. Bisher tat es ein Zotac CI237 Intel Celeron mit 4 Kernen und 1,1GHz. Der neuere ist ein Intel Core-i5 8500T mit 6 Kernen mit 2,1GHz, da ist ordentlich mehr Dampf hinter. Zudem ist die Platte größer, mehr RAM hat er auch.
Erste Schwierigkeit, der alte Server nutzte noch MBR, der neue will partout UEFI. Also erstmal wieder das Gentoo-Handbuch ausgegraben, die Platte entsprechend partioniert (256mb für EFI, der Rest für Root). Ein Stage-3 drauf kopiert und dann sukzessive die Software drauf kopiert, die ich haben will. Der Kernel mit allen alten Einstellungen habe ich übernommen. Auch sämtliche Konfigs vom alten System habe ich übernommen.
Ein Punkt war das Netzwerk, das zickte etwas, da ich scheinbar ein paar Dinge abseits der Norm verwendet habe. Da waren die Rechte eines Nutzers auf dem Server falsch. Jetzt geht der Login jedenfalls.
Docker installiert, dazu docker-cli und extra docker-compose, sonst funktioniert `docker compose` nicht.
Jetzt rennt das System wieder.
Shellinabox...
Nutze ich seit einer Ewigkeit, jetzt will ich den alten Server aufrüsten, mehr RAM, mehr Platte, mehr Dampf.
Ein paar Anpassungen sind zu tätigen...
Fundstücke...
Wer rastet, rostet...
Warum nicht auch mal Rust lernen. Hier gibt es jede Menge Code Beispiele.
Eigentlich gefällt mir GO besser, weil es noch einfacher aussieht.
Refurbed Hardware gefällig...
Man kann sich auf der Seite echt verlieren, bei so vielen Angeboten.
Cups und AirPrint...
In der Datei /etc/portage/package.use/print
habe ich folgende Einträge:
net-dns/avahi mdnsresponder-compat net-print/cups zeroconf
Dann avahi und cups neu gebaut:
emerge -a avahi cups
In der Datei /etc/cups/cupsd.conf
wo der Drucker angeklemmt ist:
Listen localhost:631
das durch Port 631
ersetzen.
<Location />
dort 'Allow @local' hinzufügen
<Location /admin>
dort 'Allow @local' hinzufügen
<Location /admin/conf>
dort 'Allow @local' hinzufügen
DefaultEncryption Never
hinzufügen.
Die Datei speichern, jetzt den cupsd service
neu starten. Bei mir ist es noch /etc/init.d/cupsd restart
.
Ganz wichtig: avahi
muss als Service laufen, sonst werden die AirPrint?-Drucker nicht gefunden.
Bei mir hat es geholfen, ich sehe auf den iPads jetzt wieder meinen Drucker.
Sonst hilft vielleicht: https://wiki.debian.org/CUPSAirPrint
PV Anlage...
Gestern ist wieder der Hauptzähler ausgefallen, gleich mal anrufen, ich will endlich so einen Shelly Pro 3em, damit auf dieser Seite endlich Ruhe ist.
Ich hatte Netdata 2019 mal installiert, lief eigentlich ganz gut.
Man möge zuerst das eigene System vorbereiten:
bash <(curl -sSL https://raw.githubusercontent.com/netdata/netdata/master/packaging/installer/install-required-packages.sh)
Genaueres findet man auf der Seite: https://learn.netdata.cloud/docs/developer-and-contributor-corner/install-the-netdata-agent-from-a-git-checkout#install-netdata. Auf meinem Gentoo-System wollte das Bash-Script nicht, da es Parameter verlangt. Also Script holen, ausführbar machen und starten:
curl -sSL https://raw.githubusercontent.com/netdata/netdata/master/packaging/installer/install-required-packages.sh >preinst-netdata.sh chmod u+x preinst-netdata.sh ./preinst-netdata.sh distribution gentoo netdata-all
Es werden halt ein paar Programme extra benötigt, diese waren bei mir aber schon installiert.
Dann holt man sich das Paket:
git clone https://github.com/netdata/netdata.git --depth=100 --recursive
Sollte es schon vorhanden sein, wie bei mir, einfach mal den alten Klumpatsch da drin löschen:
git clean -dfx && git submodule foreach 'git clean -dfx' && git submodule update --recursive --init
Dann bauen, das dauert locker mal 30min, wenn der Rechner nicht soo schnell ist. (Intel N3450) und den Parameter --no-updates
gibt es so nicht mehr.
./netdata-installer.sh --install-prefix /opt --disable-telemetry --dont-start-it
Starten:
rc-service netdata start
Und schon kann über die URL http://192.168.2.20:19999 auf die Daten zugegriffen werden. Leider verlangt das System einen Login, den will ich aber nicht, es geht ja auch ohne. Auch habe ich aktuell keine Cloud-Anbindung vereinbart (--disable-telemetry). Was mit diesem Cloud-Ansatz passiert, sieht man schön an der PV-Anlage, diese liefert mal wieder keine Daten mehr. Danke fürs Update. Grrr...
Fundstücke...
HAProxy verwenden...
Das habe ich bei mir eingebunden, wer jetzt 5x eine 404 Seite bekommt, weil er irgendetwas versucht aufzurufen, das nicht da ist, bekommt die nächsten 20min einen 403 präsentiert. Verfluchte automatisierte Tests.
Gitea...
Nachdem das Gitea-Projekt von einem gewinnorientierten Unternehmen übernommen wurde, entstand sofort ein Fork des Source-Codes. Dies ist https://forgejo.org/.
Ich habe mein bei mir laufendes lokales Gitea jetzt darauf umgestellt. Version 1.21.11-2. Aber das bleibt nicht so, ich werde es jetzt erstmal testen und wenn es läuft, auf die neueren Versionen upgraden.
Hier findet man eine Docker-Compose Datei: https://forgejo.org/docs/latest/admin/installation-docker/
Wieder geht ein Jahr... träller... (PUR)
Frohes Neues Jahr...
Was liegt sonst an? Einen Penetrationstest möchte ich meinem Server verordnen, nachdem jetzt fast alles steht.
Wer weiterhin Lust hat, in meinen Lars alten Informationen zu stöbern, sei hier herzlichst eingeladen meine alten Blogs zu lesen.
Die älteren KommentareBlogs möge man hier suchen...