Réinstallation serveur ubuntu, suite

Author: Unknown

Date: 28/08/2025

Marre des rapspberry qui en rebootent plus à cause d'une carte SD qui a pris un coup de calcaire. J'ai récupéré un optiplex 9020 / Core i3 / 4Go de RAM / 250Go de disque dur, et j'ai commence depuis zéro l'installation d'un serveur qui réponds le mieux possible à mes besoins.

Je prends des notes pour gagner du temps la prochaine fois.

Ce fichier reprends la dernière version à jour, complète. Les versions intermédiaires sont ici:

  • 7 juin: [Première tentative, loupée](20250607-Réinstallation loupée d'un serveur ubuntu.md)
  • 8 juin: [Deuxième tentative](20250608-Réinstallation d'un serveur ubuntu, première étape.md)
  • 15 juillet:
  • 19 juillet: [Sauvegarde régulière des scripts et configuration docker](20250719-Sauvegarde régulière de la config docker et de mes scripts.md)

Install de base

J'installe une ubuntu serveur classique 24.04 LTS.

Update system

sudo apt update && sudo apt upgrade

Mise à jour automatiques de sécurité

sudo apt install unattended-upgrades -y

Remove Snap

J'aime pas Snap. Enfin, surtout, je connais pas assez. Alors, je vais le dégager dans un premier temps. Déjà, y a quoi d'installé avec snap ? snap list. J'ai rien d'installé, donc je vire le principe même de Snap.Ah, bah, sur ubunto, cela a l'air pas immédiat/recommandé de tout virer snap. Je vais gagner du temps et le laisser, du coup.

Packages à installer

J'ai des vieilles habitudes, donc, vieux packages à remettre: sudo apt install net-tools plocate

Firewall

The UFW (Uncomplicated Firewall) is a user-friendly way to manage your firewall rules on Ubuntu Server. It provides a simplified interface for configuring and managing iptables. Here’s how you can set up UFW:

  • Check the status of UFW: sudo ufw status verbose
  • Enable UFW: sudo ufw enable
  • Allow SSH access: sudo ufw enable
  • Allow necessary services, such as HTTP (port 80) or HTTPS (port 443): sudo ufw allow http et sudo ufw allow https
sudo ufw status verbose
sudo ufw enable
sudo ufw allow ssh 
sudo ufw allow http
sudo ufw allow https
sudo ufw status verbose

[Ajout du 15 juillet 2025] Bizarrement, après reboot, les règles ne sont plus en place

user@lnxsrv:~$ sudo ufw status
Status: inactive

La configuration n'est pas perdue pour autant:

user@lnxsrv:~$ sudo ufw show added
Added user rules (see 'ufw status' for running firewall):
ufw allow 22/tcp
ufw allow 80/tcp
ufw allow 443
ufw allow 9090
ufw allow 9100
ufw allow 3000
ufw allow 3000/tcp

Une réactivation manuelle fonctionne:

user@lnxsrv:~$ sudo ufw enable
Command may disrupt existing ssh connections. Proceed with operation (y|n)? y
Firewall is active and enabled on system startup
user@lnxsrv:~$ sudo ufw status verbose
Status: active
Logging: on (low)
Default: deny (incoming), allow (outgoing), deny (routed)
New profiles: skip

To                         Action      From
--                         ------      ----
22/tcp                     ALLOW IN    Anywhere
80/tcp                     ALLOW IN    Anywhere
443                        ALLOW IN    Anywhere
9090                       ALLOW IN    Anywhere
9100                       ALLOW IN    Anywhere
3000                       ALLOW IN    Anywhere
3000/tcp                   ALLOW IN    Anywhere
22/tcp (v6)                ALLOW IN    Anywhere (v6)
80/tcp (v6)                ALLOW IN    Anywhere (v6)
443 (v6)                   ALLOW IN    Anywhere (v6)
9090 (v6)                  ALLOW IN    Anywhere (v6)
9100 (v6)                  ALLOW IN    Anywhere (v6)
3000 (v6)                  ALLOW IN    Anywhere (v6)
3000/tcp (v6)              ALLOW IN    Anywhere (v6)

Bizarrement, après reboot, cette fois-ci, les règles sont bien là. Ah zut non, finalement, plus tard, les règles ne sont plus là. Bizarre.

Fail2ban

sudo apt install fail2ban

Durcir accès ssh

sudo cp /etc/ssh/sshd_config /etc/ssh/sshd_config.orig
sudo vi /etc/ssh/sshd_config

Uncomment the line under the PermitRootLogin directive to explicitly forbid SSH login attempts as root::

PermitRootLogin no
MaxAuthTries 3
LoginGraceTime 15
sudo sshd -t
sudo systemctl reload ssh

Packages divers

sudo apt-get install git

Docker

  • sudo apt install apt-transport-https curl
  • Add Docker’s Official GPG Key https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
  • Set Up Docker’s Stable Repository echo "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(. /etc/os-release && echo "$VERSION_CODENAME") stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
  • sudo apt update
  • sudo apt install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
  • Vérification:
    • sudo systemctl is-active docker
    • sudo docker run hello-world
  • Enabling Non-root Users to Run Docker Commands: sudo usermod -aG docker ${USER} suivi d'un sudo reboot

Synchro du NAS

Montage partage du NAS

  • sudo mkdir -p /mnt/nas_pctv_ro
  • sudo cp /etc/fstab /etc/fstab.orig
  • sudo vi /etc/fstab et ajouter la ligne:
  • //192.168.0.13/DD3TO_ /mnt/nas_pctv_ro cifs username=****,password=****,ro,iocharset=utf8,file_mode=0777,dirmode=0777,vers=2.1 0 0
  • sudo systemctl daemon-reload
  • sudo mount /mnt/nas_pctv_ro
  • ls /mnt/nas_pctv_ro/

Montage du disque dur externe

Le disque dur interne de l'optiplex n'est pas assez grand. J'utilise un disque dur externe de 1To pour mes données. Dans un premier temps, pas chiffré, et c'est pas terrible.

  • lsblk pour repérer comment est identifié le disque dur externe. Cela me donne:
user@lnxsrv:~/scripts$ lsblk
NAME                      MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                         8:0    0 298,1G  0 disk
├─sda1                      8:1    0     1G  0 part /boot/efi
├─sda2                      8:2    0     2G  0 part /boot
└─sda3                      8:3    0   295G  0 part
  ├─ubuntu--vg-ubuntu--lv 252:0    0   245G  0 lvm  /
  └─ubuntu--vg-home       252:1    0    50G  0 lvm  /home
sdb                         8:16   0 931,5G  0 disk
├─sdb1                      8:17   0   100G  0 part
├─sdb2                      8:18   0    64G  0 part
└─sdb3                      8:19   0 767,5G  0 part
sr0                        11:0    1  1024M  0 rom
  • sudo mkdir -p /mnt/linux/
  • sudo vi /etc/fstab
  • rajouter la ligne /dev/sdb3 /mnt/linux ext4 defaults 0 2
  • sudo systemctl daemon-reload
  • sudo mount /mnt/linux
  • ls /mnt/linux/
  • touch /mnt/linux/PERSONNEL/test_prout

Script de synchro du NAS

  • Tout d'abord:
cd
mkdir -p scripts
cd scripts
vi synchro_pctv_personnel_to_local.bash

Synchro en crontab

  • crontab -e
  • 33 3,7,11,17 * * * /home/user/scripts/synchro_pctv_personnel_to_local.bash

Utilisation de docker pour les sites statiques et les redirections

  • Je ne veux pas avoir un seul fichier compose.yaml à rallonge.
  • Si je veux que le proxy et que letsencrypt-companion arrive à communiquer avec les sites web montés par d'aures fichiers compose.yaml, alors il faut expliciter un réseau web:
  • docker network ls devrait faire apparaitre uniquement bridge, host et none
  • docker network create nginx-proxy pour créer le réseau "externe" utilisable par différents compose.yaml
  • L'arbo disque:
user@lnxsrv:~/docker$ find . -type d
.
./noteblogger-sites
./front-nginx-proxy
./front-nginx-proxy/html
./front-nginx-proxy/certs
./front-nginx-proxy/vhost.d
./front-nginx-proxy/test-nginx
./front-nginx-proxy/test-nginx/html
  • Le fichier ./front-nginx-proxy/compose.yaml: :
networks:
  default:
    external:
      name: nginx-proxy

services:
  nginx-proxy:
    image: jwilder/nginx-proxy
    container_name: nginx-proxy
    restart: "on-failure"
    ports:
      - "80:80"
      - "443:443"
    volumes:
      - /var/run/docker.sock:/tmp/docker.sock:ro
      - ./certs:/etc/nginx/certs
      - ./vhost.d:/etc/nginx/vhost.d
      - ./html:/usr/share/nginx/html
    environment:
      - TRUST_DOWNSTREAM_PROXY=false

  letsencrypt:
    image: jrcs/letsencrypt-nginx-proxy-companion
    container_name: letsencrypt-companion
    restart: "on-failure"
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock:ro
      - ./certs:/etc/nginx/certs
      - ./html:/usr/share/nginx/html
    environment:
      - NGINX_PROXY_CONTAINER=nginx-proxy
      - DEFAULT_EMAIL=liocttnavud@gmail.com
    depends_on:
      - nginx-proxy

  test-nginx:
    image: nginx:alpine
    container_name: test-nginx
    restart: "on-failure"
    volumes:
      - ./test-nginx/html:/usr/share/nginx/html:ro
    environment:
      - VIRTUAL_HOST=test.9h56.fr
      - LETSENCRYPT_HOST=test.9h56.fr
      - LETSENCRYPT_EMAIL=liocttnavud@gmail.com
    expose:
      - "80"
  • Le fichier ./noteblogger-sites/compose.yaml:
networks:
  default:
    external:
      name: nginx-proxy

services:
  articles-nginx:
    image: nginx:alpine
    container_name: articles-nginx
    restart: "on-failure"
    volumes:
      - /var/www/articles.home.9h56.fr/html:/usr/share/nginx/html:ro
    environment:
      - VIRTUAL_HOST=articles.home.9h56.fr
      - LETSENCRYPT_HOST=articles.home.9h56.fr
    expose:
      - "81"

  diary-nginx:
    image: nginx:alpine
    container_name: diary-nginx
    restart: "on-failure"
    volumes:
      - /var/www/diary.home.9h56.fr/html:/usr/share/nginx/html:ro
    environment:
      - VIRTUAL_HOST=diary.home.9h56.fr
      - LETSENCRYPT_HOST=diary.home.9h56.fr
    expose:
      - "82"

  ia-nginx:
    image: nginx:alpine
    container_name: ia-nginx
    restart: "on-failure"
    volumes:
      - /var/www/ia.home.9h56.fr/html:/usr/share/nginx/html:ro
    environment:
      - VIRTUAL_HOST=ia.home.9h56.fr
      - LETSENCRYPT_HOST=ia.home.9h56.fr
    expose:
      - "83"

  noteblogger-nginx:
    image: nginx:alpine
    container_name: noteblogger-nginx
    restart: "on-failure"
    volumes:
      - /var/www/noteblogger.home.9h56.fr/html:/usr/share/nginx/html:ro
    environment:
      - VIRTUAL_HOST=noteblogger.home.9h56.fr
      - LETSENCRYPT_HOST=noteblogger.home.9h56.fr
    expose:
      - "84"

Sauvegarde régulière de la config docker et de mes scripts

Script de synchro

  • Tout d'abord:
cd
mkdir -p scripts
cd scripts
vi backup.bash

Synchro en crontab

  • crontab -e
  • 56 20 * * * /home/user/scripts/backup.bash

La suite:

J'aimerais également:

  • une génération régulière des mes blogs
  • remonter le disque dur externe si démonté-je-ne-sais-pas-pourquoi
  • remonter le partage du nas si démonté-je-ne-sais-pas-pourquoi
  • un redémarrage automatique des containers en cas de reboot du serveur
  • un suivi / admin web docker (https://github.com/henrygd/beszel?tab=readme-ov-file?)
  • une centralisation des logs apaches docker et les interroger via Matomo
  • installer une gallerie photo++ style photoprism
  • une centralisation des logs docker et les interroger via un ELK
  • une centralisation des logs locaux et les interroger via un ELK
  • vérifier que la sauvegarde mensuelle fonctionne
  • une centralisation de certains logs distants et les interroger via un ELK
  • sortir les éventuels password des fichiers de configuration

Tags: computing ubuntu serveur-bayart back2code informatique article mon-serveur-à-moi-qui-me-va-bien