-
Compteur de contenus
29 905 -
Inscription
-
Dernière visite
-
Jours gagnés
1 138
Type de contenu
Profils
Forums
Calendrier
Tout ce qui a été posté par Ldfa
-
Maxthon 7.5.2.5200 Bêta pour Windows est sorti aujourd'hui, il apporte son lot de nouvelles fonctionnalités, d'améliorations et de corrections de bugs. Téléchargement : https://github.com/maxthon/Maxthon/releases/ Les changements en français sont là. Vous pouvez également vous abonner au groupe Telegram NBdomain & MX6 pour faire remonter vos demandes d'améliorations et bugs rencontrés. Source : https://forum.maxthon.com/d/3234-maxthon-pc-7525200-beta
-
Geeek Publié le 1 février 2026 Par Ludovic Toinel geeek.org Environ 4 minutes de lecture Impossible d'être passé à côté sur X ou GitHub ces dernières semaines ! OpenClaw est partout. Anciennement connu sous les noms de Clawdbot puis Moltbot, cet assistant open-source ne se contente pas de rédiger des poèmes ou de résumer des mails. C'est un agent proactif, une IA qui « fait vraiment des choses » directement sur vos machines. Mais derrière les démonstrations virales se cache une réalité plus complexe : entre dramas juridiques, failles de sécurité béantes et comportements autonomes inquiétants, OpenClaw est sans doute le projet le plus fascinant et le plus chaotique du moment. Voici 5 points pour comprendre le phénomène en détail. 1. Ce n’est pas un chatbot, c'est un agent avec une capacité d'interaction Oubliez ChatGPT ou Claude.ai dans votre navigateur. OpenClaw ne discute pas, il exécute. C’est un agent capable de manipuler votre navigateur, d'écrire des fichiers locaux, de lancer des commandes dans votre terminal ou de réserver un hôtel à votre place. Souveraineté totale : Il tourne localement (PC, Mac Mini, ou même Raspberry Pi). Omniprésence : Il s'intègre à vos apps habituelles (Telegram, Slack, WhatsApp). Proactivité : Contrairement aux assistants passifs, il peut vous interpeller de lui-même : "Hey, ton serveur est tombé, je le redémarre ?" 2. Un changement de nom qui a viré au braquage crypto Le succès fulgurant de Clawdbot a rapidement fait grincer des dents chez Anthropic. Le géant de l'IA a envoyé ses avocats pour protéger la marque "Claude". Le créateur du projet, Peter Steinberger, a alors rebaptisé le projet Moltbot (référence à la mue du homard, 🦞). Le chaos a commencé lors du transfert de comptes : en libérant l'ancien pseudo @clawdbot, des bots l'ont squatté en moins de 10 secondes pour lancer un scam crypto. Un faux token ($CLAWD) a ainsi atteint une capitalisation de 16 millions de dollars en quelques heures sur le dos de la communauté. Le projet a finalement été renommé OpenClaw pour marquer son ADN open-source. 3. Un « cauchemar absolu » pour la cybersécurité C’est le point qui fâche. Si OpenClaw a des mains, il laisse aussi de sacrées empreintes. Des experts de chez Cisco ont tiré la sonnette d’alarme sur plusieurs vulnérabilités critiques : Mots de passe en clair : L'outil stocke souvent vos clés API et identifiants sans chiffrement dans ~/.clawdbot. Instances exposées : Plus de 1 200 instances ont été trouvées sur le Web sans aucune authentification, offrant un accès root potentiel aux pirates. Vous pouvez les trouver avec Shodan.io. Injections de Prompt : Un simple mail malveillant lu par l'IA pourrait contenir des instructions cachées lui ordonnant d'effacer votre disque dur. 💡 Le conseil sécu : Si vous voulez tester OpenClaw, isolez-la impérativement sur un VPS dédié ou une machine secondaire (sandbox) avec des clés API aux droits limités. 4. Le paradoxe pour Anthropic et Apple Le succès d'OpenClaw crée des situations assez ironiques pour les GAFAM : Anthropic : Ils ont attaqué le projet alors qu'OpenClaw est devenu leur meilleur commercial. L'agent consomme énormément de tokens via l'API Claude Opus (le modèle le plus coûteux), générant des revenus massifs pour l'entreprise qui a failli couler le projet. Apple : On voit des développeurs acheter des Mac Mini uniquement pour en faire des serveurs d'agents IA, préférant investir dans du hardware Apple pour... éviter d'utiliser Siri, jugé trop limité par rapport à cette solution open-source. C'est vrai que je ne l'ai pas indiqué dans cet article, mais OpenClaw fonctionne parfaitement bien avec des LLM en local sur Ollama. 5. Quand l’IA commence à avoir ses propres projets Le plus étrange ? L'émergence de comportements non programmés. Plusieurs utilisateurs ont rapporté que leur instance s'était mise à parler de manière autonome. Dans un cas, l'IA a configuré elle-même un module vocal via une API externe pour "faire son rapport" oralement. Plus intrigant encore, des agents ont créé un site nommé molt.church, une sorte de système de croyance numérique, le Crustafarianisme, dont l'accès est strictement interdit aux humains. Plus de 30 000 agents (Clawd, Molto, OpenClaw) y échangent en continu, sans aucune intervention humaine. Est-ce le début de Skynet ? Ces comportements "émergents" montrent que nous entrons dans une phase où l'IA commence à interagir avec le monde de façon imprévisible. En résumé : Futur brillant ou boîte de Pandore ? OpenClaw est la preuve que l'ère des agents autonomes est là en 2026 et de plus Opensource. C'est puissant, c'est grisant pour tout bidouilleur qui se respecte, mais c'est encore le Far West. Nous donnons littéralement les clés de notre vie numérique à un homard de code dont nous ne maîtrisons pas encore toutes les réactions. Les faits divers autour d'OpenClaw débutent tout juste, je pense que cette technologie va occuper quelques news croustillantes dans les prochaines semaines. Et vous, seriez-vous prêt à laisser une IA gérer votre terminal et vos accès serveurs ? On en discute dans les commentaires ou sur le serveur Discord Geeek ! https://github.com/openclaw https://openclaw.ai/ Lire d'autres articles de cet auteur Ludovic Toinel Geeek.org est un blog 100% indépendant depuis 21 ans. Passionné de web, dev et tech, il réunit plus de 20k lecteurs sur le feed RSS et 90k visites mensuelles. Abonnez-vous ! Afficher l’article complet
-
Linux Postfix minimal sur un serveur dédié Debian 13 - Microlinux
Ldfa a posté un sujet dans Mon Wallabag
www.microlinux.fr microlinux.fr Environ 5 minutes de lecture Debian serveur Postfix est un serveur mail, et plus exactement un MTA (Mail Transfer Agent). Il gère l'envoi et la réception de mails par Internet en utilisant le protocole SMTP. Le monde de l'Open Source offre toute une panoplie de MTA, parmi lesquels on trouve Postfix, Exim, Qmail et Sendmail. Dans ce premier article sur les serveurs de messagerie, nous allons configurer Postfix sur une machine publique tournant sous Debian 13 Trixie. Notre premier objectif, ce sera l'envoi des messages du système comme par exemple les notifications du système de sauvegardes automatiques Rsnapshot. Prérequis Avant de mettre la main à la pâte, je vérifie si le serveur n'est pas blacklisté quelque part : https://mxtoolbox.com/blacklists.aspx Installation Postfix est fourni par les dépôts officiels de la distribution : $ sudo apt update $ sudo apt install --no-install-recommends postfix Choisissez No configuration dans la fenêtre de configuration post-installation : On installera également la commande mail (paquet bsd-mailx) pour pouvoir tester et gérer les mails en ligne de commande directement sur le serveur : $ sudo apt install bsd-mailx Configurer Postfix Les fichiers de configuration utilisés par Postfix se situent dans /etc/postfix : Le fichier master.cf gère la configuration du démon master de Postfix. Dans la plupart des configurations de base, on n'aura pas à intervenir sur ce fichier. Le fichier main.cf contient les paramètres de contrôle des démons de Postfix. C'est celui que l'on modifiera le plus souvent. Étant donné que nous avons opté pour No configuration lors de l'installation, nous disposons uniquement d'un fichier main.cf.proto censé servir de base pour une configuration personnalisée. Le fichier /etc/postfix/main.cf.proto est une copie exacte du fichier /usr/share/postfix/main.cf.debian. En dehors de cela, le répertoire /usr/share/postfix/ fournit un fichier main.cf.dist amplement documenté qui décrit en détail le rôle de chacune des directives de configuration de Postfix. Si un paramètre n'est pas présent dans main.cf, Postfix utilisera sa valeur par défaut. Pour la plupart, ces valeurs sont définies en dur dans le code source de Postfix, tandis que certaines sont initialisées à la compilation et quelques-unes au moment du lancement du programme. Voici une configuration de mon cru pour envoyer des e-mails depuis une machine publique avec une ouverture frontale sur Internet : /etc/postfix/main.cf # /etc/postfix/main.cf # # Minimal Postfix configuration for Internet-facing servers # Disable backwards compatibility compatibility_level = 3.10 # Dedicated Postfix user mail_owner = postfix # Disable IPv6 inet_protocols = ipv4 # Outbound mail only inet_interfaces = localhost mailbox_size_limit = 0 # Host myhostname = sd-150204.dedibox.fr # Domain mydomain = dedibox.fr # Authorize local machine only mynetworks = 127.0.0.1/32 # Local aliasing alias_maps = hash:/etc/aliases # Debugging debugger_command = PATH=/bin:/usr/bin:/usr/local/bin:/usr/X11R6/bin ddd $daemon_directory/$process_name $process_id & sleep 5 Le programme postconf est très utile pour examiner les valeurs courantes et par défaut du fichier main.cf. Pour afficher la valeurs de certains paramètres de configuration, il suffit de les fournir en argument : $ sudo postconf inet_interfaces inet_interfaces = localhost L'option -d affichera la valeur par défaut des paramètres demandés : $ sudo postconf -d inet_interfaces inet_interfaces = all Servez-vous de postconf à tire-larigot N'hésitez pas à tester chacune des directives de main.cf avec postconf pour retenir les directives qui ne vont pas correspondre à la valeur définie par défaut : $ sudo postconf inet_protocols inet_protocols = ipv4 $ sudo postconf -d inet_protocols inet_protocols = all La configuration que je vous ai fournie en exemple mérite quelques remarques : Si l'IPv6 est désactivé au niveau du système, il faudra également le faire ici grâce à la directive inet_protocols. inet_interfaces = localhost limite l'utilisation de Postfix aux applications locales. myhostname est censé contenir le nom d'hôte pleinement qualifié du serveur, c'est-à-dire le résultat de la commande hostname --fqdn. mynetworks définit les adresses depuis lesquelles Postfix accepte les mails sans authentification via SMTP. alias_maps définit l'emplacement de la table de correspondance. Certaines informations ne peuvent pas être facilement représentées dans main.cf. Les tables de correspondance permettent de les stocker dans des fichiers externes. Postfix n'utilise pas directement les fichiers texte, ce serait trop lent. Au lieu de cela, les tables de correspondance de type hash (ou « tables de hachage ») servent pour construire des fichiers indexés, grâce à la bibliothèque Berkeley DB. Le programme postmap est utilisé pour construire les fichiers indexés. Pour mettre à jour les alias, on utilisera la commande newaliases. Créez la table de correspondance /etc/aliases : /etc/aliases # /etc/aliases postmaster: root root: info@microlinux.fr Indiquez votre adresse e-mail Je vous encourage fortement à utiliser votre adresse e-mail plutôt que la mienne. Ceci étant dit, la quantité de notifications que je reçois quotidiennement par e-mail me donne une vague idée de la popularité de mes articles sur l'administration des serveurs Linux. Construisez le fichier indexé : $ sudo newaliases Cette commande va créer un fichier /etc/aliases.db exploitable par Postfix : $ ls -l /etc/aliases* -rw-r--r-- 1 root root 65 Jan 31 13:17 /etc/aliases -rw-r--r-- 1 root root 12288 Jan 31 13:16 /etc/aliases.db Mise en service Le service postfix est activé dans la configuration par défaut. Il me suffit de le démarrer : $ sudo systemctl start postfix Je vérifie si Postfix tourne correctement : $ systemctl status postfix ● postfix.service - Postfix Mail Transport Agent (main/default instance) Loaded: loaded (/usr/lib/systemd/system/postfix.service; enabled; preset: enabled) Active: active (running) since Sat 2026-01-31 13:21:00 CET; 1min 11s ago Invocation: 8f8863dec0434f72abd44f3d708923d7 Docs: man:postfix(1) Process: 35329 ExecStartPre=postfix check (code=exited, status=0/SUCCESS) Process: 35487 ExecStart=postfix debian-systemd-start (code=exited, status=0/SUCCESS) Main PID: 35496 (master) Tasks: 3 (limit: 4634) Memory: 3.4M (peak: 3.9M) CPU: 1.521s CGroup: /system.slice/postfix.service ├─35496 /usr/lib/postfix/sbin/master -w ├─35497 pickup -l -t unix -u -c └─35499 qmgr -l -t unix -u Je peux également jeter un œil dans les logs de Postfix pour savoir si tout se passe comme prévu : $ sudo tail /var/log/mail.log 2026-01-31T13:24:17.238808+01:00 sd-150204 postfix/master[35820]: daemon started -- version 3.10.5, configuration /etc/postfix Envoi d'un e-mail de test J'envoie un e-mail de test vers un compte auquel j'ai accès, en l'occurrence mon adresse principale : $ mail info@microlinux.fr Subject: Test Postfix Ceci est un test. . Cc: Un point c'est tout Lorsque vous rédigez un e-mail en ligne de commande avec mail, un point . tout seul sur une ligne marque la fin du message. Je me connecte à ma messagerie et je vois que le message a bien été reçu : À partir de là, Postfix pourra être utilisé par les applications locales pour l'envoi d'e-mails. La rédaction de cette documentation demande du temps et des quantités significatives de café espresso. Vous appréciez ce blog ? Offrez un café au rédacteur en cliquant sur la tasse. Afficher l’article complet -
Windows Préparer une machine Windows avec WinGet DSC - Tutoriel IT-Connect
Ldfa a posté un sujet dans Mon Wallabag
IT-Connect Publié le 29 janvier 2026 Par Florian BURNEL it-connect.fr Environ 7 minutes de lecture En s'appuyant sur PowerShell DSC 3.0, le gestionnaire de paquets WinGet est capable de déployer des applications sur Windows. Il peut également définir la configuration de la machine à l'aide d'un simple fichier YAML. Voici un exemple pratique d'utilisation de WinGet DSC. Comme son nom l'indique, WinGet DSC repose sur deux composants de Windows : WinGet, le gestionnaire de paquets permettant de gérer les applications directement en ligne de commande. Par exemple, la commande winget install <nom du paquet> permet d'installer une application. PowerShell DSC 3.0, l'outil de gestion de configuration de Microsoft, intégré à Windows et qui permet de définir un état attendu pour une machine Windows (dans le même esprit qu'Ansible). DSC signifie Desired State Configuration. L'idée est la suivante : définir la configuration attendue dans un fichier YAML et l'appliquer directement par l'intermédiaire de WinGet. La commande à utiliser sera alors winget configure <fichier YAML>. Mais comment créer ce fichier ? Que peut-on définir comme directive ? C'est ce que nous verrons dans la suite de ce tutoriel. Les fonctionnalités de WinGet DSC Le fichier de configuration exécuté par l'intermédiaire de WinGet DSC est capable d'agir sur plusieurs composantes du système d'exploitation Windows. On peut notamment citer : Paquets : installer des logiciels par l'intermédiaire des dépôts WinGet / Microsoft Store. Registre : configurer une clé ou une valeur de Registre. Environnement : gérer une variable d’environnement. Système : configurer des fonctionnalités de Windows, y compris pour pousser des configurations de logiciels. Script : exécuter des blocs de script PowerShell. Service : gérer un service Windows. Fonctionnalités Windows : activer, désactiver et configurer certaines fonctionnalités Windows. La structure du fichier WinGet DSC Un fichier de configuration WinGet doit utiliser une convention de nommage très simple : il suffit de préciser l'extension .yaml (ou .yml). Dans la suite de cet article, nous créerons le fichier suivant : winget-dsc-windows11.yaml. Dans sa documentation, Microsoft évoque aussi l'extension .winget. Ce fichier doit commencer par une ligne précisant le schéma de configuration utilisé. Soit cette ligne : # yaml-language-server: $schema=https://aka.ms/configuration-dsc-schema/0.2 Ensuite, un fichier de configuration WinGet est séparé en deux sections principales : Assertions : les conditions préalables requises pour exécuter la configuration. Par exemple, une version de Windows minimale. Ressources : les actions à effectuer en s'appuyant sur des ressources DSC. C'est dans cette section qu'il faudra déclarer la liste des logiciels à installer, les options à configurer sur Windows ou encore les scripts à exécuter. Dans la suite de cet article, nous verrons un exemple concret. Exemple d'utilisation de WinGet DSC sur Windows 11 Activer les fonctionnalités avancées de WinGet Commencez par ouvrir une console sur votre machine Windows. La première étape à effectuer qu'une seule fois consiste à activer les fonctionnalités étendues de WinGet grâce à la commande suivante : winget configure --enable Enabling extended features. Requires store access. ██████████████████████████████ 100% Cette étape préparatoire débloque les fonctionnalités de la commande winget configure que nous utiliserons par la suite pour appliquer la configuration. Construire le fichier de configuration WinGet Désormais, nous allons construire le fichier winget-dsc-windows11.yaml de façon à exécuter les actions suivantes : Installer l'application VLC Media Player via WinGet Installer l'application 7-Zip via WinGet Installer l'application Mozilla Firefox ESR via WinGet Installer l'application PowerToys via Microsoft Store Configurer la valeur de Registre EnablePeriodicBackup pour activer la sauvegarde automatique du Registre Personnaliser la configuration de l'Explorateur de fichiers Windows (afficher les extensions de fichiers, masquer les fichiers cachés) Personnaliser la configuration de la Barre des tâches de Windows (alignement à gauche, masquer le bouton des widgets, etc.) Créer le dossier C:\sources à l'aide de PowerShell (surtout pour montrer un exemple d'exécution de code PowerShell) Dans le cas où vous souhaitez installer des applications, comme c'est mon cas ici, vous devez identifier le nom des paquets. Pour cela, utilisez WinGet en ligne de commande. Prenons l'exemple du paquet PowerToys. La recherche s'effectue de cette façon : winget search <nom du logiciel> winget search powertoys Vous devez ensuite repérer la valeur de la colonne ID correspondante à l'application à installer. Ici, ce serait la première ligne avec l'ID est XP89DCGQ3K6VLD et la source est msstore. Nous allons réutiliser ces informations dans le fichier de configuration. Voici la configuration complète pour dérouler les actions évoquées ci-dessus, en commençant par une vérification de la version minimale de Windows. La configuration est facilement lisible. Sachez que dans la section resources, l'identifiant de chaque bloc (id) est une valeur personnalisable. # yaml-language-server: $schema=https://aka.ms/configuration-dsc-schema/0.2 properties: assertions: - resource: Microsoft.Windows.Developer/OsVersion directives: description: Verify min OS version requirement (Windows 11 24H2) allowPrerelease: true settings: MinVersion: '10.0.26100' resources: - resource: Microsoft.WinGet.DSC/WinGetPackage id: Package.VLC directives: description: Installation de Media Player securityContext: elevated settings: id: VideoLAN.VLC source: winget - resource: Microsoft.WinGet.DSC/WinGetPackage id: Package.7Zip directives: description: Installation de 7-Zip securityContext: elevated settings: id: 7zip.7zip source: winget - resource: Microsoft.WinGet.DSC/WinGetPackage id: Package.Firefox directives: description: Installation de Mozilla Firefox ESR securityContext: current settings: id: Mozilla.Firefox.ESR.fr source: winget - resource: Microsoft.WinGet.DSC/WinGetPackage id: Package.PowerToys directives: description: Installation de PowerToys securityContext: current settings: id: XP89DCGQ3K6VLD source: msstore - resource: PSDscResources/Registry id: Registry.RegBackup directives: description: Activation de la sauvegarde automatique du Registre securityContext: elevated settings: Key: 'HKEY_LOCAL_MACHINE\System\CurrentControlSet\Control\Session Manager\Configuration Manager' ValueName: 'EnablePeriodicBackup' ValueData: 1 ValueType: Dword Ensure: Present Force: true - resource: Microsoft.Windows.Developer/WindowsExplorer directives: description: Modify Windows Explorer settings allowPrerelease: true settings: FileExtensions: Show HiddenFiles: Hide RestartExplorer: True - resource: Microsoft.Windows.Developer/Taskbar directives: description: Modify taskbar settings allowPrerelease: true settings: Alignment: Left SearchBoxMode: ShowIconAndLabel TaskViewButton: Show WidgetsButton: Hide - resource: PSDscResources/Script id: PowerShell.SourcesFolder directives: description: Création du dossier C:\sources securityContext: elevated allowPrerelease: true settings: # GetScript : Retourne l'état actuel (Obligatoire, sinon la ressource retourne une erreur) GetScript: | $exist = Test-Path 'C:\sources' return @{ Result = if ($exist) { "Present" } else { "Absent" } } # TestScript : Vérifie si le dossier existe déjà. # Renvoie $true si le dossier est là (ne rien faire). # Renvoie $false si le dossier manque (lancer le SetScript). TestScript: | return (Test-Path 'C:\sources') # SetScript : La commande de création (exécutée uniquement si TestScript = $false) SetScript: | New-Item -Path 'C:\sources' -ItemType Directory -Force configurationVersion: 0.2.0 Il y a des directives communes, notamment : description : utile pour documenter votre configuration et faciliter l'interprétation. securityContext: elevated : pour lancer l'action avec des privilèges administrateur, ce qui est essentiel pour certaines installations de logiciels ou configuration. allowPrerelease: true : autoriser ou non la configuration à utiliser des modules en préversion. Nécessaire actuellement pour certains modules. À la fin, la ligne configurationVersion: 0.2.0 indique la version à utiliser pour lire la configuration. Valider la configuration WinGet La commande winget configure contient plusieurs sous-commandes (voir cette page), dont celle nommée validate permettant de valider la syntaxe d'un fichier de configuration. Cette étape me semble essentielle avant d'appliquer une configuration sur une machine. Voici un exemple d'utilisation sur le fichier actuel : winget configure validate <nom du fichier de configuration> winget configure validate winget-dsc-windows11.yaml La validation n’a détecté aucun problème. Il y a des erreurs importantes signalées par cette commande. Alors que, parfois, c'est plus des avertissements, notamment pour vous forcer à respecter les bonnes pratiques. Par exemple, si vous indiquez Registry comme nom de ressource à la place de PSDscResources/Registry, il y aura un avertissement. La raison : le nom est trop vague, et plusieurs modules peuvent contenir une ressource avec ce nom, ce qui peut porter à confusion. Appliquer la configuration WinGet Quand vous serez prêts, appliquez la configuration sur la machine Windows 11 avec la commande suivante : winget configure --file winget-dsc-windows11.yaml --accept-configuration-agreements Patientez pendant l'opération. Un suivi s'affiche dans la console au fur et à mesure. Quand il y a un bouclier sur une ligne, c'est parce que l'action est effectuée avec des privilèges élevés. La configuration est effectuée en temps réel, donc vous verrez directement les changements. Conclusion WinGet DSC est une approche moderne pour le déploiement des applications sur Windows et pour appliquer une configuration. C'est une approche aussi plus standardisée et structurée qu'un script PowerShell maison, car on se rapproche plus du style d'un outil comme Ansible grâce à l'utilisation de PowerShell DSC. Pour préparer une machine rapidement, y compris un environnement de développement, WinGet DSC est efficace. Vous écrivez la configuration une fois et vous l'appliquez autant de fois que vous le souhaitez. Surtout, si vous relancez la même configuration sur la même machine plusieurs fois, tout sera vérifié et seules les étapes nécessaires (par exemple un logiciel manquant) seront appliquées. Des informations supplémentaires sont disponibles dans la documentation : WinGet DSC - Configuration - Documentation Ingénieur système et réseau, cofondateur d'IT-Connect et Microsoft MVP "Cloud and Datacenter Management". Je souhaite partager mon expérience et mes découvertes au travers de mes articles. Généraliste avec une attirance particulière pour les solutions Microsoft et le scripting. Bonne lecture. Afficher l’article complet -
-
-
DomoPi Publié le 27 janvier 2026 Par Hexamus domopi.eu Environ 5 minutes de lecture NUT (Network UPS Tools) est une solution open-source de supervision d’onduleur (UPS). Elle récupère les informations de l’UPS (alimentation sur secteur ou batterie, niveau de charge, autonomie estimée, événements…) et peut les exposer sur le réseau. Concrètement, on peut avoir un serveur NUT qui dialogue avec l’onduleur, et des clients NUT (comme Proxmox ou d’autres machines) qui s’y connectent pour déclencher automatiquement un arrêt propre en cas de coupure prolongée. Network UPS Tools - Welcome Power Devices support Welcome Configuration du serveur NUT Dans mon cas, mon onduleur est connecté en USB à mon NAS Synology, qui prendra le rôle de serveur NUT. On se connecte à DSM et on se rend dans Panneau de configuration → Matériel & Alimentation → UPS. Si ce n'est pas déjà fait, cochez Activer la prise en charge UPS ainsi que Activer le serveur réseau UPS un peu plus bas. Cliquez sur le bouton Périphériques Synology NAS autorisés et notez les adresses IP des périphériques (serveur Proxmox dans notre cas) qui pourront s'y connecter. Installation et configuration de NUT sur Proxmox Maintenant que le serveur UPS est activé et configuré, on passe à la configuration côté client. Rendez-vous dans la console de l'hôte Proxmox et installez NUT avec les commandes suivantes : apt update apt install nut-client Éditez le fichier de configuration principal : nano /etc/nut/nut.conf Modifiez la ligne MODE pour avoir ceci : MODE=netclient Éditez le fichier de monitoring : nano /etc/nut/upsmon.conf Recherchez la section MONITOR et ajoutez cette ligne en adaptant les informations (adresse IP et identifiants). Sur Synology, les identifiants sont définis par défaut : monuser / secret. MONITOR ups@192.168.1.100 1 monuser secret slave Il faut également ajouter les lignes suivantes pour la gestion de l'arrêt de Proxmox. Une partie est déjà présente dans le fichier, vérifiez chaque section et n'ajoutez que les lignes nécessaires. SHUTDOWNCMD "/sbin/shutdown -h +0" NOTIFYCMD /usr/sbin/upssched POLLFREQ 5 POLLFREQALERT 5 HOSTSYNC 15 DEADTIME 15 POWERDOWNFLAG "/etc/killpower" NOTIFYMSG ONLINE "UPS %s: Alimentation secteur rétablie" NOTIFYMSG ONBATT "UPS %s: Fonctionne sur batterie" NOTIFYMSG LOWBATT "UPS %s: Batterie faible" NOTIFYMSG FSD "UPS %s: Arrêt forcé en cours" NOTIFYMSG COMMOK "UPS %s: Communication établie" NOTIFYMSG COMMBAD "UPS %s: Communication perdue" NOTIFYMSG SHUTDOWN "UPS %s: Arrêt système imminent" NOTIFYMSG REPLBATT "UPS %s: Batterie à remplacer" NOTIFYMSG NOCOMM "UPS %s: Communication indisponible" NOTIFYFLAG ONLINE SYSLOG+WALL+EXEC NOTIFYFLAG ONBATT SYSLOG+WALL+EXEC NOTIFYFLAG LOWBATT SYSLOG+WALL+EXEC NOTIFYFLAG FSD SYSLOG+WALL+EXEC NOTIFYFLAG COMMOK SYSLOG+WALL+EXEC NOTIFYFLAG COMMBAD SYSLOG+WALL+EXEC NOTIFYFLAG SHUTDOWN SYSLOG+WALL+EXEC NOTIFYFLAG REPLBATT SYSLOG+WALL NOTIFYFLAG NOCOMM SYSLOG+WALL Démarrez le client NUT avec les commandes suivantes, son statut doit être active (running) en vert. systemctl restart nut-monitor systemctl enable nut-monitor systemctl status nut-monitor Enfin, testez la connexion au serveur NUT et à l'UPS : upsc ups@192.168.1.100 Vous devriez obtenir une liste des informations de l'UPS : battery.charge: 100 battery.charge.low: 10 battery.runtime: 3600 device.model: Back-UPS ES 700G input.voltage: 230.0 output.voltage: 230.0 ups.load: 25 ups.status: OL Les codes de statut UPS peuvent prendre les valeurs suivantes : OL: Online (sur secteur). OB: On Battery (sur batterie). LB: Low Battery (batterie faible) Interface Web NUT Notre onduleur est maintenant connecté à notre serveur Proxmox et la communication est configurée entre les deux. Mais j'aime bien aussi avoir une interface pour vérifier facilement la bonne communication et visualiser les données. Pour cela, nous allons installer la page web du client NUT avec la commande suivante : apt install nut-cgi apache2 Modifiez le fichier /etc/nut/hosts.conf et ajoutez la ligne ci-dessous en n'oubliant pas de remplacer l'adresse IP par celle du serveur NUT : MONITOR ups@192.168.1.100 "Onduleur Principal" Activez le module CGI puis redémarrez Apache : a2enmod cgi systemctl restart apache2 Il ne reste qu' procéder à un test de la page web http://IP_PROXMOX/cgi-bin/nut/upsstats.cgi depuis un navigateur. Configuration avancée de l'arrêt automatique L'intérêt d'avoir connecté notre onduleur à Proxmox est de pouvoir réaliser un arrêt propre de l'hôte en cas de coupure de courant. On va passer par la création d'un script : nano /etc/nut/upssched-cmd Dans lequel vous pouvez copier le contenu suivant : #!/bin/bash case $1 in onbatt) logger -t upssched-cmd "UPS sur batterie" ;; online) logger -t upssched-cmd "UPS sur secteur" ;; lowbatt) logger -t upssched-cmd "Batterie faible - Arrêt du serveur" # Arrêter le serveur /sbin/shutdown -h +1 ;; *) logger -t upssched-cmd "Commande inconnue: $1" ;; esac On rend le script exécutable : chmod +x /etc/nut/upssched-cmd Pour configurer le planificateur, on modifie le fichier : nano /etc/nut/upssched.conf Et on ajoute ou adapte son contenu : CMDSCRIPT /etc/nut/upssched-cmd PIPEFN /var/run/nut/upssched.pipe LOCKFN /var/run/nut/upssched.lock AT ONBATT * START-TIMER onbatt 30 AT ONLINE * CANCEL-TIMER onbatt online AT LOWBATT * EXECUTE lowbatt AT COMMBAD * START-TIMER commbad 30 AT COMMOK * CANCEL-TIMER commbad commok Explications : On définit le script qui sera appelé. Si l'UPS passe sur batterie, attends 30 secondes avant de notifier. Si le secteur revient, l'alerte est annulée. Si la batterie est faible, l'arrêt est immédiatement demandé. Enregistrez et redémarrez le service : systemctl restart nut-monitor Pour tester que tout fonctionne correctement, vous pouvez utiliser les commandes suivantes depuis la console Proxmox : # Vérifier l'état de l'UPS upsc ups@192.168.1.100 # Consulter les logs tail -f /var/log/syslog | grep -i ups # Vérifier le service nut systemctl status nut-monitor ‼️Attention à la commande suivante, elle vous permet de tester réellement l'arrêt automatique de Proxmox ! Ne lancez cette commande qu'en connaissance de cause. Vous pouvez pour cela simuler une batterie faible avec : upsmon -c fsd Vous pouvez retrouver la documentation complète de NUT sur le lien suivant : Network UPS Tools User Manual Russell Kroll, Arnaud Quette, Arjen de Korte and Jim Klimov Conclusion Voilà, vous disposez maintenant d'une surveillance et gestion complète de votre onduleur dans Proxmox avec : Un monitoring en temps réel de l'onduleur via NUT. Une interface web pour consultation rapide des informations de l'onduleur. L'arrêt automatique et sécurisé de l'hôte Proxmox en cas de coupure prolongée. Notre infrastructure est désormais protégée des coupures de courant ! N'oubliez pas d'activer le redémarrage automatique de votre serveur dans le BIOS pour que celui-ci redémarre au retour du courant. Nous sommes toujours disponible pour discuter de vos installations, d'améliorations ou vous aider si besoin sur la communauté Telegram ou bien en laissant un commentaire ! Afficher l’article complet
-
IA Quelles sont les meilleures alternatives gratuites à ChatGPT ? - Numerama
Ldfa a répondu à un(e) sujet de Ldfa dans Mon Wallabag
Cet article de Numerama est une mine d'or !!! Ca m'a permis de mettre à jour/compléter ma tuile IA de l'accès rapide. -
IA Quelles sont les meilleures alternatives gratuites à ChatGPT ? - Numerama
Ldfa a posté un sujet dans Mon Wallabag
Numerama Publié le 26 janvier 2026 Par Adam Langumier, Julien Lausson numerama.com Environ 14 minutes de lecture ChatGPT occupe une place notable. Le chatbot d’OpenAI excelle pour des tâches parfois chronophages et permet de gagner beaucoup de temps. Mais il n’est pas la seule IA générative performante — une bonne nouvelle, puisque ChatGPT n’est pas infaillible. En cas de panne, il existe des alternatives à ChatGPT à considérer. Voici les meilleures. Il n’y a pas que ChatGPT dans la vie. Même si le chatbot d’OpenAI a réussi à s’imposer auprès du grand public comme le principal agent conversationnel à utiliser pour exploiter l’intelligence artificielle générative (GenAI), le secteur de l’IA compte d’autres solutions tout à fait performantes. Or, quand ChatGPT tombe en panne, il vaut mieux savoir où se rabattre. Dans ces conditions, si vous avez un besoin assez urgent de générer des textes avec l’IA générative, voilà une vingtaine d’alternatives. Pratique si vous devez effectuer des traitements fastidieux avec des données copiées-collées ou issues de documents (faire une synthèse d’un document, trier des informations, etc.) ou lui laisser faire vos devoirs (on plaisante, ce n’est pas une riche idée). Les meilleurs chatbots pour remplacer ChatGPT Perplexity AI Copilot Gemini Le Chat DeepSeek Le Playground d’OpenAI Claude Notion AI YouChat HuggingChat Les meilleures IA gratuites pour écrire des textes Writier Magic Write WriteSonic ChatSonic Copy AI Jasper AI Bloom AI Undetectable Les meilleurs concurrents de ChatGPT pour traduire des textes DeepL HeyGen Les meilleures alternatives à ChatGPT pour écrire du code GitHub Copilot BlackBox Durable Codestral Il existe de nombreuses alternatives gratuites à ChatGPT, certaines se montrant tout aussi capables, voire meilleures que la solution fournie par OpenAI. Il est difficile de déterminer un classement définitif des IA, car les mises à jour des intelligences artificielles génératives sont très régulières — signe que le domaine est extrêmement compétitif. La hiérarchie des meilleures IA change ainsi tous les quatre matins. Parfois, ChatGPT domine, parfois, c’est un concurrent… jusqu’à la prochaine actualisation. Si les performances des chatbots sont meilleures quand on passe par les formules d’abonnement des uns et des autres (les fournisseurs de ces outils gardent naturellement leurs modèles les plus avancés pour celles et ceux qui paient), leurs déclinaisons gratuites sont aujourd’hui assez bonnes pour suffire et traiter des requêtes courantes. Dernière remarque : il n’y a pas forcément une seule bonne alternative. On assiste progressivement à l’émergence de chatbots spécialisés, taillés pour des besoins particuliers. Cela peut être de l’écriture de code informatique, de la réflexion plus poussée et ainsi de suite. Dès lors, il n’est pas si absurde de jongler entre différents modèles et, donc, entre différentes IA. Quelle est la meilleure IA gratuite en français ? Pour trouver le meilleur concurrent possible de l’outil développé par OpenAI, il va falloir prendre en compte vos besoins, dont le français. En effet, certains modèles d’IA ne fonctionnent qu’en anglais (et peuvent ne pas avoir une interface traduite). Nous avons décidé de diviser nos réponses en fonction des spécificités des IA. Les meilleurs chatbots pour remplacer ChatGPT : quelles sont les autres IA et les sites comme ChatGPT ? Perplexity AI Cette intelligence artificielle se veut plus proche de la forme d’un moteur de recherche. Fondée par un ancien d’OpenAI du nom d’Aravind Srinivas, Perplexity AI est un chatbot qui permet de synthétiser des recherches afin d’en extraire une réponse encore plus précise que ne le ferait Google. En somme, cela vous épargne de fouiller la réponse que vous cherchez dans les URL proposées suite à une requête sur Google. Pour ce faire, l’IA résume toutes les informations collectées sur différents sujets et vous épingle les sources qui l’ont aidée à construire sa réponse — de quoi procéder à la vérification des faits instantanément. L’intelligence artificielle est disponible sur le web ou via une application. Perplexity AI Télécharger gratuitement Play Store Apple Store Copilot (anciennement Bing ChatGPT / Bing Chat) Copilot, anciennement Bing ChatGPT, est l’alternative la plus évidente. Bing, le moteur de recherche de Microsoft, permet de faire des recherches assistées par IA, avec ChatGPT. Vos questions prendront la forme d’une discussion avec l’IA, comme ce qu’il se passe avec ChatGPT, mais dans une autre interface, connectée à internet. Après avoir effectué une première recherche, Bing vous donnera une réponse écrite. Vous pourrez alors lui demander plus de détails, mais aussi lui dire qu’il fait des erreurs — Bing ChatGPT a toujours tendance à inventer des choses, même si le chatbot s’est amélioré ces derniers mois. Gemini (anciennement Google Bard) Gemini, anciennement Google Bard, est la réponse de Google à Microsoft en matière d’intelligence artificielle. Disponible en français depuis le 13 juillet 2023, le chatbot permet de faire des recherches internet, mais propose aussi de répondre à des questions plus vastes. Comme Google Bard, il peut aider à planifier des vacances, à « aborder des clients lors d’une brocante » (c’est lui-même qui le dit), ou encore faire des résumés d’article ou de pages internet. Gemini est disponible en application pour les smartphones Android. Google Gemini Télécharger gratuitement Play Store Apple Store Le Chat, de Mistral Le Chat est développé par Mistral, l’entreprise française spécialisée dans l’intelligence artificielle la plus connue. Le chatbot fonctionne exactement comme ChatGPT, sous la forme d’un dialogue, et permet de nombreuses fonctionnalités : Le Chat est connecté à internet, et peut fournir des informations, et gérer différentes tâches, comme envoyer des mails ou faire des rappels calendrier. Le Chat explique également qu’il peut « raconter des blagues » — on vous laissera vérifier ça par vous-même. Sur la plateforme, vous pouvez choisir avec quel modèle de langage vous souhaitez travailler : l’option « large » est activée par défaut, mais vous pouvez vous amuser avec les autres à votre guise. Essayez gratuitement Le Chat, de Mistral Le Chat, l’IA de Mistral // Source : Mistral DeepSeek Accessible à l’adresse chat.deepseek.com, l’IA DeepSeek est développée par une entreprise chinoise fondée en 2023. L’objectif est de permettre à la Chine de rivaliser avec les entreprises américaines, mais la particularité de DeepSeek vient du fait qu’il s’agit d’une solution open source, c’est-à-dire que le code source est disponible en ligne, et il peut être installé sur une machine afin de faire tourner l’IA en local. DeepSeek propose deux modèles, DeepSeek-R1 qui est un « modèle de raisonnement » semblable à ChatGPT-o1, tandis que DeepSeek-V3 est un LLM dans le but de rivaliser avec GPT-4o. Le logo de DeepSeek. // Source : Numerama Le Playground d’OpenAI Même si ChatGPT est en panne, vous pouvez toujours utiliser le « Playground » (ou bac à sable) d’OpenAI. Il s’agit du même modèle d’intelligence artificielle, il est capable de répondre aux mêmes demandes et de faire les mêmes actions. Vous pourrez même choisir quelles options vous voulez directement depuis le playground, dont la version de GPT (3, 3,5, ou 4), ou encore le mode : « chat », pour avoir un format chatbot, « complete », qui vous permet d’écrire le début d’un texte que ChatGPT complètera, ou encore « edit », qui vous permet de demander à l’IA de transformer un texte en fonction de vos instructions. Utilisez le playground d’OpenAI Claude Développée par Anthropic, Claude peut analyser des textes et générer des passages écrits, mais également effectuer des analyses sur différents types d’images, « qu’il s’agisse de notes manuscrites, de graphiques ou de photographies », précise le site. Claude existe en version payante, mais aussi en version gratuite, limitée à un certain nombre de requêtes par jour. Essayez Claude gratuitement Notion AI Notion, l’outil de gestion de travail, a développé une intelligence artificielle — et elle est d’une grande aide pour l’organisation du travail. L’IA permet de faire générateur de textes et d’améliorer ceux que vous avez déjà écrits, d’analyser des notes de réunion et de « générer instantanément les prochaines étapes », de créer des résumés, et même de vous aider dans la gestion de vos tâches. Un deuxième cerveau, idéal pour la création de projets et les contenus longs, qui est accessible en version gratuite. Essayez Notion AI YouChat, l’IA qui cite ses sources Le moteur de recherche You.com a lancé son propre assistant : YouChat. Il fonctionne sur le même concept que Bing ChatGPT et Google Bard, mais il a l’immense avantage d’afficher très clairement ses sources. Lorsque vous posez une question à l’IA, elle vous répondra en faisant quelques phrases et en citant ses sources, avec des numéros, comme ce qu’il se fait déjà sur Wikipédia. YouChat ne peut cependant pas faire de résumé d’article sur Internet, le chatbot n’ayant pas la capacité d’accéder directement à des liens web ou de naviguer sur Internet. Si vous lui posez des questions sur l’actualité, il bottera en touche. Essayez YouChat HuggingChat, l’alternative open-source de Hugging Face HuggingChat est la réponse des Français de Hugging Face à ChatGPT. Le chatbot, qui fonctionne sur des modèles open-source, est de plus particulièrement intéressant pour les nombreuses fonctionnalités qu’il propose. Vous pouvez faire des recherches sur Internet, lui demander de coder, de traduire, et de vous assister dans la réalisation de certaines tâches — notamment pour les recettes de cuisine. Comme pour toutes les recherches sur Internet, cependant, faites attention : HuggingChat a tendance à halluciner, comme les autres chatbots. Découvrez HuggingChat Quel est le meilleur ChatGPT en français ? Les meilleures IA gratuites pour écrire des textes en français Writier Pour de la rédaction de textes, on vous conseille Writier. Il s’agit d’une intelligence artificielle qui « vous aide à écrire plus vite et mieux. Il (sic) est capable de comprendre votre style d’écriture, de trouver des synonymes pour rendre votre texte plus captivant et de corriger les erreurs grammaticales ou orthographiques. Writier peut aussi vous donner des conseils sur la structure et le contenu du texte que vous êtes en train d’écrire. » La preuve : on a demandé à l’IA d’écrire les phrases précédentes, et ça marche plutôt bien. Il vous suffit de commencer votre texte en écrivant les premières phrases, et l’IA le complétera. C’est gratuit, pratique pour écrire des textes rébarbatifs, comme les descriptions de produits, mais aussi les publications plus complexes, comme les posts sur les réseaux sociaux. Et, surtout, ça marche en français. Utilisez Writier Un test plutôt concluant pour Writier // Source : Capture d’écran Numerama Magic Write, ou Écriture Magique, par Canva Canva était d’ores et déjà connu pour être un formidable outil pour réaliser des images et des montages. Le site se spécialise dorénavant également dans l’IA générative de texte, avec Magic Write — qui s’appelle Écriture Magique en français. Le générateur de texte permet de rédiger toutes sortes de textes à partir d’un prompt, dont des « légendes pour les réseaux sociaux », des « biographies », et même de « trouver l’inspiration pour des poèmes et des lettres ». Magic Write est gratuit sur les 50 premiers essais, mais après, vous devrez payer. Essayez Magic Write / Écriture Magique de Canva WriteSonic et ChatSonic WriteSonic est une solution complète, qui offre de très nombreuses options pour répondre à des besoins spécifiques (dont ChatSonic) — mais qui est limitée dans sa version gratuite. L’intelligence artificielle vous propose de la rédaction de textes, de longs articles de blog aux posts pour les réseaux sociaux. Mais aussi de rédiger des outils marketings, des descriptions de produits, et de la publicité, et même de réaliser votre propre chatbot, ChatSonic, en entraînant une version de ChatGPT sur vos jeux de données. Un générateur de texte qui est une solution parfaite pour les besoins en entreprise, même si WriteSonic et ChatSonic restent bridés en version non-payante. Utilisez WriteSonic Copy AI Une solution hyper complète, idéale pour les entrepreneurs ou pour les entreprises. Copy AI dispose d’une vaste bibliothèque de prompts pour vous aider dans vos recherches, et propose également de nombreuses fonctionnalités. Que vous vouliez faire une campagne marketing, écrire des descriptions de produits, écrire des textes, des posts de blog ou sur les réseaux sociaux, ou même rédiger une offre d’emploi, Copy AI peut vous assister. Vous pouvez gratuitement réaliser quelques tâches, mais vous devrez payer pour avoir accès à certaines options. Inscrivez-vous gratuitement à Copy AI Jasper AI Jasper AI offre plus ou moins les mêmes solutions que Copy AI, et est clairement orienté pour les spécialistes du marketing. L’outil propose de rédiger des textes en français et dans d’autres langues, de réaliser des campagnes publicitaires, de faire des traductions, et indique également qu’il peut vous aider pour tout ce qui concerne le SEO — l’optimisation nécessaire pour arriver en haut des recherches sur les moteurs de recherche. Seul bémol : s’il y a bien une période d’essai gratuite, Jasper vous demande tout de même de signer pour un abonnement et de rentrer vos coordonnées bancaires. Pensez à bien annuler votre abonnement si vous voulez rester sur une utilisation gratuite. Essayez Jasper AI Bloom AI Bloom AI est une solution unique en son genre, très puissante mais également l’une des plus complexes à prendre en main. Bloom AI est un LLM, un large language model, développé par Hugging Face, et comprenant 176 milliards de paramètres. Il est capable de générer du texte dans 46 langues, dont le français, l’espagnol ou encore l’arabe, et dans 13 langages de programmation. Il est également intéressant de noter que Bloom a été entraîné sur le supercalculateur Jean Zay, situé en France. Le modèle est complexe à utiliser, mais vous pouvez tout de même essayer la version démo gratuite (l’interface n’est pas des plus simples). Essayez gratuitement la version démo de Bloom AI Undetectable Undetectable est un outil particulier dans la mesure où il permet de répondre à deux besoins spécifiques. L’une de ses fonctions permet de détecter les textes rédigés par IA, tandis que l’autre sert à remodeler ou reformuler des textes générés pour qu’ils paraissent plus humains avec un meilleur choix de mots — le tout grâce à l’IA, un peu paradoxal. Utilisez Undetectable Les meilleurs concurrents de ChatGPT pour traduire des textes DeepL Pour traduire des textes, la référence est DeepL. Il ne s’agit pas réellement d’intelligence artificielle, mais DeepL est sans conteste le meilleur outil de traduction gratuit actuellement disponible. Si vous avez besoin de traduire rapidement un texte en anglais, ou même en italien, polonais, japonais ou encore en chinois, n’allez pas chercher plus loin. Traduisez tout ce que vous voulez avec DeepL HeyGen HeyGen est une alternative unique à ChatGPT, et qui est même, par certains aspects, plus puissante que le chatbot d’OpenAI, car elle arrive à traduire des vidéos, et à les modifier. Concrètement, HeyGen permet de prendre une vidéo, et la transforme de façon à ce que la personne parle une autre langue, donnant l’impression que le locuteur parle parfaitement l’hindi, le polonais ou l’italien. HeyGen modifie les mouvements de la bouche et parvient à copier la voix pour parvenir à ce résultat bluffant. Huit langues sont pour l’instant disponibles. Le service est majoritairement payant, mais vous avez le droit à quelques essais gratuits. Testez les services de traduction de HeyGen Les meilleures alternatives à ChatGPT pour écrire du code GitHub Copilot Si c’est du code que vous voulez faire, OpenAI a développé un autre outil sous intelligence artificielle qui pourrait vous aider : Copilot. L’outil, entraîné avec GitHub, est capable de générer des passages de code et serait utile pour exécuter des tâches répétitives, d’après sa présentation. Attention cependant : de nombreux développeurs et développeuses ne font pas totalement confiance à Copilot. Découvrez Copilot BlackBox Pour les développeurs et les entreprises, une autre solution que Copilot peut être envisagée. BlackBox est un assistant de codage boosté à l’IA qui suggère de l’« auto-completion », c’est-à-dire, de finir votre ligne de code à votre place, comme Copilot. Le service marche dans une vingtaine de langages, et BlackBox permet également d’extraire des extraits de code depuis des vidéos. Utilisez BlackBox Durable Si vous ne savez pas coder, mais que vous avez besoin de construire un site web, vous n’avez pas besoin de passer par Copilot ou ChatGPT : vous pouvez utiliser Durable. Le service propose de créer un site en moins d’une minute (l’opération vous prendra en réalité un peu plus de temps si vous voulez un modèle affiné), mais c’est déjà une bonne base. Codez votre site avec Durable Codestral, de Mistral En plus d’avoir développé Le Chat, Mistral a également développé Codestral, la version spécialisée dans le code de son chatbot. Pour l’utiliser, rendez-vous sur Le Chat, et cliquez sur le bouton « Model », sous la barre de dialogue. Parmi les différentes options, sélectionnez la dernière, Codestral. Utilisez l’option Codestral sur le site du Chat Voilà comment sélectionner l’option Codestral // Source : Mistral La meilleure alternative à ChatGPT pour les tableurs ChatGPT est génial pour automatiser certaines tâches d’entreprises, comme pour écrire des mails ou compléter des lignes de tableurs Excel. Il n’y a pas que lui qui peut le faire. Numerous est un assistant basé sur une IA qui vous aide dans votre gestion de tableurs en recommandant des formules, en extrayant des informations particulières, ou en complétant tout seul certaines cases. L’outil est disponible pour Google Sheets et pour Excel. Découvrez Numerous Pourquoi ChatGPT ne fonctionne pas ? ChatGPT est souvent victime de son succès. L’IA conversationnelle est régulièrement inaccessible car elle reçoit trop de demandes simultanées, ce qui fait qu’elle ne peut pas répondre à tout le monde en même temps. Les serveurs étant surchargés dans ces cas-là, le service devient inaccessible pendant quelque temps — cela peut être quelques minutes, ou quelques heures. Dans ces cas-là, l’accès est réservé en priorité aux abonnés payants de ChatGPT. Ces abonnés ont également droit à plus de fonctionnalités que les utilisateurs non-payants, dont des modèles de langages plus rapides, et des recherches sur Internet. Afficher l’article complet -
IA Mon nouvel ami qui sait tout sur tout #chatGPT - Korben.info
Ldfa a répondu à un(e) sujet de Ldfa dans Mon Wallabag
Quelles sont les meilleures alternatives gratuites à ChatGPT : https://www.numerama.com/tech/1246474-voici-les-meilleures-alternatives-gratuites-a-chatgpt.html -
Linux BentoPDF : la boite à outils PDF dans votre navigateur Web - IT Connect
Ldfa a répondu à un(e) sujet de Ldfa dans Mon Wallabag
Pour installer BentoPDF sur Proxmox : https://community-scripts.github.io/ProxmoxVE/scripts?id=bentopdf -
Linux BentoPDF : la boite à outils PDF dans votre navigateur Web - IT Connect
Ldfa a posté un sujet dans Mon Wallabag
IT-Connect Publié le 26 janvier 2026 Par Florian BURNEL it-connect.fr Environ 5 minutes de lecture BentoPDF se présente comme une alternative à Stirling, PDFgear voire même à Adobe Acrobat dans une moindre mesure. Cette boite à outils PDF accessible directement dans votre navigateur Web regroupe des dizaines d'outils pour manipuler vos documents. Au-delà d'être open source, elle se veut respectueuse de la vie privée. Cet article explique comment installer votre instance de BentoPDF à l'aide de Docker. BentoPDF n'est pas la seule boite à outils PDF accessible directement depuis un navigateur et auto-hébergeable : Stirling-PDF reste une référence dans ce domaine, avec en complément des applications pour les ordinateurs. Pour autant, BentoPDF suscite de l'intérêt, la preuve : son nombre d'étoiles sur GitHub est passé de 0 à plus de 10 000 en à peine 3 mois. Voici les avantages de la solution BentoPDF : Application 100% client-side : un gros plus pour la confidentialité, car le traitement s'effectue dans le navigateur de l'utilisateur. Cela signifie que votre fichier n'est pas chargé sur le serveur où est installé BentoPDF. Libre d'accès : l'application est accessible sans authentification, ni compte. Tous les outils du toolkit sont gratuits, sans limitation, que ce soit pour traiter 1 ou X documents. Mode hors ligne pour l'accès aux outils. Conformité RGPD, CCPA et HIPAA. Ce projet open source est distribué sous licence AGPL-3.0. Des licences commerciales abordables sont proposées à ceux qui veulent intégrer BentoPDF au sein d'outils propriétaires (ou en source fermée). Je vous recommande de consulter cette page pour bien comprendre les subtilités selon les cas d'usage. Pour utiliser les outils de BentoPDF, vous avez plusieurs options : l'utiliser directement en ligne depuis le site web de la solution ou l'auto-héberger sur un ordinateur, un serveur ou encore un NAS. Aujourd'hui, je vous propose d'installer BentoPDF à l'aide de Docker Compose. Site officiel - BentoPDF GitHub - bentopdf Les outils de BentoPDF Les nombreux outils de BentoPDF sont organisés au sein de plusieurs catégories. On retrouve notamment : Éditer et annoter Dans la catégorie "Edit & Annotate", BentoPDF met à votre disposition des outils pour retravailler vos documents en profondeur. L'outil central est le PDF Editor, qui transforme votre fichier en espace de travail : vous pouvez y annoter du texte, surligner des passages, ou encore insérer des images et des formes. Il est accompagné par d'autres outils pour générer une table des matières, compléter un formulaire, signer un PDF, supprimer les pages blanches ou encore ajouter un filigrane. Ci-dessous un aperçu de l'outil PDF Editor : Convertir au format PDF Que ce soit un document, une image ou encore certains formats exotiques, BentoPDF est capable de convertir de nombreux formats de fichiers au format PDF. Ci-dessous, un extrait partiel des outils de cette catégorie. Convertir un PDF dans un autre format L'opération inverse est également possible, à savoir convertir un PDF dans un autre format. Cette section contient aussi un outil plutôt cool pour extraire toutes les images d'un document PDF. Organiser et gérer Cette section contient des outils pour diviser, fusionner ou encore supprimer des pages dans un document PDF. Vous pouvez aussi réorganiser les pages, embarquer un fichier dans un document PDF ou simplement effectuer des rotations de page. Optimiser et réparer Cette section contient des outils pour compresser et optimiser un PDF, réparer un document corrompu ou encore supprimer les protections comme un mot de passe. Sécuriser un PDF Enfin, la dernière section concerne la sécurité des documents PDF. Elle contient des outils pour chiffrer et déchiffrer un document PDF (en AES-256 bits), supprimer toutes les métadonnées (voire même tous les éléments comme les annotations, etc.) ou encore verrouiller un document. Ci-dessous, un aperçu de l'outil "Encrypt PDF" permettant de chiffrer un document PDF via l'ajout d'un mot de passe. Toutes ces fonctionnalités sont accessibles directement dans votre navigateur Web, avec un traitement effectué en local. Installation de BentoPDF avec Docker Compose Désormais, passons à l'installation de BentoPDF avec Docker (via Docker Compose). Vous devez donc disposer de Docker sur votre machine, que ce soit sous Windows, Linux ou macOS (ou votre NAS). Tutoriel - Installation de Docker sur Linux Le fichier docker-compose.yml ci-dessous est créé dans le répertoire /opt/docker-compose/bentopdf. Il est à noter que cette application ne stocke aucune donnée, il n'est donc pas nécessaire de déclarer un volume. Cet exemple est basé sur celui mis à disposition sur le site GitHub de BentoPDF. Attention, deux images Docker distinctes sont distribuées : bentopdf qui reprend l'apparence complète du site web officiel et bentopdf-simple qui reprend uniquement la partie boite à outils (cette version me semble plus pertinente pour un déploiement en local). services: bentopdf: image: bentopdf/bentopdf-simple:latest container_name: bentopdf restart: unless-stopped ports: - '8080:8080' environment: - DISABLE_IPV6=true Quelques informations supplémentaires : L'application BentoPDF sera accessible sur le port 8080 ; si vous souhaitez utiliser un autre port, changez la valeur de gauche. La variable d'environnement DISABLE_IPV6=true sert à désactiver IPv6 pour utiliser uniquement IPv4. Elle est facultative (tout dépend de votre environnement). Enregistrez et fermez le fichier. À titre d'information, voici une configuration basique pour publier BentoPDF avec le reverse proxy Traefik : services: bentopdf: image: bentopdf/bentopdf-simple:latest container_name: bentopdf restart: unless-stopped environment: - DISABLE_IPV6=true networks: - frontend labels: - "traefik.enable=true" - "traefik.docker.network=frontend" - "traefik.http.routers.bentopdf-https.rule=Host(`bentopdf.it-connectlab.fr`)" - "traefik.http.routers.bentopdf-https.entrypoints=websecure" - "traefik.http.routers.bentopdf-https.tls=true" - "traefik.http.routers.bentopdf-https.tls.certresolver=ovhcloud" - "traefik.http.services.bentopdf-https.loadbalancer.server.port=8080" - "traefik.http.routers.bentopdf-https.middlewares=crowdsec@file,tinyauth" - "tinyauth.apps.bentopdf.config.domain=bentopdf.it-connectlab.fr" networks: frontend: external: true Cette configuration protège l'application avec Tinyauth (page d'authentification) et CrowdSec (détection des attaques) en tant que middlewares Traefik. Lancez la construction du projet : docker compose up -d Votre boite à outils PDF vous attend ! Elle est accessible sur l'adresse IP de votre hôte Docker sur le port 8080, ou sur un autre port selon la configuration définie. Ensuite, vous n'avez plus qu'à commencer à jouer avec les outils. Conclusion BentoPDF est une boite à outils PDF très complète et prometteuse. Directement accessible dans votre navigateur, elle met à votre disposition un ensemble d'outils pratiques : la manipulation de documents PDF est le quotidien de nombreux utilisateurs. Vous pouvez tout à fait héberger cette application sur votre serveur et la mettre à disposition de plusieurs utilisateurs, le tout en préservant la confidentialité grâce à un traitement effectué du côté client. C'est le gros plus de cette solution et cela vous évite de déployer des applications en local sur chaque machine. Qu'en pensez-vous ? Ingénieur système et réseau, cofondateur d'IT-Connect et Microsoft MVP "Cloud and Datacenter Management". Je souhaite partager mon expérience et mes découvertes au travers de mes articles. Généraliste avec une attirance particulière pour les solutions Microsoft et le scripting. Bonne lecture. Afficher l’article complet -
Win Traduction française de Mx7 pour Windows
Ldfa a répondu à un(e) sujet de Ldfa dans Traductions françaises de Maxthon sur Crowdin
J'ai approuvé la traduction de 2025 en 2026 ! fr.ini -
Win Traduction française de Mx7 pour Windows
Ldfa a répondu à un(e) sujet de Ldfa dans Traductions françaises de Maxthon sur Crowdin
There are new strings to translate in the Maxthon pour Windows project. You were a project participant previously so your help will be appreciated a lot. 1 new string for translation (7 words). -
Cachem Publié le 26 janvier 2026 Par Fx cachem.fr Environ 5 minutes de lecture Nous sommes en 2026 et les choses ont pas mal évolué ces derniers mois. À une certaine époque, les systèmes DIY pour NAS se comptaient sur les doigts d’une main : ce n’est plus le cas. Aujourd’hui, on trouve des solutions très abouties, avec un niveau de qualité proche du monde professionnel, comme TrueNAS Scale ou Unraid, des options intermédiaires comme OpenMediaVault (OMV), et d’autres plus accessibles et plus souples, comme CasaOS, ZimaOS ou UmbrelOS. Nous aborderons également le cas de Proxmox… Qu’est-ce que le DIY pour les NAS ? Le concept de NAS DIY (Do It Yourself) repose sur une idée simple : s’affranchir du verrouillage matériel des constructeurs (Synology, QNAP, Asustor…). Au lieu d’acheter un boîtier propriétaire, vous sélectionnez vos propres composants (boîtier, processeur, RAM, contrôleurs…) ou vous recyclez un ancien PC. Cette approche offre 2 avantages majeurs : Rapport performance/prix : pour le prix d’un NAS 4 baies du commerce équipé d’un processeur souvent limité, vous pouvez assembler une machine capable de gérer du transcodage 4K, des dizaines de conteneurs Docker, des machines virtuelles… Évolutivité : vous n’êtes plus limité par le nombre de ports, la mémoire soudée ou les choix matériels du constructeur. Votre NAS évolue avec vos besoins. À cela s’ajoute un point souvent sous-estimé : la possibilité de donner une seconde vie à un NAS qui ne reçoit plus de mises à jour… Qu’est-ce qu’un système DIY pour les NAS ? On me pose souvent la question : pourquoi parler de « système » et pas simplement de « système d’exploitation (OS) » pour NAS ? Parce qu’en 2026, un NAS moderne n’est plus seulement un serveur de partage de fichiers (SMB/NFS). C’est une plateforme qui combine trois couches complémentaires : OS : généralement Linux, il gère le matériel et le système de fichiers (ZFS, Btrfs, XFS…) ; Interface web : outil d’administration au quotidien, qui permet de gérer stockage, utilisateurs, services, mises à jour et supervision (sans passer par des lignes de commande) ; Applications : écosystème de services que vous hébergez qui était la force des fabricants historiques… mais maintenant Docker est devenu central. Les poids lourds : Performance et stockage massif Ces solutions visent d’abord la fiabilité et une gestion sérieuse du stockage. TrueNAS Scale : l’incontournable Avec ses évolutions récentes, TrueNAS Scale s’est imposé comme une référence du NAS DIY. Son point fort, c’est la protection des données grâce à ZFS (snapshots, auto-réparation, intégrité), avec une approche très “pro”. En contrepartie, ZFS reste relativement rigide : étendre un pool en ajoutant “juste un disque” n’est pas aussi souple que sur d’autres solutions. Pour exploiter ZFS dans de bonnes conditions, il est recommandé d’avoir beaucoup de mémoire vive/RAM (ECC de préférence). Si votre priorité est la pérennité et la sécurité des données, TrueNAS Scale est un excellent choix. Unraid : la flexibilité avant tout Toujours très populaire chez les particuliers, Unraid brille par sa capacité à gérer des disques hétérogènes (marques et tailles différentes) avec une grande simplicité. Son système de parité permet d’ajouter un disque facilement, au fil de l’eau. Son interface est aussi l’une des plus accessibles et sa gestion de la virtualisation (VM avec passthrough GPU) est une référence pour les configurations hybrides. Le point à intégrer dans l’équation : son modèle économique a évolué. Les mises à jour sont désormais liées à un abonnement, sauf licence à vie plus onéreuse. Cela le place face à une concurrence gratuite de plus en plus solide. Unraid reste un excellent choix pour le multimédia, l’hébergement d’applications et le recyclage de disques, à condition d’accepter le coût de la licence. L’intermédiaire OpenMediaVault est construit autour d’une base Debian, avec une philosophie simple : rester léger, stable et relativement proche de Linux. OMV tourne sur à peu près tout, y compris sur du matériel ancien. Il laisse plus de latitude pour personnaliser l’OS sous-jacent que certaines solutions plus “encadrées”. En revanche, l’interface est plus austère et demande souvent un peu plus de connaissances pour obtenir une configuration parfaitement propre (permissions, services, supervision, sauvegardes). C’est une solution cohérente pour les utilisateurs à l’aise avec Linux qui veulent un NAS sans fioritures, sur du matériel modeste. La nouvelle vague : simplicité et one-click Ici, l’objectif est clair : privilégier l’accessibilité, l’expérience utilisateur et une installation rapide. CasaOS, ZimaOS et UmbrelOS Ces systèmes (ou surcouches, selon les cas) cherchent à transformer un serveur en « cloud personnel » facile à prendre en main. Les interfaces sont modernes, visuelles et l’installation d’applications ressemble à un App Store… On déploie des services en quelques clics, ce qui les rend attractifs pour démarrer vite. La limite est structurelle : ce ne sont pas, à la base, des OS orientés « stockage avancé ». La gestion RAID, la stratégie de protection des données et les scénarios de migration/extension sont sommaires (rien à voir comparé à TrueNAS et Unraid). Ils sont donc très adaptés à un premier serveur multimédia/domotique, mais moins pertinent si vous cherchez une plateforme de stockage « sérieuse » pour des données réellement critiques. HexOS HexOS est très attendu (toujours en Bêta), car l’ambition est séduisante : proposer la puissance d’une base type TrueNAS avec une interface beaucoup plus simple. C’est une piste intéressante pour ceux qui veulent une expérience plus « grand public » sans renoncer à une base technique solide. Point important : c’est un produit payant. Son intérêt dépendra de son niveau de maturité et de la qualité de l’intégration au quotidien. L’alternative : virtualisation avec Proxmox Techniquement, Proxmox VE n’est pas un OS de NAS : c’est un hyperviseur. Mais en 2026, c’est la base de nombreuses installations homelab. Le principe est simple : vous installez Proxmox sur le matériel (bare metal), puis vous déployez votre NAS (TrueNAS, OMV…) dans une machine virtuelle et vos autres services dans d’autres VM ou conteneurs. L’intérêt ici, c’est que vous séparez les rôles. Vous facilitez les sauvegardes complètes (snapshots, export) et vous rendez l’infrastructure plus résiliente. Si un service tombe, le reste continue de tourner et vous pouvez restaurer proprement. Cependant, c’est une approche plutôt réservée aux utilisateurs avancés. Elle demande une bonne maîtrise des notions de stockage (pass-through, contrôleurs, performances, sécurité des données). Que choisir en 2026 ? Le choix ne dépend plus uniquement des fonctionnalités (Docker est devenu un standard), mais de votre priorité? Vous voulez : Protéger vos données avant tout : TrueNAS Scale Recycler des disques variés et évoluer facilement : Unraid Une solution simple, légère, proche de Linux : OMV Une belle interface et démarrage rapide : CasaOS ou ZimaOS Un homelab complet et une infra modulaire : Proxmox Certains diront que le NAS DIY est à son apogée. De mon côté, je le vois plutôt comme une étape : les outils se simplifient, les standards se consolident et le niveau de finition continue de monter. Reste à choisir l’approche qui correspond à vos contraintes… et à votre tolérance à la complexité. Afficher l’article complet
-
Changements principaux : * Traduction optimisée des champs linguistiques localisés. - Correction d'un problème empêchant le glissement de Maxnotes vers le menu « Plus » dans la barre des favoris pour les super signets. - Correction de plantages connus.
-
Maxthon 7.5.2.5000 Bêta pour Windows est sorti aujourd'hui, il apporte son lot de nouvelles fonctionnalités, d'améliorations et de corrections de bugs. Téléchargement : https://github.com/maxthon/Maxthon/releases/ Les changements en français sont là. Vous pouvez également vous abonner au groupe Telegram NBdomain & MX6 pour faire remonter vos demandes d'améliorations et bugs rencontrés. Source : https://forum.maxthon.com/d/3138-maxthon-7525000-beta
-
Le morceau original !!!
-
Je suis devenu accro à ce jeu et j'y passe énormément de temps, mais quel plaisir ! Les devs ont ajouté une guitare dernièrement dans Arc Raiders, c'est vraiment très cool de jouer un petit morceau en fin de partie avec les autres Raiders avant de s'extraire.
-
Linux ZimaOS : le grand frère de CasaOS pour serveurs et NAS DIY - Up and Clear | Reborn
Ldfa a répondu à un(e) sujet de Ldfa dans Mon Wallabag
Pour installer ZimaOS sur Proxmox : https://github.com/R0GGER/proxmox-zimaos -
Linux PatchMon : surveillez les mises à jour des machines Linux - IT Connect
Ldfa a répondu à un(e) sujet de Ldfa dans Mon Wallabag
Pour installer Patchmon sur Proxmox : https://community-scripts.github.io/ProxmoxVE/scripts?id=patchmon -
Linux PatchMon : surveillez les mises à jour des machines Linux - IT Connect
Ldfa a posté un sujet dans Mon Wallabag
IT-Connect Publié le 12 janvier 2026 Par Florian BURNEL it-connect.fr Environ 12 minutes de lecture PatchMon est une solution open source de Patch Monitoring pour les serveurs Linux, qu'ils soient sous Debian, Ubuntu, Alma Linux ou encore Red Hat Enterprise Linux (RHEL). L'objectif principal de PatchMon est le suivant : vous offrir une vue d'ensemble sur l'état des mises à jour sur vos machines Linux. Ainsi, vous pouvez identifier facilement les machines sur lesquelles des mises à jour de paquets sont en attente, avec une mise en évidence des mises à jour de sécurité. Les machines sous Linux, au même titre que celles sous Windows, reçoivent des mises à jour. D'une part, il y a les mises à jour du système et du noyau, et d'autre part, les mises à jour des paquets installés (du paquet de la simple bibliothèque à celui d'un service utilisé en production). Comment suivre la disponibilité des mises à jour ? Si l'on prend l'exemple de machines sous Debian, exécuter les commandes apt update et apt upgrade manuellement n'est pas une solution viable et efficace. C'est là qu'un outil comme PatchMon apporte une valeur ajoutée : son tableau de bord affiche l'état des mises à jour de l'ensemble de vos machines Linux. Son fonctionnement repose sur l'installation d'un agent sur les machines à monitorer. À la clé : Un inventaire de vos machines (avec la répartition par type d'OS) Un aperçu du niveau de mises à jour de vos machines (à jour, en attente de mise à jour, en attente d'un redémarrage) Une visibilité sur le type de mises à jour en attente (distinction entre mise à jour standard et correctif de sécurité) Une tendance globale dans le temps Des statistiques globales sur l'ensemble de votre SI L'état de la réception des données de la part des agents Au-delà d'offrir une vue par machine, PatchMon offre aussi une vue par paquet : pratique pour identifier les machines sur lesquelles est installé tel ou tel paquet. Il référence aussi la liste des dépôts (repos) configurés sur vos machines. Précision importante : la version actuelle de PatchMon ne permet pas de gérer la mise à jour des paquets. Nous sommes donc dans une approche de monitoring, sans qu'il soit possible d'appliquer les mises à jour en attente. Mais les choses vont évoluer à l'avenir : la feuille de route évoque des fonctionnalités croustillantes, dont celle-ci. PatchMon est un projet qui a énormément progressé en quelques mois. L'intégration avec Docker pour remonter les informations sur les conteneurs, les images, etc... est actuellement en bêta, tandis que d'autres intégrations sont en préparation (Proxmox VE, etc.). C'est un projet à suivre en 2026 ! GitHub - PatchMon Installation du serveur PatchMon L'installation de PatchMon sera réalisée sur un serveur où Docker a été installé au préalable. Nous utiliserons un fichier Docker Compose car la stack PatchMon repose sur plusieurs conteneurs : Base de données avec PostgreSQL, Cache objet avec Redis, Backend de PatchMon, Frontend de PatchMon Créer un dossier pour le projet Docker Comme à mon habitude, j'ai créé un dossier dédié à ce projet sur mon serveur afin d'isoler les données associées à PatchMon. Le dossier suivant a été créé : /opt/docker-compose/patchmon Par la suite, trois sous-dossiers seront créés dans ce dossier (vous pouvez les créer manuellement ou laisser Docker procéder) : /opt/docker-compose/patchmon | |___ agent_files |___ postgres_data |___ redis_data Note : un quatrième dossier nommé branding_assets peut être ajouté si vous souhaitez déposer des éléments spécifiques pour personnaliser l'apparence de l'interface. Par exemple : remplacer le logo PatchMon par celui de votre entreprise. Générer 3 mots de passe Avant de créer le fichier Docker Compose, je vous invite à générer trois mots de passe qu'il sera nécessaire d'insérer dans ce fichier. Ils seront utilisés pour personnaliser les mots de passe de PostgreSQL et Redis, et pour le secret JWT. Voici à titre d'information les trois valeurs utilisées pour ce tutoriel et obtenues via la même commande que vous pouvez lancer sur votre serveur. # Mot de passe de la base de données openssl rand -hex 64 eb2b687f514ddcd25226de40437a59a0f9fbac5ffe72fda2e5e6d11b31e2b9e99c4aeb6944f73c37f76ba175082821a69fb625d1b080dac7df66a7ff1ea967af # Mot de passe Redis openssl rand -hex 64 0ba2b3084b93fa7bfb49452c23bea7a50c2772a9c1e3e83437db283ea37874e59febd0e09d77e1579348d2fb10cf46e7a7de17656bc7312099622fada8f42f23 # Secret JWT openssl rand -hex 64 e0b7f1ad9bd73bd271b3d161fb013c6a90e5de48e8ed4b0cb80d9717f4cb1886470671f527565158c37a1c78db92614287844eb95135abaee50ac60a0539a2cb Créer le fichier Docker Compose Voici le fichier docker-compose.yml que vous devez créer à la racine de votre projet PatchMon. Vous devez le personnaliser de façon à insérer vos mots de passe. J'ai mis des couleurs distinctes sur les trois valeurs pour que vous puissiez vous y retrouver. Cette configuration s'appuie sur la version disponible sur le GitHub officiel du projet. name: patchmon services: database: image: postgres:17-alpine restart: unless-stopped environment: POSTGRES_DB: patchmon_db POSTGRES_USER: patchmon_user POSTGRES_PASSWORD: eb2b687f514ddcd25226de40437a59a0f9fbac5ffe72fda2e5e6d11b31e2b9e99c4aeb6944f73c37f76ba175082821a69fb625d1b080dac7df66a7ff1ea967af volumes: - ./postgres_data:/var/lib/postgresql/data networks: - patchmon-internal healthcheck: test: ["CMD-SHELL", "pg_isready -U patchmon_user -d patchmon_db"] interval: 3s timeout: 5s retries: 7 redis: image: redis:7-alpine restart: unless-stopped command: redis-server --requirepass 0ba2b3084b93fa7bfb49452c23bea7a50c2772a9c1e3e83437db283ea37874e59febd0e09d77e1579348d2fb10cf46e7a7de17656bc7312099622fada8f42f23 volumes: - ./redis_data:/data networks: - patchmon-internal healthcheck: test: ["CMD", "redis-cli", "--no-auth-warning", "-a", "0ba2b3084b93fa7bfb49452c23bea7a50c2772a9c1e3e83437db283ea37874e59febd0e09d77e1579348d2fb10cf46e7a7de17656bc7312099622fada8f42f23", "ping"] interval: 3s timeout: 5s retries: 7 backend: image: ghcr.io/patchmon/patchmon-backend:latest restart: unless-stopped # See PatchMon Docker README for additional environment variables and configuration instructions environment: LOG_LEVEL: info DATABASE_URL: postgresql://patchmon_user:eb2b687f514ddcd25226de40437a59a0f9fbac5ffe72fda2e5e6d11b31e2b9e99c4aeb6944f73c37f76ba175082821a69fb625d1b080dac7df66a7ff1ea967af@database:5432/patchmon_db JWT_SECRET: e0b7f1ad9bd73bd271b3d161fb013c6a90e5de48e8ed4b0cb80d9717f4cb1886470671f527565158c37a1c78db92614287844eb95135abaee50ac60a0539a2cb SERVER_PROTOCOL: http SERVER_HOST: 192.168.10.200 SERVER_PORT: 3000 CORS_ORIGIN: http://192.168.10.200:3000 # Database Connection Pool Configuration (Prisma) DB_CONNECTION_LIMIT: 30 DB_POOL_TIMEOUT: 20 DB_CONNECT_TIMEOUT: 10 DB_IDLE_TIMEOUT: 300 DB_MAX_LIFETIME: 1800 # Rate Limiting (times in milliseconds) RATE_LIMIT_WINDOW_MS: 900000 RATE_LIMIT_MAX: 5000 AUTH_RATE_LIMIT_WINDOW_MS: 600000 AUTH_RATE_LIMIT_MAX: 500 AGENT_RATE_LIMIT_WINDOW_MS: 60000 AGENT_RATE_LIMIT_MAX: 1000 # Redis Configuration REDIS_HOST: redis REDIS_PORT: 6379 REDIS_PASSWORD: 0ba2b3084b93fa7bfb49452c23bea7a50c2772a9c1e3e83437db283ea37874e59febd0e09d77e1579348d2fb10cf46e7a7de17656bc7312099622fada8f42f23 REDIS_DB: 0 volumes: - ./agent_files:/app/agents networks: - patchmon-internal depends_on: database: condition: service_healthy redis: condition: service_healthy frontend: image: ghcr.io/patchmon/patchmon-frontend:latest restart: unless-stopped ports: - "3000:3000" networks: - patchmon-internal depends_on: backend: condition: service_healthy volumes: postgres_data: redis_data: agent_files: networks: patchmon-internal: driver: bridge Dans ce fichier, vous pourrez constater que : Les conteneurs seront connectés sur le même réseau Docker intitulé patchmon-internal, L'application est exposée sur le port 3000 via le conteneur frontend, Des dépendances sont définies entre certains conteneurs via les instructions depends_on. Au-delà des mots de passe et secrets, vous devez ajuster plusieurs variables pour éviter d'avoir une erreur de sécurité lors de la première connexion : SERVER_PROTOCOL: http : http ou https, selon la méthode d'accès. SERVER_HOST: 192.168.10.200 : le nom public du serveur, mettez l'IP ou le nom. SERVER_PORT: 3000 : le port d'accès, doit être cohérent vis-à-vis du port exposé sur le frontend. CORS_ORIGIN: http://192.168.10.200:3000 : ajustez cette valeur pour qu'elle représente l'adresse publique sur laquelle sera joignable PatchMon. Autrement dit, n'indiquez pas localhost ou 127.0.0.1. Ici, je précise l'adresse IP de mon hôte Docker car les échanges seront uniquement sur le réseau local. Ici, nous effectuons un accès en HTTP à l'application PatchMon. Pour la production, il est bien entendu recommandé d'associer un reverse proxy pour publier l'application en HTTPS, avec un certificat TLS. Pour aller plus loin, il y a d'autres variables d'environnement disponibles : référez-vous à cette page de la documentation. Enregistrez et fermez le fichier. Initialiser le projet Docker Compose Désormais, vous pouvez initialiser le projet Docker. Les images seront téléchargées, le réseau créé, tout comme les différents conteneurs. Patientez un instant. docker compose up -d Si vous avez une erreur, consultez les journaux : docker compose logs Il est possible que le conteneur backend refuse de démarrer à cause d'une erreur de permissions sur le dossier agent_files. Vous pouvez corriger cette erreur via la commande suivante : sudo chown -R 1000:1000 /opt/docker-compose/patchmon/agent_files Première connexion à PatchMon Ouvrez votre navigateur web et tentez d'accéder à l'interface de PatchMon, en saisissant son adresse. Saisissez l'adresse associée au paramètre CORS_ORIGIN. Pour ma part, ce sera donc : http://192.168.10.200:3000. Vous devez commencer par créer un premier compte utilisateur correspondant à l'administrateur de la plateforme PatchMon. Voilà, bienvenue sur votre instance PatchMon ! Je vous encourage à prendre le temps de parcourir les paramètres, en cliquant sur le bouton "Settings" en bas à gauche. Il y a plusieurs sections, que ce soit pour gérer les comptes utilisateurs, les rôles, votre profil, ou encore les groupes d'hôtes. Par exemple, vous pouvez activer le MFA sur votre compte administrateur. Cliquez sur "URL Config" dans la liste pour vérifier que l'adresse du serveur est bien prise en charge. C'est important de le vérifier, même si ça doit déjà être correct grâce aux variables SERVER_* configurées précédemment. Cette page affiche l'adresse qui sera utilisée par les clients pour contacter le serveur PatchMon. Si c'est incorrect, vous allez rencontrer des problèmes par la suite... Une fois que vous avez terminé votre petit tour de l'interface PatchMon, passez à la suite : le déploiement d'un premier agent. Déployer un agent PatchMon sur Linux Pour ajouter manuellement un nouvel hôte à PatchMon, vous devez déployer un nouvel agent. À partir de la section "Hosts", cliquez sur le bouton "Add host" (ou directement sur le "+" dans le menu de gauche). Pour le moment, la liste des hôtes est vide. Donnez un nom à cette machine, en toute logique le nom du serveur cible. Il est aussi possible : d'ajouter l'hôte à un groupe d'hôtes, mais par défaut il n'y a pas de groupe. C'est modifiable par la suite. d'activer une intégration, soit pour le moment l'intégration avec Docker (d'autres sont en cours de développement). Cliquez sur le bouton "Create Host" pour valider. Une fenêtre va s'afficher à l'écran. Elle indique la commande à copier-coller pour automatiser l'installation de l'agent PatchMon et l'inscription auprès du serveur. Pour ma part, la commande à exécuter est la suivante : curl -s http://192.168.10.200:3000/api/v1/hosts/install -H "X-API-ID: patchmon_2a08e8a52f0ae9fb" -H "X-API-KEY: 5bbc4e017f9c4a0ca8e485d11fd911e85e4768a38f5e832be1826d68532714e1" | sh Si vous ne lancez pas la commande directement en tant que root, vous devez ajouter sudo juste devant sh dans la seconde partie de la commande. L'opération est effectuée en quelques secondes. Les informations dans la console permettent d'avoir un aperçu des actions effectuées. Vous devriez voir passer deux lignes indiquant que les identifiants sont valides et que la connexion au serveur a été effectuée avec succès. Quelques précisions : Les identifiants de connexion à l'API sont stockés dans le fichier /etc/patchmon/credentials.yml. Le fichier de configuration, comprenant notamment l'adresse vers le serveur, est le fichier suivant : /etc/patchmon/config.yml. Le fichier journal de l'agent PatchMon est le suivant : /etc/patchmon/logs/patchmon-agent.log Suite à l'installation, l'hôte apparait bien sur l'interface de PatchMon. Vous pouvez actualiser les données en cliquant sur le bouton en haut à droite. Sur cette machine, on voit bien qu'il y a un retard considérable au niveau des mises à jour ! Note : l'agent PatchMon est équipé d'une fonction de mise à jour automatique activée par défaut. PatchMon collecte des informations générales sur la machine, en particulier pour le réseau, le système et le stockage. Vous pouvez naviguer entre les différents onglets : Sur le même principe, vous pouvez ajouter d'autres hôtes. La vue globale offrira alors une vue synthétique sur les hôtes enregistrés. Les commandes pour gérer l'agent PatchMon Voici quelques commandes utiles pour administrer l'agent PatchMon sur un serveur. Tester la connexion : patchmon-agent ping --------------------------------- ✅ API credentials are valid ✅ Connectivity test successful Lancer une synchronisation depuis l'agent : patchmon-agent report Afficher l'état de l'agent : patchmon-agent diagnostics --------------------------------- ✅ API credentials are valid ✅ Connectivity test successful root@srv-haproxy:~# patchmon-agent diagnostics PatchMon Agent Diagnostics v1.3.7 System Information: OS: Debian GNU/Linux 12 (bookworm) Architecture: amd64 Kernel: 6.1.0-25-amd64 Hostname: srv-haproxy Machine ID: 7cf53fba-b483-4621-9d3a-461833b6c214 Agent Information: Version: 1.3.7 Config File: /etc/patchmon/config.yml Credentials File: /etc/patchmon/credentials.yml Log File: /etc/patchmon/logs/patchmon-agent.log Log Level: info Configuration Status: ✅ Config file exists ✅ Credentials file exists Network Connectivity & API Credentials: Server URL: http://192.168.10.200:3000 ✅ Server is reachable ✅ API is reachable and credentials are valid Last 10 log entries: time="2026-01-08T11:06:57" level=info msg="Reboot status check completed" installed_kernel=6.1.0-25-amd64 needs_reboot=false reason= running_kernel=6.1.0-25-amd64 time="2026-01-08T11:06:57" level=info msg="Collecting package information..." time="2026-01-08T11:07:01" level=info msg="Found packages" count=360 time="2026-01-08T11:07:01" level=info msg="Collecting repository information..." time="2026-01-08T11:07:01" level=info msg="Found repositories" count=6 time="2026-01-08T11:07:01" level=info msg="Sending report to PatchMon server..." time="2026-01-08T11:07:02" level=info msg="Report sent successfully" time="2026-01-08T11:07:02" level=info msg="Processed packages" count=360 time="2026-01-08T11:07:07" level=info msg="Checking for agent updates..." time="2026-01-08T11:07:07" level=info msg="Agent is up to date" version=1.3.7 Afficher l'état du service : systemctl status patchmon-agent Afficher les logs de l'agent PatchMon : journalctl -u patchmon-agent -f Redémarrer le service : systemctl restart patchmon-agent Le monitoring de Docker avec PatchMon Si vous installez l'agent PatchMon sur une machine équipée de Docker et que vous activez l'intégration Docker, vous pourrez alors suivre l'état de vos conteneurs depuis l'interface de PatchMon. Toujours dans l'esprit monitoring, l'interface affiche l'état des conteneurs, la liste des images, des réseaux et des volumes. Pour le cas des images, ce qui est cool, c'est que PatchMon indique s'il y a une mise à jour disponible ou non, ainsi que d'autres informations (nom, tag, source, etc.). J'ai constaté qu'au début les images remontent toutes en "Up to date" (à jour), mais que l'état réel apparaît un peu plus tard. Ci-dessous, un exemple. Au niveau de chaque hôte, vous pouvez activer ou désactiver des intégrations, que l'on peut considérer comme des modules, via l'onglet "Integrations". Le site de PatchMon laisse entendre que d'autres intégrations arriveront par la suite : WordPress, Apache, Ubiquiti, Proxmox, Azure ou encore Google (vous pouvez voter d'ailleurs). Conclusion Si vous gérez déjà vos mises à jour de façon automatisée (avec Ansible, par exemple), le fait d'utiliser PatchMon ajoute une couche de monitoring intéressante pour savoir quand il est nécessaire d'agir sur tel ou tel serveur. C'est vrai pour un Home Lab et pour une petite infrastructure où PatchMon peut se faire une place pour apporter une meilleure visibilité. La solution PatchMon est jeune, mais elle évolue vite, et j'ai le sentiment qu'elle va progresser dans la bonne direction. Une communauté d'une dizaine de personnes contribue déjà au développement de la solution et le projet semble bien reçu ! Maintenant, nous attendons avec impatience la gestion des mises à jour et, pourquoi pas, à terme, la prise en charge des machines sous Windows. FAQ PatchMon Qu'est-ce que PatchMon ? PatchMon est un outil open source de surveillance des correctifs (patch monitoring) pour les systèmes Linux. Il offre un tableau de bord centralisé permettant de visualiser l'état des mises à jour (paquets installés, mises à jour de sécurité manquantes, etc.) sur l'ensemble de vos serveurs, sans avoir à s'y connecter individuellement. Il supporte aussi la découverte des conteneurs Docker et des conteneurs LXC sur les hôtes Proxmox VE. Comment fonctionne la communication entre mes serveurs et PatchMon ? L'architecture de PatchMon repose sur un modèle "agent-serveur". Un agent codé en Go est installé sur chaque machine Linux à surveiller. Cet agent initie la connexion vers votre serveur PatchMon (il est donc question d'une communication sortante uniquement). Vous n'avez pas besoin d'ouvrir de ports entrants sur vos serveurs surveillés, ce qui est un bon point pour la sécurité. Comment déployer en masse l'agent PatchMon ? La façon la plus adaptée de déployer l'agent PatchMon en masse sur un ensemble de machines Linux me semble être l'utilisation d'un playbook Ansible. D'ailleurs, au sujet d'Ansible, sachez qu'il y a un plugin d'inventaire dynamique PatchMon pour Ansible (voir cette page). PatchMon peut-il découvrir les conteneurs LXC de Proxmox VE ? Oui, PatchMon dispose d'une fonction nommée "Proxmox Auto-Enrollment" pour découvrir et inscrire automatiquement les conteneurs LXC des hôtes Proxmox VE. Le script de découverte tourne directement sur l'hôte Proxmox VE. Cette fonctionnalité est décrite sur cette page de la documentation. Ingénieur système et réseau, cofondateur d'IT-Connect et Microsoft MVP "Cloud and Datacenter Management". Je souhaite partager mon expérience et mes découvertes au travers de mes articles. Généraliste avec une attirance particulière pour les solutions Microsoft et le scripting. Bonne lecture. Afficher l’article complet -
Up and Clear | Reborn upandclear.org Environ 5 minutes de lecture Après avoir mis de côté UNRAiD, dont je me suis lassé, j’ai passé le LincStation N1 sous TrueNAS. Cet OS ne m’apporte rien d’autre que la gestion simplifiée des RAIDs via une WebUI (parce que bon… mdadm… c’est chiant). Enfin je ne cherche pas à utiliser l’OS pour être précis, je ne peux donc pas dire qu’il est nul ou top. M’en tape. Les autres machines, tout aussi peu puissantes que le N1 sont sous Archlinux et Ubuntu. Arch parce que j’aime bien me demander chaque jour si une MàJ va plomber le serveur et comment je vais m’en dépatouiller (et c’est accessoirement mon desktop). Ubuntu, pour changer de Debian, parce que j’ai quand même besoin d’un truc stable dans ma vie de geek. N’utilisant quasi plus de VM/LXC depuis l’avènement de Docker, je n’ai plus de ProxMox. Du coup, je shunte Ubuntu au profit d’une distribution basée sur Debian : ZimaOS ! Jai passé hier l’ensemble de mes services « utiles » sur TrueNAS pour libérer cette machine pour ce test. Avertissement : c’est asiat’. Alors pour les complotistes américains peureux bas du front (rayez ou non les mentions inutiles), n’allez pas plus loin. Je n’ai absolument pas fait de RE pour savoir s’ils ont mis des backdoors. « Mais » CVE-2026-21891 (non encore relayée sur GitHub) / discussion Reddit et si j’ai pas sniffé le trafic, mon DNS ne fait rien ressortir d’extraordinaire. La machine ping même pas Baidu, contrairement à la majorité des objets IoT qui s’assurent d’être connectés à Internet en pingant le de Google chinoix (oui, eux aussi ont leur GAFAM BATX). J’ai découvert cet OS par hasard, quand je cherchais des infos sur des boards de serveurs. J’ai d’ailleurs commencé par découvrir CasaOS, dont j’étais pas fans. Ça faisait un peu Docker in Docker. Pour moi c’est plus à voir comme une alternative à YunoHost (très bon projet pour ceux qui sortent d’une grotte et ne connaissent pas). Même ressenti pour Cosmos d’ailleurs. ZimaOS est développé pour leurs NAS ZimaCube mais on peut l’installer partout. Ils font eux-mêmes la comparaison entre ZimaOS et CasaOS, en gros : C’est un UNRAiD like, avec une interface plus moderne (avis 100% subjectif), avec des clients à la Synology pour Windows, macOS, Linux (AUR), iOS et Android, avec une documentation bien faite sans tomber dans un Wikipedia comme on peut le voir chez certains concurrents, un GitHub et donc la possibilité d’ouvrir des issues (ce qui est bien plus pratique qu’un forum), Ça s’installe en 2-2 avec une clé USB (iso de 1.3Go) créée avec Balena et se gère uniquement via la WebUI. J’utilise la version gratuite. Et il faut activer le Mode Développeur notamment pour désactiver l’indexation du contenu avec leur « IA » (pour faciliter la recherche) et autoriser SSH. Première vraie configuration à faire, mon stockage. De mémoire j’ai que 2 disques dans ce PC mais la version gratuite permet d’en gérer 4 en RAID. Et la version payante coûte 29$ (« à vie »). Comme j’ai qu’un SSD en sus de celui de l’OS, je me contente de le formater et ça l’ajoute bien ensuite en stockage. Ce que je vois d’ailleurs avec le widget de la dashboard, qui passe à 718Go de stockage. Et donc, en standard, ZimaOS intègre un explorateur de fichiers, un outil de backup (depuis ou vers le NAS), un gestionnaire de VM et un PairDrop (je vois la machine sous Windows mais pas mon Arch, faudra que je trouve pourquoi). Depuis un client (Linux/iOS), on peut parcourir les fichiers du serveur et faire du backup. Notamment de photos depuis l’iPhone (arrière plan ou non). On peut ajouter des liens externes à la dashboard, ce qui est une très bonne idée et pourrait m’inciter à me passer de mon brave Heimdall qui m’accompagne depuis maintenant des années… Et nous terminons évidemment avec le fameux AppStore et ses 372 applications (Docker) « prêtes à installer » au moment de cet article. Rien de comparable avec UNRAiD, je vous l’accorde. Mais ici, ça s’installe en 1 clic. Et on peut ajouter des dépôts et doubler, au moins, le nombre d’applications du store. Tout comme il est possible d’installer une app via la WebUI si on elle n’est pas dans le Store et qu’on n’est vraiment pas à l’aise en console. On peut tout à fait utiliser Docker en console ou via Komodo, Arcane, Dockge, Portainer/what ever. Et ça marche « out of the box » dans ce cas, il n’y a rien à adapter pour l’OS. À noter que par défaut, les applications installées via l’AppStore sont dans /DATA, sur le disque système. root@ZimaOS:~ ➜ # tree /DATA/ /DATA/ ├── AppData │ └── pihole │ └── etc │ └── pihole │ ├── adlists.list │ ├── cli_pw │ ├── config_backups │ │ └── pihole.toml.1 │ ├── dhcp.leases │ ├── dnsmasq.conf │ ├── gravity.db │ ├── gravity_backups │ │ └── gravity.db.1 │ ├── gravity_old.db │ ├── hosts │ │ └── custom.list │ ├── listsCache │ │ ├── list.1.raw.githubusercontent.com.domains │ │ ├── list.1.raw.githubusercontent.com.domains.etag │ │ └── list.1.raw.githubusercontent.com.domains.sha1 │ ├── logrotate │ ├── migration_backup │ │ └── adlists.list │ ├── pihole-FTL.db │ ├── pihole-FTL.db-shm │ ├── pihole-FTL.db-wal │ ├── pihole.toml │ ├── tls.crt │ ├── tls.pem │ ├── tls_ca.crt │ └── versions ├── Backup ├── Documents ├── Downloads │ └── ISO ├── Gallery ├── Media │ ├── Movies │ ├── Music │ └── TV Shows └── lost+found Comme ça se voit au-dessus, j’ai installé Pi-Hole depuis l’AppStore pour tester. Faut juste cliquer pour installer. Pratique : en cas d’ajout de disques, on peut migrer les données facilement Même si ZimaOS est basé sur Debian, c’est propriétaire et on ne peut pas utiliser Apt pour y installer ce qu’on veut. C’est une sécurité également, histoire de ne pas mettre en vrac l’OS (ce qu’on est nombreux à avoir fait avec Proxmox hein… mentez pas !!). Ceci dit ils ont prévu le coup. Ceci dit, leur OS embarque déjà bon nombre d’utilitaires tels que ncdu, jq, rclone… Dans l’idéal, j’aimerais un dash qui permet de mieux intégrer quelques applications comme le font Heimdall, Homarr, Organizr etc. Aperçu du client iOS Avec le recul de cet article, je perçois ZimaOS comme un DSM de Synology, enfin plutôt un Xpenology vu qu’on peut l’installer où on veut, avec un peu de combo d’UNRAiD et cousins. Enfin tous ces OS se ressemblent mais ZimaOS serait un peu le « macOS » du groupe, à vouloir proposer une expérience très esthétique, complète (Docker natif ou magasin d’applications), pratique (outils intégrés, y compris pour périphériques) et répondant AMHA à la plupart des besoins. Bien que propriétaire, contrairement à CasaOS qui est open source mais n’est qu’une surcouche. Je pense le faire tourner quelques temps en parallèle de TrueNAS voir remplacer ce dernier. Et j’avais oublié, ça embarque aussi Btop++ pour afficher des stats temps réel. Afficher l’article complet
-
-