Jump to content

Ldfa

Admin
  • Content Count

    24662
  • Joined

  • Last visited

  • Days Won

    530

Everything posted by Ldfa

  1. Toute l'équipe du site de Support Francophone de Maxthon vous souhaite une Bonne Année du Rat... 傲游法语支持团队的整个团队 祝你鼠年快乐 Source : https://chine.in/actualite/annee-rat-souris_125285.html
  2. Firefox peut se configurer dans les préférences, mais il y a des milliers de paramètres avancés qui sont cachés, certaines sont pourtant sympa : ce sont les paramètres dans le fameux « about:config ». Ne faites pas n’importe quoi là-dedans (ça pourrait être problématique). Voici simplement mes réglages du moment (les anciennes listes pouvant être obsolètes). Il n’y a pas spécialement d’ordre dans ce qui suit. Le soulignement des mots mal orthographiés ui.SpellCheckerUnderlineStyle Mettez (ou créez) une clé de ce nom, de type « nombre » (ou « integer) et donnez-lui la valeur 3. Firefox souligne les mots mal orthographiés avec de petites vaguelettes bien connues. Perso j’aime pas les vaguelettes. Je préfère un soulignement d’un seul trait, simple et plus net sur mon écran. Ce tweak permet d’avoir ça. On peut aussi obtenir un double trait, des pointillés, des points, etc. Essayez juste de changer le numéro. Activez le correcteur orthographique dans tous les champs layout.spellcheckDefault Mettez cette clé, de type nombre à 2. Par défaut, le correcteur orthographique n’est appliqué que sur les champs textes de plusieurs lignes (les textarea), pas sur les champs d’une seule ligne comme les champs de recherche, celui des pseudos, etc (les input type="text"). Ici on active ça dans tous les champs. Le punnycode dans les url network.IDN_show_punycode Mettez cette clé, de type booléen à true. Certains ont eu la bonne idée de pouvoir mettre de l’unicode dans les URL. Évidemment, il y a des tas de problèmes de phishing à cause de ça. L’encodage des caractères unicode dans les URL se fait avec le code « punnycode ». Cette manip permet de forcer Firefox à afficher ce code au lieu des caractères unicode, pour ne plus se faire avoir par un site vérolé. Réafficher les URL complètes browser.urlbar.trimURLs Mettez cette clé, de type booléen à false. Par défaut, Firefox (et les autres navigateurs) masquent une partie de l’URL (le « https:// », les paramètres « ?q=xxxx », l’ancre dans la page « #ancre »…). C’est d’une débilité sans nom et également source de confusion et de faille de sécurité de type « PEBCAK ». Ici on ré-affiche l’URL complète. Autoriser le userChrome.css toolkit.legacyUserProfileCustomizations.stylesheets Mettez cette clé, de type booléen à true. L’interface même de Firefox est elle-même en XML+CSS. Il est donc possible de le modifier comme une page web normale, en CSS. Le fichier CSS qui sert à cela est dans le dossier des préférences mais n’est pas activé par défaut. Cette modif permet de l’activer. Ça vous sera par exemple utile si vous souhaitez avoir une barre personnelle verticale sur un des côtés de l’écran, par exemple. Désactiver la touche de tabulation pour les liens accessibility.tabfocus Mettez cette clé, de type nombre à 3. Par défaut la touche de tabulation utilisée dans une page web permet de passer d’un lien, d’un champ de texte, d’un bouton, à un autre. Si vous le mettez à 3, cela exclura les liens (les tabulations ne feront que passer d’un champ texte ou d’un bouton à l’autre (notez quand-même que la page web peut modifier l’ordre de ces tabulations, il faut le savoir quand on navigue essentiellement au clavier). Désactivez la fermeture de Firefox au dernier onglet browser.tabs.closeWindowWithLastTab Mettez cette clé, de type booléen à false. Firefox, comme tous les navigateurs désormais, fonctionnent par onglets. Quand on ferme de dernier onglet, ça ferme Firefox. Cette clé ici permet de faire en sorte que fermer le dernier onglet ne ferme que cet onglet et laisse un onglet vierge à la place, sans fermer le navigateur. Réactiver le zoom sur les pages browser.ui.zoom.force-user-scalable Mettez cette clé, de type booléen à true. Celle-ci est plutôt pour mobile (oui, les about:config fonctionne aussi sur Firefox Mobile !). Certains écervelés trouvent acceptables de désactiver le zoom sur leur page. Ceci permet de le réactiver. Merci Firefox. Désactiver le rafraîchissement automatique de la page accessibility.blockautorefresh Mettez cette clé, de type booléen à true. Certains sites publicitaires (ceux avec des encarts de presse, comme LePoint ou le Figaro) rechargent la page à intervalles réguliers, histoire de recharger les pubs et faire plus de fric sur votre dos. C’est chiant, mais ça consomme aussi des ressources système. Ici vous dites à Firefox d’empêcher le rechargement des pages. Désactiver Pocket extensions.pocket.enabled Mettez cette clé, de type booléenne à false. Pocket est un service tiers pour enregistrer des pages web pour une lecture ultérieure. Il vient pré-intégré dans Firefox, mais je n’utilise pas ça, je ne vois pas pourquoi je laisserais ça pomper mes ressources. Activer le thème sombre ui.systemUsesDarkTheme Mettez cette clé, de type nombre à 1. Certains sites ont un thème sombre en plus du thème normal. Idéalement, le système ferait passer l’interface en sombre à la tombée de la nuit. À moins d’être sur Mac OS, Windows et les systèmes Linux n’en sont pas encore là, et encore moins Firefox (généralement moins intégré que Edge ou Safari). Firefox propose juste pour le moment de forcer le thème sombre – s’il existe – sur les pages web, avec cette clé. Notez que le site web doit proposer ce thème et utiliser le mécanisme en CSS pour appliquer ça selon le choix du visiteur. Ils sont encore très rares à le faire (en fait je n’en connais aucun, mais peut-être que je le ferais sur mes sites). Si le site n’a pas ce qu’il faut, la page restera "normale" : ce n’est donc pas comme une extension qui assombrit toute la navigation. Désactiver l’accès au presse-papier dom.event.clipboardevents.enabled Mettez cette clé, de type booléenne à false. Certains sites veulent accéder à votre presse papier, par exemple pour copier un texte via un clic sur un bouton ou au contraire vous empêcher de copier quoi que ce soit. Ces règles intrusives et ridicules se contournent via cette clé (via). Info : certains sites peuvent en planter complètement s’ils utilisent certains frameworks intrusifs (genre ReactJS, visiblement). Désactiver le préfetch network.prefetch-next Mettez cette clé, de type booléenne à false. Firefox peut choisir de pré-contacter un site web quand on passe le curseur au dessus d’un lien, en vue de charger la page plus rapidement quand quand on clique sur ce lien. Ceci peut accélérer un peu la navigation sur une connexion déjà rapide, mais ça peut la saturer si vous êtes toujours avec un réseau pourri en ADSL 8 Méga en pleine cambrousse (ou sur un réseau mobile en Edge). En mettant à « false » on désactive ce pré-contact du site web. Réduire la fréquence des sauvegardes de session browser.sessionstore.interval Mettez cette clé, de type nombre à 120000. Firefox peut sauvegarder vos onglets au cas où le navigateur plante. Ça permet de ne pas perdre vos onglets, votre historique, etc. Par défaut, la session est enregistrée toutes les 15 secondes. Je trouve que ça fait quand-même beaucoup d’enregistrements (et donc beaucoup d’accès disques). Je mets cette valeur à 120 000, correspondant à 120 secondes (la valeur est en millisecondes), considérant qu’une sauvegarde toutes les deux minutes suffit amplement. Augmenter le pixel-ratio layout.css.devPixelsPerPx Mettez cette clé, de type nombre à 1.2. Perso, j’ai un écran 4K de 27 pouces. Les pixels sont minuscules et le texte peut sembler trop petit. En mettant 1.2 au lieu de -1 (valeur système), la taille d’affichage de Firefox est à 120 %. Contrairement au « zoom », cette propriété gère à la fois les pages web et l’interface de Firefox. Je peux aussi modifier ça dans le système d’exploitation (Linux, Windows…) mais je préfère le faire juste pour Firefox, tous les programmes (notamment certains vieux jeux) ne gèrent pas tout ça très bien. La valeur de 1.2 me va bien à moi : il est possible de mettre une autre valeur : 1.3, 1.4, etc. si vous désirez un zoom plus important. Afficher l’article complet
  3. Tous les jeux Half-Life sont désormais disponibles en téléchargement gratuit sur Steam – pour une durée limitée uniquement. À deux mois de la sortie de Half Life : Alyx, ce cadeau de Valve est parfait pour se replonger dans l’histoire de la saga. Valve a annoncé officiellement aujourd’hui que tous les titres Half-Life sortis ainsi que tous leurs packs d’extension pouvaient être joués gratuitement sur Steam. Lesdits jeux ont cependant été offerts à prix cassés à plusieurs reprises dans le passé. Mais ceux qui ne possèdent pas les titres et ont manqué toutes les promotions passées, c’est le moment de se faire plaisir. Attention, il ne faut cependant pas perdre de temps pour profiter de cette offre puisqu’elle expirera le 1er avril prochain. Cette période d’essai gratuite concerne le premier Half-Life ainsi que Half-Life 2 Episode One et Episode Two. Vous avez donc deux mois pour tenter de finir toute la collection. Toute la collection Half-Life gratuite pour se préparer à Half-Life : Alyx Cela fait déjà 13 ans que le dernier opus de la franchise est sorti. Avec l’arrivée en mars de Half-Life: Alyx, le premier titre en réalité virtuelle de la licence, c’est le moment idéal de se replonger gratuitement dans ses prédécesseurs. Pour les nouveaux arrivants, ce cadeau de Valve est un bon moyen de se familiariser avec l’histoire pour se préparer au prochain titre. Le scénario de Half-Life: Alyx, prévu pour mars, se déroulera entre Half-Life et Half-Life 2. Connaître l’intrigue des premiers titres semble donc fortement conseillé avant de se lancer dans la future expérience en VR. Selon les dernières informations dont on dispose sur le jeu, Half-Life : Alyx devrait néanmoins avoir sa propre histoire. On en découvrira peut-être un peu plus lors de la session Questions/Réponses avec les développeurs qui aura lieu sur Reddit aujourd’hui. Le titre sera compatible avec les casques Oculus Rift , Valve Index, HTC Vive et Windows Mixed Reality. GTA 4 a disparu de Steam, comment y jouer maintenant ? Source : ars technica Afficher l’article complet
  4. Need to monitor Linux server performance? Try these built-in commands and a few add-on tools. Most distributions come with tons of Linux monitoring tools. These tools provide metrics which can be used to get information about system activities. You can use these tools to find the possible causes of a performance problem. The commands discussed below are some of the most fundamental commands when it comes to system analysis and debugging Linux server issues such as: Finding out system bottlenecks Disk (storage) bottlenecks CPU and memory bottlenecks Network bottleneck. 1. top – Process activity monitoring command top command display Linux processes. It provides a dynamic real-time view of a running system i.e. actual process activity. By default, it displays the most CPU-intensive tasks running on the server and updates the list every five seconds. Fig.01: Linux top commandCommonly Used Hot Keys With top Linux monitoring tools Here is a list of useful hot keys: Hot Key Usage t Displays summary information off and on. m Displays memory information off and on. A Sorts the display by top consumers of various system resources. Useful for quick identification of performance-hungry tasks on a system. f Enters an interactive configuration screen for top. Helpful for setting up top for a specific task. o Enables you to interactively select the ordering within top. r Issues renice command. k Issues kill command. z Turn on or off color/mono How do I Find Out Linux CPU Utilization? 2. vmstat – Virtual memory statistics The vmstat command reports information about processes, memory, paging, block IO, traps, and cpu activity. # vmstat 3 Sample Outputs: procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------ r b swpd free buff cache si so bi bo in cs us sy id wa st 0 0 0 2540988 522188 5130400 0 0 2 32 4 2 4 1 96 0 0 1 0 0 2540988 522188 5130400 0 0 0 720 1199 665 1 0 99 0 0 0 0 0 2540956 522188 5130400 0 0 0 0 1151 1569 4 1 95 0 0 0 0 0 2540956 522188 5130500 0 0 0 6 1117 439 1 0 99 0 0 0 0 0 2540940 522188 5130512 0 0 0 536 1189 932 1 0 98 0 0 0 0 0 2538444 522188 5130588 0 0 0 0 1187 1417 4 1 96 0 0 0 0 0 2490060 522188 5130640 0 0 0 18 1253 1123 5 1 94 0 0 Display Memory Utilization Slabinfo # vmstat -m Get Information About Active / Inactive Memory Pages # vmstat -a How do I find out Linux Resource utilization to detect system bottlenecks? 3. w – Find out who is logged on and what they are doing w command displays information about the users currently on the machine, and their processes. # w username # w vivek Sample Outputs: 17:58:47 up 5 days, 20:28, 2 users, load average: 0.36, 0.26, 0.24 USER TTY FROM LOGIN@ IDLE JCPU PCPU WHAT root pts/0 10.1.3.145 14:55 5.00s 0.04s 0.02s vim /etc/resolv.conf root pts/1 10.1.3.145 17:43 0.00s 0.03s 0.00s w 4. uptime – Tell how long the Linux system has been running uptime command can be used to see how long the server has been running. The current time, how long the system has been running, how many users are currently logged on, and the system load averages for the past 1, 5, and 15 minutes. # uptime Output: 18:02:41 up 41 days, 23:42, 1 user, load average: 0.00, 0.00, 0.00 1 can be considered as optimal load value. The load can change from system to system. For a single CPU system 1 – 3 and SMP systems 6-10 load value might be acceptable. 5. ps – Displays the Linux processes ps command will report a snapshot of the current processes. To select all processes use the -A or -e option: # ps -A Sample Outputs: PID TTY TIME CMD 1 ? 00:00:02 init 2 ? 00:00:02 migration/0 3 ? 00:00:01 ksoftirqd/0 4 ? 00:00:00 watchdog/0 5 ? 00:00:00 migration/1 6 ? 00:00:15 ksoftirqd/1 .... ..... 4881 ? 00:53:28 java 4885 tty1 00:00:00 mingetty 4886 tty2 00:00:00 mingetty 4887 tty3 00:00:00 mingetty 4888 tty4 00:00:00 mingetty 4891 tty5 00:00:00 mingetty 4892 tty6 00:00:00 mingetty 4893 ttyS1 00:00:00 agetty 12853 ? 00:00:00 cifsoplockd 12854 ? 00:00:00 cifsdnotifyd 14231 ? 00:10:34 lighttpd 14232 ? 00:00:00 php-cgi 54981 pts/0 00:00:00 vim 55465 ? 00:00:00 php-cgi 55546 ? 00:00:00 bind9-snmp-stat 55704 pts/1 00:00:00 ps ps is just like top but provides more information. Show Long Format Output # ps -Al To turn on extra full mode (it will show command line arguments passed to process): # ps -AlF Display Threads ( LWP and NLWP) # ps -AlFH Watch Threads After Processes # ps -AlLm Print All Process On The Server # ps ax # ps axu Want To Print A Process Tree? # ps -ejH # ps axjf # pstree Get Security Information of Linux Process # ps -eo euser,ruser,suser,fuser,f,comm,label # ps axZ # ps -eM Let Us Print Every Process Running As User Vivek # ps -U vivek -u vivek u Configure ps Command Output In a User-Defined Format # ps -eo pid,tid,class,rtprio,ni,pri,psr,pcpu,stat,wchan:14,comm # ps axo stat,euid,ruid,tty,tpgid,sess,pgrp,ppid,pid,pcpu,comm # ps -eopid,tt,user,fname,tmout,f,wchan Try To Display Only The Process IDs of Lighttpd # ps -C lighttpd -o pid= OR # pgrep lighttpd OR # pgrep -u vivek php-cgi Print The Name of PID 55977 # ps -p 55977 -o comm= Top 10 Memory Consuming Process # ps -auxf | sort -nr -k 4 | head -10 Show Us Top 10 CPU Consuming Process # ps -auxf | sort -nr -k 3 | head -10 Show All Running Processes in Linux 6. free – Show Linux server memory usage free command shows the total amount of free and used physical and swap memory in the system, as well as the buffers used by the kernel. # free Sample Output: total used free shared buffers cached Mem: 12302896 9739664 2563232 0 523124 5154740 -/+ buffers/cache: 4061800 8241096 Swap: 1052248 0 1052248 Linux Find Out Virtual Memory PAGESIZE Linux Limit CPU Usage Per Process How much RAM does my Ubuntu / Fedora Linux desktop PC have? 7. iostat – Montor Linux average CPU load and disk activity iostat command report Central Processing Unit (CPU) statistics and input/output statistics for devices, partitions and network filesystems (NFS). # iostat Sample Outputs: Linux 2.6.18-128.1.14.el5 (www03.nixcraft.in) 06/26/2009 avg-cpu: %user %nice %system %iowait %steal %idle 3.50 0.09 0.51 0.03 0.00 95.86 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 22.04 31.88 512.03 16193351 260102868 sda1 0.00 0.00 0.00 2166 180 sda2 22.04 31.87 512.03 16189010 260102688 sda3 0.00 0.00 0.00 1615 0 Linux Track NFS Directory / Disk I/O Stats 8. sar – Monitor, collect and report Linux system activity sar command used to collect, report, and save system activity information. To see network counter, enter: # sar -n DEV | more The network counters from the 24th: # sar -n DEV -f /var/log/sa/sa24 | more You can also display real time usage using sar: # sar 4 5 Sample Outputs: Linux 2.6.18-128.1.14.el5 (www03.nixcraft.in) 06/26/2009 06:45:12 PM CPU %user %nice %system %iowait %steal %idle 06:45:16 PM all 2.00 0.00 0.22 0.00 0.00 97.78 06:45:20 PM all 2.07 0.00 0.38 0.03 0.00 97.52 06:45:24 PM all 0.94 0.00 0.28 0.00 0.00 98.78 06:45:28 PM all 1.56 0.00 0.22 0.00 0.00 98.22 06:45:32 PM all 3.53 0.00 0.25 0.03 0.00 96.19 Average: all 2.02 0.00 0.27 0.01 0.00 97.70 9. mpstat – Monitor multiprocessor usage on Linux mpstat command displays activities for each available processor, processor 0 being the first one. mpstat -P ALL to display average CPU utilization per processor: # mpstat -P ALL Sample Output: Linux 2.6.18-128.1.14.el5 (www03.nixcraft.in) 06/26/2009 06:48:11 PM CPU %user %nice %sys %iowait %irq %soft %steal %idle intr/s 06:48:11 PM all 3.50 0.09 0.34 0.03 0.01 0.17 0.00 95.86 1218.04 06:48:11 PM 0 3.44 0.08 0.31 0.02 0.00 0.12 0.00 96.04 1000.31 06:48:11 PM 1 3.10 0.08 0.32 0.09 0.02 0.11 0.00 96.28 34.93 06:48:11 PM 2 4.16 0.11 0.36 0.02 0.00 0.11 0.00 95.25 0.00 06:48:11 PM 3 3.77 0.11 0.38 0.03 0.01 0.24 0.00 95.46 44.80 06:48:11 PM 4 2.96 0.07 0.29 0.04 0.02 0.10 0.00 96.52 25.91 06:48:11 PM 5 3.26 0.08 0.28 0.03 0.01 0.10 0.00 96.23 14.98 06:48:11 PM 6 4.00 0.10 0.34 0.01 0.00 0.13 0.00 95.42 3.75 06:48:11 PM 7 3.30 0.11 0.39 0.03 0.01 0.46 0.00 95.69 76.89 Linux display each multiple SMP CPU processors utilization individually. 10. pmap – Montor process memory usage on Linux pmap command report memory map of a process. Use this command to find out causes of memory bottlenecks. # pmap -d PID To display process memory information for pid # 47394, enter: # pmap -d 47394 Sample Outputs: 47394: /usr/bin/php-cgi Address Kbytes Mode Offset Device Mapping 0000000000400000 2584 r-x-- 0000000000000000 008:00002 php-cgi 0000000000886000 140 rw--- 0000000000286000 008:00002 php-cgi 00000000008a9000 52 rw--- 00000000008a9000 000:00000 [ anon ] 0000000000aa8000 76 rw--- 00000000002a8000 008:00002 php-cgi 000000000f678000 1980 rw--- 000000000f678000 000:00000 [ anon ] 000000314a600000 112 r-x-- 0000000000000000 008:00002 ld-2.5.so 000000314a81b000 4 r---- 000000000001b000 008:00002 ld-2.5.so 000000314a81c000 4 rw--- 000000000001c000 008:00002 ld-2.5.so 000000314aa00000 1328 r-x-- 0000000000000000 008:00002 libc-2.5.so 000000314ab4c000 2048 ----- 000000000014c000 008:00002 libc-2.5.so ..... ...... .. 00002af8d48fd000 4 rw--- 0000000000006000 008:00002 xsl.so 00002af8d490c000 40 r-x-- 0000000000000000 008:00002 libnss_files-2.5.so 00002af8d4916000 2044 ----- 000000000000a000 008:00002 libnss_files-2.5.so 00002af8d4b15000 4 r---- 0000000000009000 008:00002 libnss_files-2.5.so 00002af8d4b16000 4 rw--- 000000000000a000 008:00002 libnss_files-2.5.so 00002af8d4b17000 768000 rw-s- 0000000000000000 000:00009 zero (deleted) 00007fffc95fe000 84 rw--- 00007ffffffea000 000:00000 [ stack ] ffffffffff600000 8192 ----- 0000000000000000 000:00000 [ anon ] mapped: 933712K writeable/private: 4304K shared: 768000K The last line is very important: mapped: 933712K total amount of memory mapped to files writeable/private: 4304K the amount of private address space shared: 768000K the amount of address space this process is sharing with others Linux find the memory used by a program / process using pmap command 11. netstat – Linux network and statistics monitoring tool netstat command displays network connections, routing tables, interface statistics, masquerade connections, and multicast memberships. # netstat -tulpn # netstat -nat 12. ss – Network Statistics ss command use to dump socket statistics. It allows showing information similar to netstat. Please note that the netstat is mostly obsolete. Hence you need to use ss command. To ss all TCP and UDP sockets on Linux: # ss -t -a OR # ss -u -a Show all TCP sockets with process SELinux security contexts: # ss -t -a -Z See the following resources about ss and netstat commands: 13. iptraf – Get real-time network statistics on Linux iptraf command is interactive colorful IP LAN monitor. It is an ncurses-based IP LAN monitor that generates various network statistics including TCP info, UDP counts, ICMP and OSPF information, Ethernet load info, node stats, IP checksum errors, and others. It can provide the following info in easy to read format: Network traffic statistics by TCP connection IP traffic statistics by network interface Network traffic statistics by protocol Network traffic statistics by TCP/UDP port and by packet size Network traffic statistics by Layer2 address Fig.02: General interface statistics: IP traffic statistics by network interfaceFig.03 Network traffic statistics by TCP connectionInstall IPTraf on a Centos / RHEL / Fedora Linux To Get Network Statistics 14. tcpdump – Detailed network traffic analysis tcpdump command is simple command that dump traffic on a network. However, you need good understanding of TCP/IP protocol to utilize this tool. For.e.g to display traffic info about DNS, enter: # tcpdump -i eth1 'udp port 53' View all IPv4 HTTP packets to and from port 80, i.e. print only packets that contain data, not, for example, SYN and FIN packets and ACK-only packets, enter: # tcpdump 'tcp port 80 and (((ip[2:2] - ((ip[0]&0xf)<<2)) - ((tcp[12]&0xf0)>>2)) != 0)' Show all FTP session to 202.54.1.5, enter: # tcpdump -i eth1 'dst 202.54.1.5 and (port 21 or 20' Print all HTTP session to 192.168.1.5: # tcpdump -ni eth0 'dst 192.168.1.5 and tcp and port http' Use wireshark to view detailed information about files, enter: # tcpdump -n -i eth1 -s 0 -w output.txt src or dst port 80 15. iotop – Linux I/O monitor iotop command monitor, I/O usage information, using the Linux kernel. It shows a table of current I/O usage sorted by processes or threads on the server. $ sudo iotop Sample outputs: Linux iotop: Check What’s Stressing And Increasing Load On Your Hard Disks 16. htop – interactive process viewer htop is a free and open source ncurses-based process viewer for Linux. It is much better than top command. Very easy to use. You can select processes for killing or renicing without using their PIDs or leaving htop interface. $ htop Sample outputs: 17. atop – Advanced Linux system & process monitor atop is a very powerful and an interactive monitor to view the load on a Linux system. It displays the most critical hardware resources from a performance point of view. You can quickly see CPU, memory, disk and network performance. It shows which processes are responsible for the indicated load concerning CPU and memory load on a process level. $ atop 18. ac and lastcomm – You must monitor process and login activity on your Linux server. The psacct or acct package contains several utilities for monitoring process activities, including: ac command : Show statistics about users’ connect time lastcomm command : Show info about about previously executed commands accton command : Turns process accounting on or off sa command : Summarizes accounting information How to keep a detailed audit trail of what’s being done on your Linux systems 19. monit – Process supervision Monit is a free and open source software that acts as process supervision. It comes with the ability to restart services which have failed. You can use Systemd, daemontools or any other such tool for the same purpose. This tutorial shows how to install and configure monit as Process supervision on Debian or Ubuntu Linux. 20. nethogs- Find out PIDs that using most bandwidth on Linux NetHogs is a small but handy net top tool. It groups bandwidth by process name such as Firefox, wget and so on. If there is a sudden burst of network traffic, start NetHogs. You will see which PID is causing bandwidth surge. $ sudo nethogs Linux: See Bandwidth Usage Per Process With Nethogs Tool 21. iftop – Show bandwidth usage on an interface by host iftop command listens to network traffic on a given interface name such as eth0. It displays a table of current bandwidth usage by pairs of hosts. $ sudo iftop 22. vnstat – A console-based network traffic monitor vnstat is easy to use console-based network traffic monitor for Linux. It keeps a log of hourly, daily and monthly network traffic for the selected interface(s). $ vnstat 23. nmon – Linux systems administrator, tuner, benchmark tool nmon is a Linux sysadmin’s ultimate tool for the tunning purpose. It can show CPU, memory, network, disks, file systems, NFS, top process resources and partition information from the cli. $ nmon Install and Use nmon Tool To Monitor Linux Systems Performance 24. glances – Keep an eye on Linux system glances is an open source cross-platform monitoring tool. It provides tons of information on the small screen. It can also work in client/server mode. $ glances Linux: Keep An Eye On Your System With Glances Monitor 25. strace – Monitor system calls on Linux Want to trace Linux system calls and signals? Try strace command. This is useful for debugging webserver and other server problems. See how to use to trace the process and see What it is doing. 26. /proc/ file system – Various Linux kernel statistics /proc file system provides detailed information about various hardware devices and other Linux kernel information. See Linux kernel /proc documentations for further details. Common /proc examples: # cat /proc/cpuinfo # cat /proc/meminfo # cat /proc/zoneinfo # cat /proc/mounts 27. Nagios – Linux server/network monitoring Nagios is a popular open source computer system and network monitoring application software. You can easily monitor all your hosts, network equipment and services. It can send alert when things go wrong and again when they get better. FAN is “Fully Automated Nagios”. FAN goals are to provide a Nagios installation including most tools provided by the Nagios Community. FAN provides a CDRom image in the standard ISO format, making it easy to easilly install a Nagios server. Added to this, a wide bunch of tools are including to the distribution, in order to improve the user experience around Nagios. 28. Cacti – Web-based Linux monitoring tool Cacti is a complete network graphing solution designed to harness the power of RRDTool’s data storage and graphing functionality. Cacti provides a fast poller, advanced graph templating, multiple data acquisition methods, and user management features out of the box. All of this is wrapped in an intuitive, easy to use interface that makes sense for LAN-sized installations up to complex networks with hundreds of devices. It can provide data about network, CPU, memory, logged in users, Apache, DNS servers and much more. See how to install and configure Cacti network graphing tool under CentOS / RHEL. 29. KDE System Guard – Real-time Linux systems reporting and graphing KSysguard is a network enabled task and system monitor application for KDE desktop. This tool can be run over ssh session. It provides lots of features such as a client/server architecture that enables monitoring of local and remote hosts. The graphical front end uses so-called sensors to retrieve the information it displays. A sensor can return simple values or more complex information like tables. For each type of information, one or more displays are provided. Displays are organized in worksheets that can be saved and loaded independently from each other. So, KSysguard is not only a simple task manager but also a very powerful tool to control large server farms. Fig.05 KDE System Guard {Image credit: Wikipedia}See the KSysguard handbook for detailed usage. 30. Gnome Linux system monitor The System Monitor application enables you to display basic system information and monitor system processes, usage of system resources, and file systems. You can also use System Monitor to modify the behavior of your system. Although not as powerful as the KDE System Guard, it provides the basic information which may be useful for new users: Displays various basic information about the computer’s hardware and software. Linux Kernel version GNOME version Hardware Installed memory Processors and speeds System Status Currently available disk space Processes Memory and swap space Network usage File Systems Lists all mounted filesystems along with basic information about each. Fig.06 The Gnome System Monitor applicationBonus: Additional Tools A few more tools: nmap – scan your server for open ports. lsof – list open files, network connections and much more. ntop web based tool – ntop is the best tool to see network usage in a way similar to what top command does for processes i.e. it is network traffic monitoring software. You can see network status, protocol wise distribution of traffic for UDP, TCP, DNS, HTTP and other protocols. Conky – Another good monitoring tool for the X Window System. It is highly configurable and is able to monitor many system variables including the status of the CPU, memory, swap space, disk storage, temperatures, processes, network interfaces, battery power, system messages, e-mail inboxes etc. GKrellM – It can be used to monitor the status of CPUs, main memory, hard disks, network interfaces, local and remote mailboxes, and many other things. mtr – mtr combines the functionality of the traceroute and ping programs in a single network diagnostic tool. vtop – graphical terminal activity monitor on Linux gtop – Awesome system monitoring dashboard for Linux/macOS Unix terminal Did I miss something? Please add your favorite system motoring tool in the comments. Posted by: Vivek Gite The author is the creator of nixCraft and a seasoned sysadmin, DevOps engineer, and a trainer for the Linux operating system/Unix shell scripting. Get the latest tutorials on SysAdmin, Linux/Unix and open source topics via RSS/XML feed or weekly email newsletter. Afficher l’article complet
  5. J’en ai parlé il y a quelques mois, conscient de l’échec total de Edge (Et Internet Explorer) le navigateur web disponible sur Windows, Microsoft a annoncé en 2018 repartir de zéro et créer un nouveau navigateur basé sur Chromium, le navigateur open source de Google. Il était jusque là disponible seulement en bêta, on peut désormais profiter de Microsoft Edge Chromium en version Stable. Télécharger Microsoft Edge ChromiumUn déploiement progressif Si vous le souhaitez, vous pouvez le télécharger directement via le site de Microsoft ou bien attendre le déploiement via Windows Update. En effet, la nouvelle version de Microsoft Edge prendra plusieurs mois avant d’être généralisée à l’ensemble des ordinateurs. Ce nouveau navigateur sera déploiement via Windows Update. Qu’est-ce qui change ? Bien évidemment, maintenant Edge ressemble beaucoup à Edge, il est également compatible avec de nombreuses fonctionnalités déjà proposées sur le navigateur de Google comme la synchronisation de vos favoris, mots de passe, mais aussi avec les extensions créées pour Chrome. Avec quelques fonctionnalités inédites comme le support de Netflix en 4K, le Dolby Vision et Dolby Atmos ou encore un nouveau mode appelé « collection » qui permettra d’enregistrer vos images glané sur la toile, Microsoft tente de faire oublier l’ancienne version de Edge et Internet Explorer. Mais est-ce que cela suffira pour faire passer les utilisateurs de Firefox ou Chrome vers Edge ? Honnêtement, je ne crois pas. Cependant, cela permettra aux anciens utilisateurs de Edge et IE de moins souffrir 🙂 Si ça vous chauffe, c’est par ici que ça se passe : Télécharger Microsoft Edge ChromiumAh oui, au passage, à noter que ce nouveau navigateur est disponible sur PC (évidemment), mais sur Mac aussi. Puisque vous êtes encore là... ...Si cet article vous a aidé ou informé, laissez-moi vous demander une petite faveur. Nombreux d'entre vous utilise AdBlock sur tech2tech. Alors n'hésitez pas à désactiver AdBlock sur ce site ou bien à faire un don pour m'aider à couvrir les frais autour du site. Si chacun de ceux qui ont lu et apprécié cet article participe, le futur de tech2tech ne pourra être que meilleur. Merci à vous !. FAIRE UN DON Afficher l’article complet
  6. Dans ce cours je vous propose de balayer les fonctionnalités d’un outil ayant révolutionné la recherche numérique légale (aussi appelée forensic) qu’est Kali Linux. Nous commencerons par un peu d’histoire et de vocabulaire. Puis, nous étudierons les différentes méthodes d’installation en décrivant à quoi elles se rapportent. Nous verrons à cette occasion comment personnaliser la suite et comment préparer son laboratoire de tests d’intrusions. Dans un deuxième temps, nous étudierons les différents types d’attaque possibles et nous verrons comment éprouver son réseau et ses équipements grâce à la suite Kali Linux. Pour finir, nous évoquerons aussi l’aspect non connecté au travers d’exemples concernant les réseaux sans fils, les objets connectés et les équipements disposant de processeur ARM. Contenu du Cours Leçons Etat Afficher l’article complet
  7. Tu peux le faire simplement avec un éditeur de texte, le nom du Favori se trouve en fin de ligne juste avant la balise </A>. Il n'y a pas trop le choix dans les formats d'exportation :
  8. Tu peux exporter les Favoris au format HTML puis les réimporter après MAJ.
  9. Merci à https://mamot.fr/@janusz pour son tutoriel qui a abouti à ce qui est devenu une série de tutoriel ;) Le besoin : avoir plusieurs instances de Nextcloud sur un même serveur géré par Yunohost. Ce billet de blog présentera un bilan de mon expérimentation. Teaser : ça marche. Quelques rappels - nécessitant de connaître un peu comment Yunohost fonctionne Yunohost permet d’installer une application sur un domaine particulier ou sur un sous-domaine. On peut donc ajouter le domaine mondomaine.org dans la partie administration de Yunohost. Et ensuite installer des applications sur un chemin lié à ce domaine. Par exemple Nextcloud sera accessible via l’adresse mondomaine.org/nextcloud. Il est également possible d’ajouter un sous-domaine dans Yunohost. Par exemple demo.mondomaine.org et production.mondomaine.org comme sous domaine de mondomaine.org. Il faut que ces sous-domaines soient bien configurés au niveau de l’entrée DNS sur le serveur / prestataire gérant mondomaine.org (le plus simple étant d’associer mondomaine.org et *.mondomaine.org à l’adresse IP du serveur sur lequel tourne Yunohost). Pour un sous-domaine, il est possible là encore de faire des installations dans des dossiers, pratique si on a une instance multi-utilisateurs pour avoir par exemple des chemins du type : toto.mondomaine.org/nextcloud titi.mondomaine.org/nextcloud On aura donc deux Nextcloud, chacun pour un utilisateur donné (par exemple). Mon instance étant mono-utilisateur, je fais au plus simple : j’installe directement mes applications à la racine du sous-domaine (et il n’est alors plus possible d’installer d’autres applications sur ce sous-domaine, dans un "sous-répertoire". Une même application peut être installée plusieurs fois. Il faut définir l’endroit où on l’installe et donner un nom. Le nom doit être différent pour l’affichage (ne pas être trop proche). Préparation de Yunohost J’ai donc préparé plusieurs entrées dans la configuration DNS pour répondre à mon besoin de plusieurs instances Nextcloud. demonextcloud.mondomaine.org productionnextcloud.mondomaine.org testnexcloud.mondomaine.org Avec pour objectifs : demonextcloud : avoir une instance de démonstration de Nextcloud, un bac à sable avec des données non critiques, et des comptes de démos. productionnextcloud : une instance de production avec des données de travail. testnexcloud : une instance bac à sable mais avec une version supérieure / beta de Nextcloud. Le détail sur la montée en version de la version par défaut, à savoir la version 15 pour l’application Nextcloud tel que packagée pour Yunohost à la version 17), se trouve un peu plus bas. Installation Sur chacun des domaines ajoutés dans Yunohost, j’ai donc installé à la racine de ce sous-domaine l’application Nextcloud telle que packagée dans Yunohost. J’ai donc trois fois une instance Yunohost sur le même serveur. Nous verrons dans les futurs articles les conséquences que cela peut avoir. Gestion des utilisateurs L’avantage est que Nextcloud s’appuie sur le LDAP de Yunohost et que les comptes sont donc communs à toutes les instances de Nextcloud. Pour les applications de démo, si l’on veut ne pas passer par le SSO et se retrouver connecté automatiquement et si l’on ne veut pas créer de comptes bidons dans Yunohost, on créé les utilisateurs de démo directement dans Nextcloud. Et au niveau de Yunohost, il faut rendre l’application publique. Dans ce cas, la gestion de la sécurité se fait directement par Nextcloud (on n’a plus le SSO), il faut donc des mots de passe solides et si possible activer la double authentification pour les comptes (fonctionnalité présente dans Nextcloud). Montée en version Pour la montée en version de l’application Nextcloud installée sur testnexcloud.mondomaine.org, j’ai donc suivi le tutoriel de https://mamot.fr/@janusz que je cite dans son intégralité ci-dessous, avec son accord : # Notes d'installation - Nextcloud avec YunohostNotes de configuration de Nextcloud hébergé par Yunohost. ## Upgrade de Nextcloud (v16 ou v17) La version actuelle de Yunohost (v3.X) fonctionne avec la version de PHP 7.0 qui n'est plus supporté par les dernières versions de Nextcloud (versions 16 ou 17). Il faut donc installer PHP 7.1, 7.2 ou 7.3 en plus de l'actuelle 7.0. L'astuce consiste donc à laisser Yunohost tourner sur sa version (PHP 7.0), mais de configurer Nextcloud pour qu'il travaille en PHP supérieur (ici PHP 7.3). **Attention**, la méthode décrite ci-dessous vous coupe de l'installation automatisée de Nextcloud en passant par Yunohost. <details> <summary>Installation de PHP 7.3</summary> **Configuration de PHP 7.3** ```sh sudo su - wget -q -O /etc/apt/trusted.gpg.d/php.gpg https://packages.sury.org/php/apt.gpg echo "deb https://packages.sury.org/php/ $(lsb_release -sc) main" | sudo tee /etc/apt/sources.list.d/php7.list apt update apt install php-curl php-imagick php7.3 php7.3-apcu php7.3-bcmath php7.3-curl php7.3-fpm php7.3-gd php7.3-intl php7.3-ldap php7.3-mbstring php7.3-mysql php7.3-xml php7.3-zip update-alternatives --set php /usr/bin/php7.0 ``` **Configuration de Nginx** ```sh vim /etc/nginx/conf.d/ncloud.mon-site.org.d/nextcloud.conf ``` #fastcgi_pass unix:/var/run/php/php7.0-fpm-nextcloud.sock; fastcgi_pass unix:/var/run/php/php7.3-fpm-nextcloud.sock; **Configuration de php-fpm** ```sh cp /etc/php/7.0/fpm/pool.d/nextcloud.conf /etc/php/7.3/fpm/pool.d/ rm -rf /etc/php/7.3/fpm/pool.d/www.conf vim /etc/php/7.3/fpm/pool.d/nextcloud.conf ``` listen = /var/run/php/php7.3-fpm-nextcloud.sock Relancez les services ```sh systemctl restart nginx systemctl restart php7.3-fpm ``` </details> <details> <summary>Mettre à jour Nextcloud</summary> Configurez le canal de mise à jour. ```sh vim /var/www/nextcloud/config/config.php ``` 'updatechecker' => true, 'updater.release.channel' => 'stable', Lancez la mise à jour ```sh sudo -u nextcloud php7.3 updater/updater.phar sudo -u nextcloud php7.3 occ upgrade sudo -u nextcloud php7.3 occ maintenance:mode --off ``` Résultat : ![](media/capt-nextcloud_upgrade_v16.png) </details> ## Avertissements de sécurité & configuration de Nextcloud Dans la partie administration, la section "Avertissements de sécurité & configuration" vous permet d'optimiser Nextcloud pour obtenir une configuration optimale. Menu _Paramètres > Administration > Vue d'ensemble_ Voici quelques questions / réponses <details> <summary>La base de données a quelques index manquant.</summary> La base de données a quelques index manquant. L'ajout d'index dans de grandes tables peut prendre un certain temps. Elles ne sont donc pas ajoutées automatiquement. En exécutant "occ db:add-missing-indices", ces index manquants pourront être ajoutés manuellement pendant que l'instance continue de tourner. Une fois les index ajoutés, les requêtes sur ces tables sont généralement beaucoup plus rapides. ``` sudo -u nextcloud php7.3 occ db:add-missing-indices ``` </details> <details> <summary>La limite de mémoire PHP est inférieure à la valeur recommandée de 512 Mo.</summary> ``` vim /etc/php/7.3/fpm/pool.d/nextcloud.conf ``` php_value[upload_max_filesize] = 16G php_value[post_max_size] = 16G php_admin_value[memory_limit] = 512M </details> <details> <summary>Corriger les problèmes d'accès à .well-known/***dav</summary> ``` vim /etc/nginx/conf.d/ncloud.mon-site.org.d/nextcloud.conf ``` Ajoutez vers la fin du fichier : location = /.well-known/carddav { return 301 $scheme://$host:$server_port/remote.php/dav; } location = /.well-known/caldav { return 301 $scheme://$host:$server_port/remote.php/dav; } </details> -- Janusz / 2019-11-10 Conclusion Fin du premier article de cette série Yunohost et plusieurs instances de Nextcloud (1/N). La suite dans quelques jours ;) Afficher l’article complet
  10. Je ne rencontre pas ces problèmes personnellement. As-tu déjà essayé de supprimer le dossier UserData qui contient les données de Mx5 Portable ? Renomme le dossier pour ne pas perdre tes données au cas où tu doivent revenir en arrière. En effet, j'ai souvent résolu des problèmes que j'étais le seul à avoir en suppriment le dossier des données de Maxthon, celui-ci se recréant à partir des données se trouvant sur les serveurs de Maxthon.
  11. A couple of weeks ago, LastPass changed hands, again. Some of my friends ditched it and moved on to BitWarden as a consequence. While I see the advantages of using cloud-based services to store passwords, especially when it comes to comfort, I do find the use of such service to risky. What if their services get hacked or someone finds a bug in the service's extensions or apps that can be exploited? Anyway, I managed to convince a friend to switch over to KeePass. His requirements were quite simple: cross-platform sync, a mobile app and auto-fill on desktop. It's easy, just place the KeePass database in your cloud storage service's folder (for e.g. Dropbox, OneDrive, GoogleDrive, or, if you want full control, a self-hosted solution) and you have cross-platform sync. It's safe because the database is encrypted. My go-to choice for a mobile app is Keepass2Android Password Safe for Android (supports Quick unlock, fingerprint unlock, syncs to your cloud service), and KeePassium or Strongbox for iOS. While auto-type is natively supported in the KeePass desktop application, auto-fill isn't. You'll need to use a browser extension for that. I used to recommend Tusk, but it is no longer maintained. The Kee add-on by Chris Tomlinson does a fine job. Kee was formerly known as KeeFox, and some of you maybe familiar with it. You'll need two things to get it working The Kee extension for Firefox and Chrome. You'll also need the KeePass desktop application to be running in the background. The KeePassRPC plugin (from the same developer) which allows the add-on to communicate with the browser. Install the extension from the Firefox add-on repository or the Chrome web-store. A new button will be added to the toolbar and it is in the "OFF" state after installation. Navigate to the KeePass desktop application's plugins folder (normally C:\KeePass\Plugins) and place the KeePassRPC plugin file named KeePassRPC.plgx inside the directory. Restart KeePass if it was already open, and it should load the plugin. A new tab opens in the browser and you should see a window pop-up (in KeePass) asking you to "authorise a new connection". A code is displayed in the pop-up that you should enter in the box in the browser tab to authenticate the add-on to access the passwords from the desktop client. The welcome screen of the plugin asks you to choose whether you want to create a new database, or use the existing one. Select the latter and login to your database as usual. That's it: you've setup Kee and KeePass to work together. The Kee add-on's button is now usable. Does this work with KeePass portable? It does, that's what I use it with. Kee Features Bad puns aside, let's take a look at what the extension is capable of. Auto-fill is of course the main feature of the extension. If you're on a webpage that has the same URL as an entry in your database, the username and password fields should be automatically filled by the add-on. It works on most websites, but in case it doesn't, left click on the add-on's button and select "matched login entries". You can also use the browser's right-click context menu to do the same. You can use the addon's pop-out menu for searching your database. This is the other option to use if autofill didn't work. You can type the website's name (for e.g. "ghacks") and the extension will list the relevant results to choose from. Click on an entry (after searching) and it will take you to the corresponding URL. If you click on the hamburger menu icon next to an entry, it gives you three options: Edit, Copy Password and Copy Username. The password isn't edited by Kee, it is done in KeePass. Kee can be used to save new entries when you login to websites (or generate a new one), but you'll need to manually click the add-on's button and select "Save login". You can choose to save the information in a new entry or update an existing one. The add-on can also be used for generating secure passwords and you can choose from Hex key 40/128/256 bit, or random MAC address. Once generated, it is saved to the clipboard and you can paste it in a password field, and use the save password option to store the new login. Kee does not send your data to any server. The extension and the plugin are open source. Note: You may come across "Kee Vault" in the add-on's menu, that is a premium password manager made by the same developer. It is completely optional, and hence not required for Kee to function. Closing Words Kee is an open source add-on, and so is the KeePassRPC plugin. You can find them listed on the plugins page on KeePass' official website. KeeForm is a good alternative, but requires installing its desktop application in addition to the extension. Afficher l’article complet
  12. La fin de support sur Windows 7 est imminente, en effet à partir du 14 janvier 2020 il ne sera techniquement plus possible d’obtenir les mises à jour de sécurité. Qu’est-ce que cela veut dire concrètement ? Et bien après cette date, si des failles sont découverte et exploitable, Microsoft ne mettra plus à jour son OS maintenant vieux de plus de 10 ans ! Donc, vous vous exposez a des risques, même si les antivirus continuerons à vous protéger des virus. De nombreuse entreprise n’ont pas eu/pris le temps de passer sur une version plus récente de Windows, Microsoft propose alors un programme appelé ESU pour « Extended security Updates« . Pour les anglophobes, on parle ici d’un programme qui vous permettra de recevoir tout de même les mises à jour. Un mode VIP quoi. Les mises à jour ESU seront disponible jusqu’au 10 janvier 2023. Bien évidemment, ce programme est payant et disponible seulement sur les version Enterprise et Windows 7 Pro. Mais… c’était sans compter des petits malins comme il en existe beaucoup. En effet, malgré le fait que ce soit tout à faire illégale, vous allez pouvoir obtenir ces mises à jour gratuitement. Oui, sans débourser un centime. Vous trouverez la méthode dans la suite de l’article, mais j’en parle aussi dans la vidéo ci-desous : [embedded content] Obtenir les mises à jour de sécurité étendu de Windows 7 gratuitement Abbodi1406 du forum MyDigitalLife a développé un hack nommé « BypassESU » pour contourner l’éligibilité au programme ESU. Ainsi après la mise en place de ce hack, vous serez alors en mesure de recevoir les mises à jour de sécurité étendues alors même que vous n’avez pas souscrit au programme ! C’est moche hein 🙂 Ce hack BypassESU va contourner le système de vérification qui permet de savoir si un appareil peut bénéficier ou non des mises à jour de sécurité étendues. Une fois le pc Patché par le script ByPassESU, l’ordinateur fera croire qu’il est bien autorisé à recevoir les mises à jour de sécurité du programme ESU. Et le plus fou, c’est qu’alors que l’ESU officiel ne permet de recevoir les mises à jour que sur les version professionnel de Windows, ici le patch de abbodi1406 permet de recevoir les mises à jour pour toutes les version de Windows 7 ! (Starter, Édition Familiale Basique, Édition Familiale Premium, Professionnel, Édition Intégrale et Entreprise, en 32 bits et 64 bits, oui oui, toutes !) Comment installer ByPassESU, l’outil qui permet de continuer à recevoir les mises à jour Windows 7 ? Avant de pouvoir utiliser le petit script magique, il y a quelques prérequis, notamment, avoir quelques mises à jour Microsoft sur ton ordinateur. Sans ça, le patch ne fonctionnera pas correctement. Veillez donc à avoir le Service Pack 1 de Windows 7 d’installé, mais aussi les mises à jour suivantes : KB4490628 & KB4474419 (qui nécessite un redémarrage après leur installation Ainsi que la mise à jour KB4531786 Une fois ces mises à jour installés, vous serez alors en mesure d’utiliser ByPassESU qui vous permettra de recevoir vos mises à jours Windows 7 pendant encore 3 ans ! Il est maintenant nécessaire de télécharger BypassESU, cliquez sur le lien ci-dessous : Télécharger BypassESUDécompresser ensuite l’archive BypassESU-V3.zip et effectuer un clic droit sur « installer.bat » puis Exécuter en tant qu’administrateur. Le script prendra le temps de vérifier que votre ordinateur est bien éligible, puis passera le petit patch qui vous permettra de vous rendre compatible aux mises à jours ESU. Voilà ! N’ayez plus peur après le 14 janvier, vous êtres maintenant toujours protéger via les mises à jours de sécurité Windows 7. Evidemment, petit disclaimer quand même, cette solution n’est clairement pas approuvé par Microsoft, elle est aussi dangereuse puisque vous utiliser un script tierce, donc c’est a vos risques et périls. Moi ce que j’en dis, c’est qu’il vaut mieux passer sur Windows 10 que d’utiliser ce script. Vérification de l’égilibilité ESU Vous pouvez vérifier que le patch fonctionne bien en téléchargeant et en installant la mise à jour KB4528069. C’est une mise à jour créé spécifiquement pour ça et pour vérifier votre compatibilité avec le programme de mise à jour ESU. Télécharger la mise à jour KB4528069A l’issue de l’installation de cette mise à jour, vous devriez avoir un message de succès d’installation de la mise à jour. Dans le cas contraire, c’est que le patch n’a pas fonctionné. N’hésitez pas à le relancer en tant qu’admin. Comment désinstaller le hack BypassESU ? Le développeur à pensé à tout, oui il est possible de facilement déinstaller BypassESU si cela vous pose un problème d’éthique 😉 Pour ça, toujours dans le dossier du script BypassESU, effectuer un clic droit sur « remover » puis éxécuter le script de désinstallation en tant qu’admin. Dans tous les cas, quoi que vous fassiez, encore une fois, je vous préconise plutôt l’installation de Windows 10. Puisque vous êtes encore là... ...Si cet article vous a aidé ou informé, laissez-moi vous demander une petite faveur. Nombreux d'entre vous utilise AdBlock sur tech2tech. Alors n'hésitez pas à désactiver AdBlock sur ce site ou bien à faire un don pour m'aider à couvrir les frais autour du site. Si chacun de ceux qui ont lu et apprécié cet article participe, le futur de tech2tech ne pourra être que meilleur. Merci à vous !. FAIRE UN DON Afficher l’article complet
  13. Changements : - Correction du problème d'utilisation du type de police mactype. - Correction du problème de bon fonctionnement du User Agent. - Correction du problème de fermeture automatique de la page de téléchargement dans certaines circonstances. - Correction du problème de basculement en mode développeur mobile sur certains sites Web. - Correction du problème de lecture de certains fichiers audio dans certaines circonstances. - Correction du problème d'affichage de la page d'installation en Ukrainien. - Correction du problème de fonctionnement du QR code dans certaines circonstances. - Correction du problème d'erreur de traduction du texte sélectionné en espagnol. - Correction du problème de fonctionnement de Skype pour le Web.
  14. Mx5 v5.3.8.2100 Bêta pour Windows est sorti aujourd'hui et elle apporte son lot de corrections de bugs. De quoi nous faire patienter en attendant Maxthon version 6... Attention : ceci est une version Bêta, donc à ne pas utiliser en lieu et place de la version stable, mais uniquement à des fins de tests. Téléchargement : http://dl.maxthon.com/mx5/mx5.3.8.2100-beta.exe MD5 : 9da302103287bce12650cc3ccd5850d3 Version Portable : http://dl.maxthon.com/mx5/maxthon_portable_5.3.8.2100-beta.7z MD5 : 66b204c34ea9f9a4858722fa81bfb22 Les changements en anglais sont ici et là en français. Source : http://forum.maxthon.com/index.php?/topic/24518-mx5-pc-beta-release-5382100/
  15. Le fil de discussion http://forum.maxthon.com/index.php?/topic/24517-is-maxthon-alive-or-dead laisse fuiter finalement quelques informations sur l'avenir du développement de Maxthon. Ce n'est pas toutefois très étoffé, en voici le dernier contenu : Voilà voilà, vous savez tout.
  16. Bonne fête à tous les Raymond. PS : Bonne remarque, je vais corriger tout ça et passer à la nouvelle année.
  17. OpenSSH is the implementation of the SSH protocol. OpenSSH is recommended for remote login, making backups, remote file transfer via scp or sftp, and much more. SSH is perfect to keep confidentiality and integrity for data exchanged between two networks and systems. However, the main advantage is server authentication, through the use of public key cryptography. From time to time there are rumors about OpenSSH zero day exploit. This page shows how to secure your OpenSSH server running on a Linux or Unix-like system to improve sshd security. OpenSSH defaults TCP port – 22 OpenSSH server config file – sshd_config (located in /etc/ssh/) OpenSSH client config file – ssh_config (located in /etc/ssh/) 1. Use SSH public key based login OpenSSH server supports various authentication. It is recommended that you use public key based authentication. First, create the key pair using following ssh-keygen command on your local desktop/laptop: DSA and RSA 1024 bit or lower ssh keys are considered weak. Avoid them. RSA keys are chosen over ECDSA keys when backward compatibility is a concern with ssh clients. All ssh keys are either ED25519 or RSA. Do not use any other type. $ ssh-keygen -t key_type -b bits -C "comment" $ ssh-keygen -t ed25519 -C "Login to production cluster at xyz corp" $ ssh-keygen -t rsa -b 4096 -f ~/.ssh/id_rsa_aws_$(date +%Y-%m-%d) -C "AWS key for abc corp clients" Next, install the public key using ssh-copy-id command: $ ssh-copy-id -i /path/to/public-key-file user@host $ ssh-copy-id user@remote-server-ip-or-dns-name $ ssh-copy-id vivek@rhel7-aws-server When promoted supply user password. Verify that ssh key based login working for you: $ ssh vivek@rhel7-aws-server For more info on ssh public key auth see: 2. Disable root user login Before we disable root user login, make sure regular user can log in as root. For example, allow vivek user to login as root using the sudo command. How to add vivek user to sudo group on a Debian/Ubuntu Allow members of group sudo to execute any command. Add user vivek to sudo group: $ sudo adduser vivek sudo Verify group membership with id command $ id vivek How to add vivek user to sudo group on a CentOS/RHEL server Allows people in group wheel to run all commands on a CentOS/RHEL and Fedora Linux server. Use the usermod command to add the user named vivek to the wheel group: $ sudo usermod -aG wheel vivek $ id vivek Test sudo access and disable root login for ssh Test it and make sure user vivek can log in as root or run the command as root: $ sudo -i $ sudo /etc/init.d/sshd status $ sudo systemctl status httpd Once confirmed disable root login by adding the following line to sshd_config: PermitRootLogin no ChallengeResponseAuthentication no PasswordAuthentication no UsePAM no See “How to disable ssh password login on Linux to increase security” for more info. 3. Disable password based login All password-based logins must be disabled. Only public key based logins are allowed. Add the following in your sshd_config file: AuthenticationMethods publickey PubkeyAuthentication yes Older version of SSHD on CentOS 6.x/RHEL 6.x user should use the following setting: PubkeyAuthentication yes 4. Limit Users’ ssh access By default, all systems user can login via SSH using their password or public key. Sometimes you create UNIX / Linux user account for FTP or email purpose. However, those users can log in to the system using ssh. They will have full access to system tools including compilers and scripting languages such as Perl, Python which can open network ports and do many other fancy things. Only allow root, vivek and jerry user to use the system via SSH, add the following to sshd_config: AllowUsers vivek jerry Alternatively, you can allow all users to login via SSH but deny only a few users, with the following line in sshd_config: DenyUsers root saroj anjali foo You can also configure Linux PAM allows or deny login via the sshd server. You can allow list of group name to access or deny access to the ssh. 5. Disable Empty Passwords You need to explicitly disallow remote login from accounts with empty passwords, update sshd_config with the following line: PermitEmptyPasswords no 6. Use strong passwords and passphrase for ssh users/keys It cannot be stressed enough how important it is to use strong user passwords and passphrase for your keys. Brute force attack works because user goes to dictionary based passwords. You can force users to avoid passwords against a dictionary attack and use john the ripper tool to find out existing weak passwords. Here is a sample random password generator (put in your ~/.bashrc): genpasswd() { local l=$1 [ "$l" == "" ] && l=20 tr -dc A-Za-z0-9_ < /dev/urandom | head -c ${l} | xargs } Run it: genpasswd 16 Output: uw8CnDVMwC6vOKgW 7. Firewall SSH TCP port # 22 You need to firewall ssh TCP port # 22 by updating iptables/ufw/firewall-cmd or pf firewall configurations. Usually, OpenSSH server must only accept connections from your LAN or other remote WAN sites only. Netfilter (Iptables) Configuration Update /etc/sysconfig/iptables (Redhat and friends specific file) to accept connection only from 192.168.1.0/24 and 202.54.1.5/29, enter: -A RH-Firewall-1-INPUT -s 192.168.1.0/24 -m state --state NEW -p tcp --dport 22 -j ACCEPT -A RH-Firewall-1-INPUT -s 202.54.1.5/29 -m state --state NEW -p tcp --dport 22 -j ACCEPT If you’ve dual stacked sshd with IPv6, edit /etc/sysconfig/ip6tables (Redhat and friends specific file), enter: -A RH-Firewall-1-INPUT -s ipv6network::/ipv6mask -m tcp -p tcp --dport 22 -j ACCEPT Replace ipv6network::/ipv6mask with actual IPv6 ranges. UFW for Debian/Ubuntu Linux UFW is an acronym for uncomplicated firewall. It is used for managing a Linux firewall and aims to provide an easy to use interface for the user. Use the following command to accept port 22 from 202.54.1.5/29 only: $ sudo ufw allow from 202.54.1.5/29 to any port 22 Read “Linux: 25 Iptables Netfilter Firewall Examples For New SysAdmins” for more info. *BSD PF Firewall Configuration If you are using PF firewall update /etc/pf.conf as follows: pass in on $ext_if inet proto tcp from {192.168.1.0/24, 202.54.1.5/29} to $ssh_server_ip port ssh flags S/SA synproxy state 8. Change SSH Port and limit IP binding By default, SSH listens to all available interfaces and IP address on the system. Limit ssh port binding and change ssh port (many brutes forcing scripts only try to connect to TCP port # 22). To bind to 192.168.1.5 and 202.54.1.5 IPs and port 300, add or correct the following line in sshd_config: Port 300 ListenAddress 192.168.1.5 ListenAddress 202.54.1.5 A better approach to use proactive approaches scripts such as fail2ban or denyhosts when you want to accept connection from dynamic WAN IP address. 9. Use TCP wrappers (optional) TCP Wrapper is a host-based Networking ACL system, used to filter network access to the Internet. OpenSSH does support TCP wrappers. Just update your /etc/hosts.allow file as follows to allow SSH only from 192.168.1.2 and 172.16.23.12 IP address: sshd : 192.168.1.2 172.16.23.12 See this FAQ about setting and using TCP wrappers under Linux / Mac OS X and UNIX like operating systems. 10. Thwart SSH crackers/brute force attacks Brute force is a method of defeating a cryptographic scheme by trying a large number of possibilities (combination of users and passwords) using a single or distributed computer network. To prevents brute force attacks against SSH, use the following software: DenyHosts is a Python based security tool for SSH servers. It is intended to prevent brute force attacks on SSH servers by monitoring invalid login attempts in the authentication log and blocking the originating IP addresses. Explains how to setup DenyHosts under RHEL / Fedora and CentOS Linux. Fail2ban is a similar program that prevents brute force attacks against SSH. sshguard protect hosts from brute force attacks against ssh and other services using pf. security/sshblock block abusive SSH login attempts. IPQ BDB filter May be considered as a fail2ban lite. 11. Rate-limit incoming traffic at TCP port # 22 (optional) Both netfilter and pf provides rate-limit option to perform simple throttling on incoming connections on port # 22. Iptables Example The following example will drop incoming connections which make more than 5 connection attempts upon port 22 within 60 seconds: #!/bin/bash inet_if=eth1 ssh_port=22 $IPT -I INPUT -p tcp --dport ${ssh_port} -i ${inet_if} -m state --state NEW -m recent --set $IPT -I INPUT -p tcp --dport ${ssh_port} -i ${inet_if} -m state --state NEW -m recent --update --seconds 60 --hitcount 5 -j DROP Call above script from your iptables scripts. Another config option: $IPT -A INPUT -i ${inet_if} -p tcp --dport ${ssh_port} -m state --state NEW -m limit --limit 3/min --limit-burst 3 -j ACCEPT $IPT -A INPUT -i ${inet_if} -p tcp --dport ${ssh_port} -m state --state ESTABLISHED -j ACCEPT $IPT -A OUTPUT -o ${inet_if} -p tcp --sport ${ssh_port} -m state --state ESTABLISHED -j ACCEPT # another one line example # $IPT -A INPUT -i ${inet_if} -m state --state NEW,ESTABLISHED,RELATED -p tcp --dport 22 -m limit --limit 5/minute --limit-burst 5-j ACCEPT See iptables man page for more details. *BSD PF Example The following will limits the maximum number of connections per source to 20 and rate limit the number of connections to 15 in a 5 second span. If anyone breaks our rules add them to our abusive_ips table and block them for making any further connections. Finally, flush keyword kills all states created by the matching rule which originate from the host which exceeds these limits. sshd_server_ip="202.54.1.5" table <abusive_ips> persist block in quick from <abusive_ips> pass in on $ext_if proto tcp to $sshd_server_ip port ssh flags S/SA keep state (max-src-conn 20, max-src-conn-rate 15/5, overload <abusive_ips> flush) 12. Use port knocking (optional) Port knocking is a method of externally opening ports on a firewall by generating a connection attempt on a set of prespecified closed ports. Once a correct sequence of connection attempts is received, the firewall rules are dynamically modified to allow the host which sent the connection attempts to connect to the specific port(s). A sample port Knocking example for ssh using iptables: $IPT -N stage1 $IPT -A stage1 -m recent --remove --name knock $IPT -A stage1 -p tcp --dport 3456 -m recent --set --name knock2 $IPT -N stage2 $IPT -A stage2 -m recent --remove --name knock2 $IPT -A stage2 -p tcp --dport 2345 -m recent --set --name heaven $IPT -N door $IPT -A door -m recent --rcheck --seconds 5 --name knock2 -j stage2 $IPT -A door -m recent --rcheck --seconds 5 --name knock -j stage1 $IPT -A door -p tcp --dport 1234 -m recent --set --name knock $IPT -A INPUT -m --state ESTABLISHED,RELATED -j ACCEPT $IPT -A INPUT -p tcp --dport 22 -m recent --rcheck --seconds 5 --name heaven -j ACCEPT $IPT -A INPUT -p tcp --syn -j door For more info see: 13. Configure idle log out timeout interval A user can log in to the server via ssh, and you can set an idle timeout interval to avoid unattended ssh session. Open sshd_config and make sure following values are configured: ClientAliveInterval 300 ClientAliveCountMax 0 You are setting an idle timeout interval in seconds (300 secs == 5 minutes). After this interval has passed, the idle user will be automatically kicked out (read as logged out). See how to automatically log BASH / TCSH / SSH users out after a period of inactivity for more details. 14. Enable a warning banner for ssh users Set a warning banner by updating sshd_config with the following line: Banner /etc/issue Sample /etc/issue file: ---------------------------------------------------------------------------------------------- You are accessing a XYZ Government (XYZG) Information System (IS) that is provided for authorized use only. By using this IS (which includes any device attached to this IS), you consent to the following conditions: + The XYZG routinely intercepts and monitors communications on this IS for purposes including, but not limited to, penetration testing, COMSEC monitoring, network operations and defense, personnel misconduct (PM), law enforcement (LE), and counterintelligence (CI) investigations. + At any time, the XYZG may inspect and seize data stored on this IS. + Communications using, or data stored on, this IS are not private, are subject to routine monitoring, interception, and search, and may be disclosed or used for any XYZG authorized purpose. + This IS includes security measures (e.g., authentication and access controls) to protect XYZG interests--not for your personal benefit or privacy. + Notwithstanding the above, using this IS does not constitute consent to PM, LE or CI investigative searching or monitoring of the content of privileged communications, or work product, related to personal representation or services by attorneys, psychotherapists, or clergy, and their assistants. Such communications and work product are private and confidential. See User Agreement for details. ---------------------------------------------------------------------------------------------- Above is a standard sample, consult your legal team for specific user agreement and legal notice details. 15. Disable .rhosts files (verification) Don’t read the user’s ~/.rhosts and ~/.shosts files. Update sshd_config with the following settings: IgnoreRhosts yes SSH can emulate the behavior of the obsolete rsh command, just disable insecure access via RSH. 16. Disable host-based authentication (verification) To disable host-based authentication, update sshd_config with the following option: HostbasedAuthentication no 17. Patch OpenSSH and operating systems It is recommended that you use tools such as yum, apt-get, freebsd-update and others to keep systems up to date with the latest security patches: 18. Chroot OpenSSH (Lock down users to their home directories) By default users are allowed to browse the server directories such as /etc/, /bin and so on. You can protect ssh, using os based chroot or use special tools such as rssh. With the release of OpenSSH 4.8p1 or 4.9p1, you no longer have to rely on third-party hacks such as rssh or complicated chroot(1) setups to lock users to their home directories. See this blog post about new ChrootDirectory directive to lock down users to their home directories. 19. Disable OpenSSH server on client computer Workstations and laptop can work without OpenSSH server. If you do not provide the remote login and file transfer capabilities of SSH, disable and remove the SSHD server. CentOS / RHEL users can disable and remove openssh-server with the yum command: $ sudo yum erase openssh-server Debian / Ubuntu Linux user can disable and remove the same with the apt command/apt-get command: $ sudo apt-get remove openssh-server You may need to update your iptables script to remove ssh exception rule. Under CentOS / RHEL / Fedora edit the files /etc/sysconfig/iptables and /etc/sysconfig/ip6tables. Once done restart iptables service: # service iptables restart # service ip6tables restart 20. Bonus tips from Mozilla If you are using OpenSSH version 6.7+ or newer try following settings: #################[ WARNING ]######################## # Do not use any setting blindly. Read sshd_config # # man page. You must understand cryptography to # # tweak following settings. Otherwise use defaults # #################################################### # Supported HostKey algorithms by order of preference. HostKey /etc/ssh/ssh_host_ed25519_key HostKey /etc/ssh/ssh_host_rsa_key HostKey /etc/ssh/ssh_host_ecdsa_key # Specifies the available KEX (Key Exchange) algorithms. KexAlgorithms curve25519-sha256@libssh.org,ecdh-sha2-nistp521,ecdh-sha2-nistp384,ecdh-sha2-nistp256,diffie-hellman-group-exchange-sha256 # Specifies the ciphers allowed Ciphers chacha20-poly1305@openssh.com,aes256-gcm@openssh.com,aes128-gcm@openssh.com,aes256-ctr,aes192-ctr,aes128-ctr #Specifies the available MAC (message authentication code) algorithms MACs hmac-sha2-512-etm@openssh.com,hmac-sha2-256-etm@openssh.com,umac-128-etm@openssh.com,hmac-sha2-512,hmac-sha2-256,umac-128@openssh.com # LogLevel VERBOSE logs user's key fingerprint on login. Needed to have a clear audit track of which key was using to log in. LogLevel VERBOSE # Log sftp level file access (read/write/etc.) that would not be easily logged otherwise. Subsystem sftp /usr/lib/ssh/sftp-server -f AUTHPRIV -l INFO You can grab list of cipher and alog supported by your OpenSSH server using the following commands: $ ssh -Q cipher $ ssh -Q cipher-auth $ ssh -Q mac $ ssh -Q kex $ ssh -Q key How do I test sshd_config file and restart/reload my SSH server? To check the validity of the configuration file and sanity of the keys for any errors before restarting sshd, run: $ sudo sshd -t Extended test mode: $ sudo sshd -T Finally restart sshd on a Linux or Unix like systems as per your distro version: $ sudo systemctl start ssh ## Debian/Ubunt Linux## $ sudo systemctl restart sshd.service ## CentOS/RHEL/Fedora Linux## $ doas /etc/rc.d/sshd restart ## OpenBSD## $ sudo service sshd restart ## FreeBSD## Other susggesions Tighter SSH security with 2FA – Multi-Factor authentication can be enabled with OATH Toolkit or DuoSecurity. Use keychain based authentication – keychain is a special bash script designed to make key-based authentication incredibly convenient and flexible. It offers various security benefits over passphrase-free keys See also: If you have a technique or handy software not mentioned here, please share in the comments below to help your fellow readers keep their OpenSSH based server secure. Posted by: Vivek Gite The author is the creator of nixCraft and a seasoned sysadmin, DevOps engineer, and a trainer for the Linux operating system/Unix shell scripting. Get the latest tutorials on SysAdmin, Linux/Unix and open source topics via RSS/XML feed or weekly email newsletter. Afficher l’article complet
  18. Proxmox et Prometheus sont dans un bateau… Si vous avez suivi le précédent article sur Prometheus et Grafana, vous m’avez peut être vu teaser cet article. En effet, j’avais mis une capture d’écran d’un dashboard Grafana avec des métriques provenant de mon cluster Proxmox VE : On fait du LXC à fond ici ! Petit récap’ Pour rappel, dans le tuto précédent, on avait installé le couple Grafana + Prometheus sur une machine virtuelle (ou physique peu importe), et pas dans un container (comme le préconise la plupart des billets de blogs que j’ai pu lire). Maintenant vous comprenez surement mieux pourquoi ;-). Pour alimenter notre Prometheus, on va donc vouloir le donner à manger. Et quoi de mieux dans une infrastructure non containerisée que les métriques de l’hyperviseur ? prometheus-pve-exporter On est plutôt gâté avec Proxmox VE, car les métriques pertinentes sont assez nombreuses et surtout exposées par API. S’il n’existe pas d’exporter officiel, il existe néanmoins des implémentations Open Source réalisées par de gentils contributeurs. La plus utilisée semble être celle de znerol, qui a en plus l’avantage d’être la base utilisée dans un dashboard sur le site de Grafana (on y reviendra). Dans la mesure du possible, j’essaye de rester sur les implémentations les plus couramment utilisées. Sauf exception, ça permet d’éviter d’être le seul à avoir un bug. Je vous ai mis une autre implémentation dans les sources en bas d’article, que je n’ai pas testée. Les sources et la documentation sont disponibles sur Github à l’adresse suivante : https://github.com/znerol/prometheus-pve-exporter Prérequis Dans tous les cas, on va devoir créer un utilisateur dans Proxmox VE, a qui on va autoriser l’accès aux métriques depuis l’API. C’est cet utilisateur qu’utilisera notre exporter pour se connecter à PVE, récupérer les métriques et enfin les exposer au format OpenMetrics. Sur un des serveurs PVE du cluster : créer un groupe ajouter le rôle PVEAuditor au groupe créer un utilisateur lui ajouter le groupe, puis un mot de passe pveum groupadd monitoring -comment 'Monitoring group' pveum aclmod / -group monitoring -role PVEAuditor pveum user add pve_exporter@pve pveum usermod pve_exporter@pve -group monitoring pveum passwd pve_exporter@pve Installation de l’exporter A partir de là, on peut installer l’exporter sur nos serveurs PVE. L’avantage du cet exporter c’est qu’il sait gérer le cluster. Je veux dire par là qu’avec un seul exporter vous allez pouvoir collecter l’ensemble des métriques de l’ensemble de vos machines du cluster (containers, VMs, stockage, hyperviseurs, …). En théorie, il n’est donc nécessaire de l’installer que sur une machine. Pour autant, je vous conseille quand même d’installer un exporter par serveur. Dans les faits, cela vous évitera de perdre toute collecte de données de supervision en cas de panne du seul serveur portant l’exporter. Sur vos serveurs PVE, lancer les commandes suivantes : apt-get install python-pip pip install prometheus-pve-exporter Cette implémentation utilise le gestionnaire de paquet de Python, pip. On va ensuite créer un fichier de configuration qui va contenir les informations de connexion à notre PVE : mkdir -p /usr/share/pve_exporter/ cat > /usr/share/pve_exporter/pve_exporter.yml << EOF default: user: pve_exporter@pve password: myawesomepassword verify_ssl: false EOF Note : remplacer myawesomepassword par un mot de passe vraiment cool. Temporairement, vous pouvez lancer le binaire manuellement pour voir si ça fonctionne correctement : /usr/local/bin/pve_exporter /usr/share/pve_exporter/pve_exporter.yml Si tout s’est bien passé, on va maintenant créer un script de démarrage systemd pour que notre exporter se démarre tout seul avec l’hyperviseur : cat > /etc/systemd/system/pve_exporter.service << EOF [Unit] Description=Proxmox VE Prometheus Exporter After=network.target Wants=network.target [Service] Restart=on-failure WorkingDirectory=/usr/share/pve_exporter ExecStart=/usr/local/bin/pve_exporter /usr/share/pve_exporter/pve_exporter.yml 9221 192.168.1.1 [Install] WantedBy=multi-user.target EOF Note : remplacer 192.168.1.1 par l’adresse IP de votre serveur Proxmox VE (aussi accessible par votre serveur Prometheus) systemctl daemon-reload systemctl enable pve_exporter systemctl start pve_exporter La collecte On a maintenant un endpoint au format OpenMetrics qui peut être collecté par Prometheus. Cool !! Le but du jeu va être maintenant d’informer Prometheus qu’il doit scrapper notre exporter. On va faire ça en ajoutant la configuration suivante à notre serveur Prometheus (puis le redémarrer) : vi /usr/share/prometheus/prometheus.yml [...] scrape_configs: [...] - job_name: 'pve' static_configs: - targets: - 192.168.1.1:9221 # Proxmox VE node with PVE exporter. - 192.168.1.2:9221 # Proxmox VE node with PVE exporter. metrics_path: /pve params: module: [default] systemctl restart prometheus.service Note : remplacer les IPs par les adresses IP de vos exporters sur vos serveurs PVE. Visualiser tout ça Dernière étape avant d’aller prendre un café, afficher tout ça dans un dashboard. Là ça aurait pu être trivial mais j’ai du bidouiller (un tout petit peu). Je l’ai dis au début de l’article, un des avantages de cet exporter, c’est que quelqu’un a pris la peine de faire un dashboard dans Grafana qui affiche déjà tout sans qu’on ait besoin de faire quoique ce soit. On peut donc l’installer juste en copiant l’URL ou l’ID dans notre Grafana 10347 Trivial ! La seule petite difficulté, c’est que ce Dashboard gère mal le clustering. Plus particulièrement, il n’aime pas qu’un meme exporter remonte les données de plusieurs nodes, ce qui est dommage pour un cluster. J’ai donc tweaké le Dashboard en y ajoutant une variable "node", permettant de sélectionner les métriques du node qu’on veut, et modifié les graphiques concernés en ajoutant un id="node/$node" dans la requête PromQL. Vous avez maintenant un Dashboard qui remonte les métriques de vos serveurs, stockages, vms et containers dans Proxmox VE ! A vous l’observabilité ! Afficher l’article complet
  19. Après la version 1 en lua voici la V2 en Dzvents plus simple à mettre en place et avec quelques fonctionnalités supplémentaires Principe : ce script vérifie toutes les dix minutes si la température extérieure passe en dessous de la température des pièces référencées dans le tableau les_températures. il compare chaque température au seuil fixé par la variable seuil_notification (en °). Si une ou plusieurs températures sont supérieures à ce seuil, envoie d’une notification pour chacune d’elle. ce script utilise la fonction de notification universelle --[[ rafraichissementNocturne.lua author/auteur = papoo update/mise à jour = 02/01/2020 creation = 24/06/2017 github https://github.com/papo-o/domoticz_scripts/blob/master/dzVents/scripts/rafraichissementNocturne.lua blog https://pon.fr/ forum https://easydomoticz.com/forum/viewtopic.php?f=17&t=4343&p=76999#p76999 ce script utilise la fonction de notification universelle https://pon.fr/dzvents-fonction-de-notification-universelle/ --]] local scriptName = 'Rafraichissement nocturne' local scriptVersion = '2.0' local seuil_notification = 25 -- seuil température intérieure au delà duquel les notifications seront envoyées local deltaT = 2 -- Delta T entre T° interieure et T° extérieure avant notification local frequency_notifications = 3600 local quiet_hours = "23:00-07:15" local subSystems = "TELEGRAM,PUSHBULLET" --NSS_GOOGLE_CLOUD_MESSAGING, NSS_HTTP, NSS_KODI, NSS_LOGITECH_MEDIASERVER, NSS_NMA,NSS_PROWL, NSS_PUSHALOT, NSS_PUSHBULLET, NSS_PUSHOVER, NSS_PUSHSAFER, NSS_TELEGRAM local temp_ext = 'Temperature exterieure' -- nom de la sonde extérieure local les_temperatures = { 'Chambre Maud', 'Chambre Audrey', 'Temperature Entree', 'Temperature Salon', 'Temperature Parents', 'Temperature Bureau', 'Temperature Cuisine', 'Douche' } -- Liste de vos sondes intérieures séparées par une virgule local subject = "\xE2\x9A\xA0 /!\\ Ouverture des fenetres recommandee /!\\ \xE2\x9A\xA0" return { active = true, on = { timer = {'every 10 minutes'}}, --on = { timer = {'every minute'}}, -- logging = { level = domoticz.LOG_DEBUG, -- -- level = domoticz.LOG_INFO, -- Seulement un niveau peut être actif; commenter les autres -- -- level = domoticz.LOG_ERROR, -- Only one level can be active; comment others -- -- level = domoticz.LOG_MODULE_EXEC_INFO, -- marker = scriptName..' v'..scriptVersion }, execute = function(dz) local round = dz.utils.round --local _ = require('lodash') local function logWrite(str,level) -- Support function for shorthand debug log statements dz.log(tostring(str),level or dz.LOG_DEBUG) end local function split(s, delimiter) if s ~= nil then result = {}; for match in (s..delimiter):gmatch("(.-)"..delimiter) do table.insert(result, match); end else result = {""}; end return result; end local function notificationTable(str) --NSS_GOOGLE_CLOUD_MESSAGING, NSS_HTTP, NSS_KODI, NSS_LOGITECH_MEDIASERVER, NSS_NMA,NSS_PROWL, NSS_PUSHALOT, NSS_PUSHBULLET, NSS_PUSHOVER, NSS_PUSHSAFER, NSS_TELEGRAM if (str) then str = string.gsub (str,"GCM", dz.NSS_GOOGLE_CLOUD_MESSAGING) str = string.gsub (str,"GOOGLE_CLOUD_MESSAGING", dz.NSS_GOOGLE_CLOUD_MESSAGING) str = string.gsub (str,"HTTP", dz.NSS_HTTP) str = string.gsub (str,"LMS", dz.NSS_LOGITECH_MEDIASERVER) str = string.gsub (str,"LOGITECH_MEDIASERVER", dz.NSS_LOGITECH_MEDIASERVER) str = string.gsub (str,"NMA", dz.NSS_NMA) str = string.gsub (str,"PROWL", dz.NSS_PROWL) str = string.gsub (str,"PUSHALOT", dz.NSS_PUSHALOT) str = string.gsub (str,"PUSHOVER", dz.NSS_PUSHOVER) str = string.gsub (str,"PUSHSAFER", dz.NSS_PUSHSAFER) str = string.gsub (str,"PUSHBULLET", dz.NSS_PUSHBULLET) str = string.gsub (str,"TELEGRAM", dz.NSS_TELEGRAM) end return (split(str,',')) end local tempExt = round(dz.devices(temp_ext).temperature,2) logWrite("le device : "..tostring(dz.devices(temp_ext).name).." indique une température de "..tostring(tempExt).."°C") local i = 0 local tempsInt = 0 for _, name in ipairs(les_temperatures) do i = i + 1 local dev = dz.devices(name) if dev.temperature then logWrite("le device : "..tostring(dev.name).." indique une température de "..tostring(round(dev.temperature,2)).."°C") tempsInt = tempsInt + dev.temperature end end logWrite("nombre de sondes intérieures parcourues est de "..tostring(i)) tempsInt = round(tempsInt/i) logWrite("la moyenne ambiante intérieure est de "..tostring(tempsInt).."°C") if (tempsInt + deltaT) > tempExt and seuil_notification < tempExt then logWrite("la moyenne ambiante intérieure moins le deltat T est de "..tostring(tempsInt - deltaT).."°C") dz.helpers.managedNotify(dz, subject, "Ouverture des fenêtres recommandée, la température moyenne ambiante intérieure est supérieure de "..deltaT.."°C à la temperature extérieure" , notificationTable(subSystems), frequency_notifications , quiet_hours) end -- dz.devices(les_temperatures).forEach( -- function(device) -- logWrite("le device : "..tostring(device.name).." a une température de "..tostring(device.temperature)) -- end -- ) -- local temp = dz.devices().filter(function(device) -- return _.includes(les_temperatures, device.name) -- end) -- print_table(temp) end -- execute function } rafraichissementNocturne.lua author/auteur = papoo update/mise à jour = 02/01/2020 creation = 24/06/2017 github https://github.com/papo-o/domoticz_scripts/blob/master/dzVents/scripts/rafraichissementNocturne.lua blog https://pon.fr/ forum https://easydomoticz.com/forum/viewtopic.php?f=17&t=4343&p=76999#p76999 ce script utilise la fonction de notification universelle https://pon.fr/dzvents-fonction-de-notification-universelle/ local scriptName = 'Rafraichissement nocturne' local scriptVersion = '2.0' local seuil_notification = 25 -- seuil température intérieure au delà duquel les notifications seront envoyées local deltaT = 2 -- Delta T entre T° interieure et T° extérieure avant notification local frequency_notifications = 3600 local quiet_hours = "23:00-07:15" local subSystems = "TELEGRAM,PUSHBULLET" --NSS_GOOGLE_CLOUD_MESSAGING, NSS_HTTP, NSS_KODI, NSS_LOGITECH_MEDIASERVER, NSS_NMA,NSS_PROWL, NSS_PUSHALOT, NSS_PUSHBULLET, NSS_PUSHOVER, NSS_PUSHSAFER, NSS_TELEGRAM local temp_ext = 'Temperature exterieure' -- nom de la sonde extérieure local les_temperatures = { 'Chambre Maud', 'Chambre Audrey', 'Temperature Entree', 'Temperature Salon', 'Temperature Parents', 'Temperature Bureau', 'Temperature Cuisine', } -- Liste de vos sondes intérieures séparées par une virgule local subject = "\xE2\x9A\xA0 /!\\ Ouverture des fenetres recommandee /!\\ \xE2\x9A\xA0" active = true, on = { timer = {'every 10 minutes'}}, --on = { timer = {'every minute'}}, -- logging = { level = domoticz.LOG_DEBUG, -- -- level = domoticz.LOG_INFO, -- Seulement un niveau peut être actif; commenter les autres -- -- level = domoticz.LOG_ERROR, -- Only one level can be active; comment others -- -- level = domoticz.LOG_MODULE_EXEC_INFO, -- marker = scriptName..' v'..scriptVersion }, execute = function(dz) local round = dz.utils.round --local _ = require('lodash') local function logWrite(str,level) -- Support function for shorthand debug log statements dz.log(tostring(str),level or dz.LOG_DEBUG) local function split(s, delimiter) if s ~= nil then result = {}; for match in (s..delimiter):gmatch("(.-)"..delimiter) do table.insert(result, match); result = {""}; return result; local function notificationTable(str) --NSS_GOOGLE_CLOUD_MESSAGING, NSS_HTTP, NSS_KODI, NSS_LOGITECH_MEDIASERVER, NSS_NMA,NSS_PROWL, NSS_PUSHALOT, NSS_PUSHBULLET, NSS_PUSHOVER, NSS_PUSHSAFER, NSS_TELEGRAM if (str) then str = string.gsub (str,"GCM", dz.NSS_GOOGLE_CLOUD_MESSAGING) str = string.gsub (str,"GOOGLE_CLOUD_MESSAGING", dz.NSS_GOOGLE_CLOUD_MESSAGING) str = string.gsub (str,"HTTP", dz.NSS_HTTP) str = string.gsub (str,"LMS", dz.NSS_LOGITECH_MEDIASERVER) str = string.gsub (str,"LOGITECH_MEDIASERVER", dz.NSS_LOGITECH_MEDIASERVER) str = string.gsub (str,"NMA", dz.NSS_NMA) str = string.gsub (str,"PROWL", dz.NSS_PROWL) str = string.gsub (str,"PUSHALOT", dz.NSS_PUSHALOT) str = string.gsub (str,"PUSHOVER", dz.NSS_PUSHOVER) str = string.gsub (str,"PUSHSAFER", dz.NSS_PUSHSAFER) str = string.gsub (str,"PUSHBULLET", dz.NSS_PUSHBULLET) str = string.gsub (str,"TELEGRAM", dz.NSS_TELEGRAM) return (split(str,',')) local tempExt = round(dz.devices(temp_ext).temperature,2) logWrite("le device : "..tostring(dz.devices(temp_ext).name).." indique une température de "..tostring(tempExt).."°C") local i = 0 local tempsInt = 0 for _, name in ipairs(les_temperatures) do local dev = dz.devices(name) if dev.temperature then logWrite("le device : "..tostring(dev.name).." indique une température de "..tostring(round(dev.temperature,2)).."°C") tempsInt = tempsInt + dev.temperature end logWrite("nombre de sondes intérieures parcourues est de "..tostring(i)) tempsInt = round(tempsInt/i) logWrite("la moyenne ambiante intérieure est de "..tostring(tempsInt).."°C") if (tempsInt + deltaT) > tempExt and seuil_notification < tempExt then logWrite("la moyenne ambiante intérieure moins le deltat T est de "..tostring(tempsInt - deltaT).."°C") dz.helpers.managedNotify(dz, subject, "Ouverture des fenêtres recommandée, la température moyenne ambiante intérieure est supérieure de "..deltaT.."°C à la temperature extérieure" , notificationTable(subSystems), frequency_notifications , quiet_hours) -- dz.devices(les_temperatures).forEach( -- function(device) -- logWrite("le device : "..tostring(device.name).." a une température de "..tostring(device.temperature)) -- local temp = dz.devices().filter(function(device) -- return _.includes(les_temperatures, device.name) -- print_table(temp) end -- execute function Suivez les dernières mises à jour de ce script Site Officiel : sur GithubAfficher l’article complet
  20. Il est possible depuis un PC sous Windows 10 d'accéder aux fichiers disponibles sur le disque dur de la Freebox. C'est ce que l'on appelle la fonction NAS de la Freebox et c'est extrêmement pratique pour récupérer les photos sauvegardées de son iPhone ou bien les fichiers téléchargés par la Freebox. Cela se fait très simplement, en tapant "\\FREEBOX_SERVER" depuis votre explorateur. La Freebox Revolution (et à priori Delta à en croire ce ticket) utilise la version 1.0 protocole de partage de fichier SMB qui est aujourd'hui considéré comme obsolète et non sécurisé face à des malwares comme Wannacry par exemple. Depuis la version 1709 de Windows 10, le support de ce protocole n'est pas proposé par défaut. Une action manuelle depuis Windows 10 est donc nécessaire pour permettre à Windows 10 d'accéder aux fichiers de la Freebox via le protocole SMB 1.0. Tapez "Activer ou désactiver des fonctionnalités Windows" dans votre barre de recherche près du menu démarrer. Sélectionner l'option : "Client SMB 1.0 / CIFS" : Redémarrez votre PC, et vérifiez que vous avez correctement accès aux fichiers de votre Freebox depuis votre Explorateur Windows ! Tout devrait fonctionner normalement, si vous rencontrez des problèmes réessayez avec l'adresse IP de la freebox "\\IP-FREEBOX" Un ticket a été ouvert auprès des équipes Freebox pour qu'une mise à jour du protocole SMB soit faite sur les Freebox... Mais le ticket reste aujourd'hui sans réponses. En espérant qu'une mise à jour soit faite par l'équipe Freebox ! Lire plus d'articles de cet auteur Ludovic Toinel Passionné par le Web, le développement, la photo, les drones, la domotique et les nouvelles technologies, Geeek est un blog personnel qui est alimenté en fonction de mes envies et découvertes. Afficher l’article complet
  21. Je viens de faire la MAJ de maintenance d'IP.Board en version 4.4.9.2, qui apporte son lot de corrections de bugs. Si vous constatez des dysfonctionnements, de les signaler à la suite de ce message. Source : https://invisioncommunity.com/release-notes/
  22. MarsCat est le 1er chat bionic, c'est un projet sur Kickstarter qui vous permet d'en acquérir un en primeur pour 50% du prix (soit 649 $). Source : https://www.tomsguide.fr/voici-premier-chat-bionique-au-monde-il-sappelle-marscat/
  23. Qu’est-ce que c’est ? Apache Guacamole est une passerelle pour la prise en main à distance sans client. Il prend en charge les protocoles standard tels que VNC, RDP et SSH. C’est un outil clientless car aucun plug-in ou logiciel client n’est requis sur le serveur ou le PC. Grâce à HTML5, une fois que Guacamole est installé sur un serveur, tout ce dont vous avez besoin pour accéder à vos ordinateurs de bureau est un navigateur Web. Installation de Guacamole Pour installer Guacamole, nous allons utiliser docker, vous aurez donc besoin d’une VM (ou d’un VPS) avec un système d’exploitation pouvant faire tourner Docker (Debian, CentOS, Windows, MacOS, etc…). Je vous ai préparé un petit script permettant de déployer rapidement et simplement Guacamole. Pour cela, suivez les consignes suivantes : Mettez à jour votre Debian : apt update && apt upgrade Installez Git : apt install -y git Récupérez mon Git de scripts : git clone https://github.com/PAPAMICA/scripts Exécutez le script : cd scripts chmod +x debian_install_guacamole.sh ./debian_install_guacamole.sh Votre Guacamole est désormais installé et accessible depuis http://IP_DU_SERVEUR:8080. Créer le super-admin Connectez-vous sur votre Guacamole avec l’identifiant « guacadmin » et le mot de passe « guacadmin » Rendez-vous directement dans la catégorie « Utilisateurs » pour vous créer un compte super-administrateur : Une fois votre compte créé, reconnectez vous avec et supprimez le compte guacadmin. Créer une connexion RDP Dans un premier temps, activez l’option bureau à distance sur votre Windows cible. Si vous êtes en réseau local, le port par défaut est le 3389, si vous vous connectez à distance à cette machine, pensez à changer le port par défaut et à faire la règle de redirection du port sur votre routeur. Configuration de la connexion dans Guacamole Pour configurer une connexion RDP, rendez-vous dans la catégorie « Connexions » : Rentrez les informations suivantes en les adaptant à votre configuration : (voir screenshot) Nommez la connexion. Choisissez « RDP ». Rentrez l’ip et le port de la machine cible. Sélectionnez le clavier FR et activez la console administrateur. Configurez les redirections de périphériques. Activez ou désactivez les options de performance en fonction de votre connexion. Enregistrez cette nouvelle connexion. Utilisation de cette connexion RDP Pour vous connecter à votre machine via Guacamole, c’est très simple : Vous voilà connecté à votre machine à travers votre navigateur ! En utilisant le raccourci Ctrl+Alt+Maj, vous faites apparaître le menu de Guacamole vous permettant de gérer le presse papier ainsi que le transfert de fichiers : Configurer une connexion SSH Avec Apache Guacamole, vous pouvez aussi prendre la main sur un serveur avec un accès SSH, de la même façon, rendez-vous dans la catégorie « Connexions » : Rentrez les informations suivantes en les adaptant à votre configuration : (voir screenshot) Nommez la connexion. Choisissez « SSH ». Rentrez l’ip et le port de la machine cible. Rentrez vos informations de connexions. Configurez le keepalive. Activez le SFTP. Enregistrez cette nouvelle connexion. Pour utiliser cette connexion, il vous suffit de la lancer et vous vous retrouverez avec le terminal de votre serveur dans votre navigateur ! Et voilà pour ce « rapide » tour de ce bel outil, n’hésitez pas à nous dire ce que vous en pensez en commentaires 🙂 Puisque vous êtes encore là... ...Si cet article vous a aidé ou informé, laissez-moi vous demander une petite faveur. Nombreux d'entre vous utilise AdBlock sur tech2tech. Alors n'hésitez pas à désactiver AdBlock sur ce site ou bien à faire un don pour m'aider à couvrir les frais autour du site. Si chacun de ceux qui ont lu et apprécié cet article participe, le futur de tech2tech ne pourra être que meilleur. Merci à vous !. FAIRE UN DON Afficher l’article complet
  24. Si vous avez 15 mns devant vous, c'était hier soir au Brésil.
  25. Vous vous êtes sans doute rendu compte qu'un nouveau forum qui se nomme Mon Wallabag était apparu entre les fêtes de fin d'année et vous vous êtes peut être demandé pourquoi et ce que c'était. Ce forum est alimenté en automatique par un logiciel qui se nomme Wallabag, que j'ai installé sur un de mes autres serveurs virtuels et qui me permet de conserver tous les articles qui m'intéressent pour pouvoir les consulter quand je le souhaite. Ces articles traitent de Linux, de la domotique, des logiciels libres, du Raspberry Pi, ... Si un article vous a intéressé, merci de le noté en cliquant sur les étioles en haut à gauche de chaque article. Vous pouvez également répondre à l'article, mais la réponse est modérée, elle doit être validée pour s'afficher, pour l'instant.
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.