Petit mémo / pense-bête à l'usage de ceux qui ont envie/besoin d'administrer et d'effectuer quelques opérations courantes sur leur serveur mysql. Ceci est une "compilation" d'expériences personnelles et de liens/astuces trouvés sur le web. Avec tout ça vous allez pouvoir backuper / restaurer comme un chef en ligne de commande.
Lire la suite : Mysql : Opérations courantes & commandes utiles
Pour supprimer d'un coup tous les processus d'un utilisateur
pkill -u <user>
un peu plus d'info ci-dessous
Usage: pkill [options] <pattern> Options: -<sig>, --signal <sig> signal to send (either number or name) -e, --echo display what is killed -f, --full use full process name to match -g, --pgroup <id,...> match listed process group IDs -G, --group <gid,...> match real group IDs -n, --newest select most recently started -o, --oldest select least recently started -P, --parent <ppid,...> match only childs of given parent -s, --session <sid,...> match session IDs -t, --terminal <tty,...> match by controlling terminal -u, --euid <id,...> match by effective IDs -U, --uid <id,...> match by real IDs -x, --exact match exectly with command name -F, --pidfile <file> read PIDs from file -L, --logpidfile fail if PID file is not locked -h, --help display this help and exit -V, --version output version information and exit
Pas mal de débats sur ce petit fichier... robots.txt. Est-il réellement utile ? comment le remplir ?
Il s'agit d'un protocole d'exclusion des robots. En clair un fichier que tout robot, bien intentionné doit lire et respecter. Il permet de déclarer un répertoire, un fichier, et de manière générale n'importe quelle ressource, de façon à ne pas être indexé par un ou des moteurs de recherches.
Lire la suite : Tout ce que vous avez toujours voulu savoir sur le robots.txt
© 2022 UniDeal
© 2022 UniDeal