Petit mémo / pense-bête à l'usage de ceux qui ont envie/besoin d'administrer et d'effectuer quelques opérations courantes sur leur serveur mysql. Ceci est une "compilation" d'expériences personnelles et de liens/astuces trouvés sur le web. Avec tout ça vous allez pouvoir backuper / restaurer comme un chef en ligne de commande.

Pour supprimer d'un coup tous les processus d'un utilisateur

pkill -u <user>

 un peu plus d'info ci-dessous

Usage:
 pkill [options] <pattern>

Options:
 -<sig>, --signal <sig>    signal to send (either number or name)
 -e, --echo                display what is killed
 -f, --full                use full process name to match
 -g, --pgroup <id,...>     match listed process group IDs
 -G, --group <gid,...>     match real group IDs
 -n, --newest              select most recently started
 -o, --oldest              select least recently started
 -P, --parent <ppid,...>   match only childs of given parent
 -s, --session <sid,...>   match session IDs
 -t, --terminal <tty,...>  match by controlling terminal
 -u, --euid <id,...>       match by effective IDs
 -U, --uid <id,...>        match by real IDs
 -x, --exact               match exectly with command name
 -F, --pidfile <file>      read PIDs from file
 -L, --logpidfile          fail if PID file is not locked

 -h, --help     display this help and exit
 -V, --version  output version information and exit

 

Pas mal de débats sur ce petit fichier... robots.txt. Est-il réellement utile ? comment le remplir ?

A quoi ça sert ?

Il s'agit d'un protocole d'exclusion des robots. En clair un fichier que tout robot, bien intentionné doit lire et respecter. Il permet de déclarer un répertoire, un fichier, et de manière générale n'importe quelle ressource, de façon à ne pas être indexé par un ou des moteurs de recherches.

Sous-catégories

Recherche & Partage

Uni-Deal.com

En savoir plus sur notre société de services en logiciels ou nous demander des prestations / codes visitez uni-deal