martes, 29 de noviembre de 2011

Directivas de Proxy Passing en Apache - Reverse Proxy

Podemos configurar un servidor como proxy inverso con Apache y sus modulos  proxy y proxy_http. Si lo has compilado asegurate de tener soporte PROXY, si no es asi añade el FLAG al lanzar el configure. Por ejemplo:
./configure --enable-so --enable-mods-shared="proxy cache ssl all"

 Tenemos activar los modulos, la manera más sencilla es usando a2enmod
~#a2enmod proxy
~#a2enmod proxy_http

Ahora simplemente es añadir un fichero en "/etc/apache2/sites-available/" con el nombre del dominio que queremos "proxypassear"

<VirtualHost *:80>
     ServerAdmin admin@admin.com
     ServerName nuevo.dominio.com
     ServerAlias www.nuevo.dominio.com

     ProxyPass / http://192.168.1.3:80/

     # Uncomment the line below if your site uses SSL.
     #SSLProxyEngine On
</VirtualHost> 
 
Y activamos el nuevo proxypass:

~#a2ensite nuevo.dominio.com
~#/etc/init.d/apache2 reload


domingo, 20 de noviembre de 2011

Linux - Los procesos del Kernel parte I

Cuando ejecutamos `ps aux` y vemos los procesos de un kernel 3.0, ¿sabemos realmente que hacen cada uno? Lo más normal es que NO. Así que voy hacer un repaso para saber un poco más sobre ellos, como hay unos cuantos, iré publicando unos cuantos cada día. Empecemos por: kthreadd, ksoftirqd y kworker.

  • [kthreadd] es la función principal (y bucle principal) del demonio kthreadd, el padre de todos los hilos del núcleo.  
root         2  0.0  0.0      0     0 ?        S    19:04   0:00 [kthreadd] 
  • [ksoftirqd] es un hilo para cada CPU o núcleo. Controla las interrupciones "suaves" (Interrupciones servidas o retornadas por interrupciones fuertes). Si ksoftirqd consume más de una mínima cantidad de CPU, significa que tenemos problemas con algún dispositivo hardware. Podemos ver las interrupciones en: /proc/interrupts
root         3  0.0  0.0      0     0 ?        S    19:04   0:00 [ksoftirqd/0]
  •  [kworker] es el hilo que controla las interrupciones ACPI de la BIOS. Normalmente podemos ver que tenemos diversos hilos. Gracias a estos hilos, con un Kernel bien soportado por nuestro hardware, nos van a permitir consumir mucha menos batería. Una buena utilidad para ver que proceso nos "gasta" más batería tenemos powertop.
root         4  0.0  0.0      0     0 ?        S    19:04   0:00 [kworker/0:0]
Esto es todo por hoy, espero poder documentarme más sobre más hilos del Kernel y ir subiendo un resumen de cada uno.
Saludos!

martes, 15 de noviembre de 2011

2011-11-11 SOAs

Este viernes podría haber quedado en algún servidor DNS una entrada como esta ;)

Zfs.local:dns.fs.local.:root.dns.fs.local.:2011111111:28800:7200:604800:86400:86400


jueves, 10 de noviembre de 2011

Citrix XenServer Snapshots y Backups 0% on disk

Hola!! Este problema, que ya solucionamos en el blog de la virtualización y del cloud computing por José María Gonzalez, voy a comentarlo un poco más, ya que para muchos ha sido un dolor de cabeza.

El problema reside en el momento en el que hacemos un snapshot y luego lo transformamos a una máquina virtual, la exportamos y borramos dicha máquina virtual:

xe template-param-set is-a-template=false ha-always-run=false uuid=$snapshotUUID
xe vm-export vm=$snapshotUUID filename=$exportstring
xe vm-uninstall uuid=$snapshotUUID force=true

Este vm-uninstall según en que máquina virtual, la asociación del VDI con el VBD se elimina pero el VDI sigue en el SR.

Si listamos los VBD de una maquina virtual con este problema veremos:

[root@xensrv01 ~]# xe vbd-list vm-name-label=vmtest04
uuid ( RO)             : 2d1eed3f-27e4-1cca-830c-dbeb538f2c67
          vm-uuid ( RO): 6242434e-fbc2-a318-9cdc-9259204d81fe
    vm-name-label ( RO): vmtest04
         vdi-uuid ( RO): 528e5cb6-3605-464c-9e87-fcce1bae74f1
            empty ( RO): false
           device ( RO): xvda

Si listamos los VDIs con el nombre de la maquina virtual (los pongo así cada vez que creo un disco). Veremos que hay muchos más de los que están asociados con los VBD. Muchos son justamente son los VDIs de 0% on disk.

Buscamos el vbd de nuestra máquina virtual.
xe vbd-list vm-name-label=vmachine04 type=Disk

Al final la solución es muy sencilla. Consiste en añadir el siguiente parámetro al vbd de nuestra máquina virtual problemática: 
xe vbd-param-set uuid=UUID_VBD other-config:owner

A partir de este punto ya no tendremos más VDIs huérfanos por el sistema.
Saludos!!



viernes, 4 de noviembre de 2011

Citrix XenServer + FreeNas iscsi múltiples clientes target


¡Que lastima! Dicho por los creadores de FreeNAS, las conexiones de múltiples a un mismo target iSCSI no se pueden realizar por protocolo iSCSI, solamente esta soportado en estos casos usar CIFS o NFS. 

Así que para montar un entorno de Citrix XenServer con varios nodos, hay que usarlo como NFS VHD, que tampoco esta mal, ya que así los VDIs son sparse de modo que el espacio se va asignando según el crecimiento del disco de la máquina virtual.