Other posts related to linux

Cultura devops en REA

5/8/2012 11:41 am

Como muchos sabéis ya, hace algo más de 4 meses que inicié mi aventura en tierras Australianas y comencé a trabajar para REA, grupo que se dedica a la gestión de publicidad online para el mercado inmobiliario, principalmente en Australia, pero con presencia internacional en Italia, Luxemburgo, HongKong, etc…

Deajando aparte el factor aventura, y las ganas de conocer esta parte del mundo, cuando me ofrecieron este trabajo se unieron la oportunidad de trabajar en una compañía que maneja algunos de los portales con más tráfico de Australia con mi interás por dedicarme a las operaciones web a gran escala. Uno de los elementos que más me atrajo fue la cultura de la compañía, que por lo que pude adivinar en las entrevistas, y he verificado postriormente, destaca por una implantación muy alta de metodologías ágiles, equipos de alto rendimiento y gran nivel técnico, mentalidad hacker, mimo por los empleados y una cultura devops muy evolucionada.

Un ejemplo del arraigo de la cultura devops en la empresa es que los dos grupos que celebran reuiones en la zona sobre el tema: “Melbourne devops” e “Infrastructure coders” están siempre sobre poblados de gente de REA, ya sea en el público, como colaboradores o como organizadores. Fuera de Australia, cuando uno de mis compañeros recientemente asistió a Velocity y Devopsdays en Estados Unidos recibió comentarios de admiración sobre el grado de implantación de la cultura devops en la compañía.

Pero después de tanto rollo, ¿cómo es la cultura devops en REA? Podría decirse que en una compañía como esta, en la que los conceptos de agilismo y lean están tan marcados en todos sus estratos, la búsqueda de la eficacia y las mejores prácticas es una evolución constante. Si aplicamos estos elementos al concepto de cómo operamos nuestros servicios nos damos cuenta de que se trata de un viaje que implica un cambio constante. Podemos marcar el comienzo de este viaje hace ya algún tiempo, cuando las operaciones eran ejecutadas de forma centralizada por el equipo de Operaciones Web (dentro del área de IT). Los ya consabidos problemas consecuencia de la separación de Operaciones y Desarrollo, sumados a la desalineación de ambos con los intereses del área de negocio, llevaban a un funcionamiento ineficiente. Operaciones estaba descontento porque no podía solucionar los problemas endémicos, ya que no estaba presente en el proceso de creación y/o mejora de los productos. El equipo de Desarrollo por su parte veía en Operaciones un elemento bloqueante, que no le permitía alcanzar la velocidad demandada por el entorno del negocio, en aras de mantener la estabilidad del entorno. Y todo acaba con las consabidas peleas de perros y gatos, tan ilustradas en cualquier presentación sobre devops.

Los primeros refinamientos del proceso se basaron en empezar a “infiltrar” miembros del equipo de Operaciones en los distintos equipos de Desarrollo, para intentar mejorar la comunicación, y para conseguir que el elemento de operaciones estuviera presente en el día a día del desarrollo y mejora de los servicios. Al parecer el comienzo no fue muy fácil ni agradable y en algunos casos los equipos rechazaban al nuevo miembro, como cuando un cuerpo rechaza un transplante, y también había choques culturales, siendo los “infiltrados” los que no se sentían cómodos en este nuevo ambiente. Su trabajo consistía casi únicamente en realizar pasos a producción de forma manual una y otra vez. Por aquel entonces, había un segundo equipo denominado SPA (Site performance and availability) que se encarga del soporte global de las operaciones, es decir del cuidado de las infraestructuras y gestión de incidencias relacionadas con producción.

Transcurrido algún tiempo comenzaron a hacerse evidentes las ventajas del modelo, gracias al éxito de los equipos que lo habían implementado. Esto dió paso a prácticas que mejoraron el proceso de despliegue y gestión de los servicios mediante la automatización de los mismos y al comienzo de la adopción de un modelo PaaS (Plataforma cómo servicio) cuyo objetivo era la estandarización de los entornos y la simplificación en las operación de los mismos.

Los siguientes pasos en este proceso son la incorporación de la obre la gestión de las operaciones en estos equipos que ahora serán responsables del servicio de forma global incluyendo la creación, mejora y operación del mismo. Este proceso incluye la gestión y resolución de incidencias, ahora los miembros de SPA se han enbebido completamente en los equipos, y el siguiente paso es conseguir que la responsabilidad de solucionar los problemas recaiga en todo el equipo: desarrolladores, calidad, operaciones e incluso los productores y responsables de negocio que poco a poco se han ido incorporando al equipo en su día a día, formando algo parecido a mini startups dentro de la empresa. Por lo que ahora todo el equipo se sienta en la misma zona de la oficina, atiende a las reuniones diarias (standups) y participa en el trabajo cómo uno más. Se acabó esto no lo podemos resolver esto porque X o G no colaboran. Los problemas se priorizan dentro del equipo y se decide que demandas se deben atajar primero y el diseño de nuevas funcionalidades siempre cuenta con la idea de cómo vamos a operar el servicio cuando este esté en producción.

Respecto a la tecnología usada dentro de los equpos relacionada con devops podríamos describirlo cómo que cada equipo tiene libertad para utilizar los elementos que le sean más productivos para conseguir sus objetivos, es la ventaja de tener el control y la responsabilidad de extremo a extremo de los elementos, y en muchos casos esta apoyada en la estandarización que provee el uso de una plataforma común, de la que ya hablaré en un articulo posterior. Por tanto nos encontramos elementos muy distintos cómo puppet o chef para la gestión de configuración, el uso de rpms para la distribución de nuestras aplicaciones, nagios, newrelic, gomez y graphite para monitorización y métricas entre otros muchos.

La implantación de la cultura devops en una compañía no puede medirse cómo blanco o negro, más bien se trata de un gris que va cambiando de tono ya que está en constante evolución persiguiendo el fin último de mejorar la forma en que ofrecemos nuestros servicios y aumentamos el valor para nuestros clientes, así que os mantendré informador de futuras mejoras y la implantación de los planes actuales.

En el openstack EMEA day

16/7/2011 1:35 pm

Son las 6:30 de la mañana y el despertador ya está sonando, por la ventana hace ya tiempo que empezó a entrar la luz del sol y el OpenStack EMEA day me está esperando en Londres. Antes aún me quedaba pedalear hasta la estación de tren de Cambrdige, dejar mi bici apelotonada junto a la de otros cientos de commuters que para su desgracia hacen esto a diario, tomar el tren hasta King Cross y luego el metro hasta London Bridge. Luego descubrí que mi trayecto que parecía cansado no era nada en comparación con otra gente que vino de España en avión o incluso en tren de París, pero a mí me había confirmado la idea que ya me iba haciendo que Londres no está tan cerca de Cambridge cómo lo estaba Madrid de Getafe 😀 .

La ubicación del evento, aka la “venue” para los angloparlanchines, era bastante chula y la sala estaba abarrotada cuando llegué, tarde a pesar de mi madrugón. Me perdí la primera charla introductoria, pero no me dolió mucho porque había estado en alguna anteriormente dónde se había visto lo básico de la tecnología.

A modo de introducción y para los que no lo conozcáis openstack, se trata de un proyecto que persigue la creación de una implementación libre y altamente escalable de “la nube”, principalmente en los temas relacionados con las infraestructuras cómo servicio (IaaS). El proyecto fue iniciado por RackSpace y la NASA pero últimamente está teniendo una gran aceptación y un gran número de empresas cómo Citrix o Ubuntu están participando activamente en el proyecto. OpenStack se divide en varios subproyectos que intentan abarcar los diferentes elementos necesarios para la construcción de estas nubes cómo son la provisión de máquinas virtuales, de almacenamiento o el servicio de imágenes junto entre muchos otros una consola de gestión web. Uno de los puntos fuertes de openstack es su API, o sus APIs ya que tb tiene una versión compatible con Amazon, que nos van a permitir relacionarnos de forma altamente flexible con nuestra nube.

Después de la introducción, las siguientes charlas cubrieron temas variados como por ejemplo cómo están contribuyendo las distribuciones al desarrollo y la integración de Nova con la intervención de la gente de Citrix (Xen Server), Ubuntu y los compatriotas de StackOps a los que fue un gustazo poder saludar por tierras inglesas y que a día de hoy han desarrollado una de las distribuciones de OpenStack más interesantes sobretodo si no quieres complicarte la vida en la instalación. La verdad fue una alegría ver que Ubuntu ya ha incorporado en varias de sus últimas versiones paquetes oficiales de OpenStack y también cómo Citrix también apuesta por openstack para su implementación de nubes, y en gran parte el exito es debido a la independencia de openstack del hypervisor elegido permitiendo así elegir el que más se ajuste a tus necesidades.

También fue curioso las varias referencias que hubo a temas cómo devops o al uso que hacen internamente para el despliegue de múltiples nodos mediante puppet o chef distintas empresas que están trabajando en la implementación de openstack. En Andago llevamos ya bastante tiempo siguiendo la pista de OpenStack y está en el roadmap migrar nuestra nuble interna de computación de un desarrollo previo a medida de IaaS sobre Xen a OpenStack sobre KVM, pero esperamos poder tener el primer piloto disponible en breve.

La charla de seguridad en la nube entre otros nos recordó lo importante que es en los casos que estas ofreciendo servicios de computación a clientes externos mediante virtualización la relación que existe entre el servidor anfritión físico y las máquinas virtuales. Hay bastantes iniciativas en este aspecto tanto desde fabricantes de hardware cómo intel a otras basadas en software cómo el uso de SE-Linux para conseguir una independencia total del host anfitrión y sus ahijadas virtuales. Por cierto, mencionaron un tipo de ataque que no conocía llamadobluepill.

Otro de los aspectos importantes que se comentaron durante la sesión fue cómo poder particpar en la comunidad de openstack y cómo se está organizando el desarrollo que muestran una comunidad robusta y sana y con una de las mayores proyecciones dentro del espectro del software libre. Por ahora y hasta no consiga elevar algo más mi nivel de programación en python mi granito de arena en el proyecto ha sido la traducción de gran parte de las cadenas de texto de Nova del inglés al español, aunque aún quedan unas cuantas nuevas que van aparecinedo cada día y os animo a contribuir.

Mis inicios en la informática

13/5/2011 5:30 pm

Como contaba en el post anterior y aprovechando todo lo que preparé para la última charla voy a intentar hacer una serie de posts sobre mis experiencias en la administración de sistemas y la gestión de IT. Como en la charla, la idea es mostrar un poco la evolución y transformaciones que tanto a nivel personal, como en el arte de la administración han tenido lugar en los últimos 15 años.

Así que allá vamos con los Inicios.

Muchas veces digo que nuestra generación es la de los 8 bits, tanto por los ordenadores como por las consolas con las que empezamos nuestras primeras andanzas, en mi caso con un MSX que aún conservo. Quizá de ahí venga el amor a la línea de comando, a hacer programillas para automatizar las tareas más básicas o a interntar optimizar el rendimento de cualquier cosa que nos encontramos. Además con gran probabilidad estos inicios son los que luego hicieron que tiráramos más por los rumbos de UNIX que por las flamantes ventanitas del señor puertas.

Luego ya pasamos a la arquitectura x86, vinieron muchos ordenadores después, muchas horas trasteando con el DOS y probando programas y sacándole el jugo de una forma increible a cada cosa que podía hacer el ordenador. Así que cuando llegó la hora de elegir una carrera lo tenía bastante claro, la informática era lo mío.

Los primeros años de la Universidad los recuerdo con mucho cariño. Recuerdo lo duro que fue pasar los primeros cursos y la dura prueba que suponían las asignaturas como Calculo, Álgebra y Física que eran requisito básico para poder ganarnos el no sé si adecuado título de ingenieros. Aún me cae una gota de sudor cuando recuerdo un ejercicio llamado “Diagonalización de un endomorfismo” y todo un verano “encerrado” en la biblioteca (este otro post explica más bien en qué consistía eso) tratando de dominarlo para que luego años más tarde no sea capaz ni de recordar de qué iba la película.

Una vez superado el primer curso empezaban a aparecer algunas asignaturas más interesantes mezcladas con algunas otras que eran realmente decepcionantes y que no aportaban nada al camino que poco a poco había elegido para mi carrera: la administración de sistemas. Así que una vez superada la ingeniería técnica tenía que decidir por donde iba a continuar mi aprendizaje y así decidí comenzar varios caminos al tiempo:

– Comenzé los dos cursos que me faltaban para la ingeniería “superior o no técnica”, pero para motivarme decidí escoger todas las asignaturas relacionadas con los temas que me interesaban como la seguridad, la administración de redes o los sistemas operativos. No sé si fue un acierto o un error, pero una vez terminadas todas estas asignaturas me encontré con un montón de temas que ya no me interesaban para nada pero que por orgullo fuí sacando poco a poco hasta que decidí abandonar la carrera a falta de 4 asignaturas y el proyecto de fin de carrera. No había nada más que quisiera aprender allí y el título me parecía cada vez algo más algo totalmente innecesario.

– Comencé a trabajar en un pequeño ISP de mi ciudad, pero esto lo dejo para el siguiente post, en el que narraré las experiencias de mi primer trabajo.

– Una vez descartada la Universidad decidí dedicar mis horas de aprendizaje a enfocarme en las áreas que más me interesaban. Realicé el curso CNAP de CISCO por las tardes/noches y aunque no era tan práctico como esperaba amplié bastante mis conocimientos de redes. Finalmente decidí no certificarme porque costaba un pico y porque creí que los conocimientos que había adquirido los tenía suficientemente afianzados como para poderlos demostrar por otros medios. También realicé un curso de Solaris en la Complutense de Madrid, cuando todavía Solaris era el rey de los sistemas operativos de servidor y lo que demandaban las grandes empresas. Mucho más adelante y gracias a mi empleador pude realizar un par de certificaciones en Linux: LPIC-1 y RHCE. De estas me quedo con RHCE que como he comentado en otras ocasiones es el examen que más me ha encantado de los que he hecho en mi vida.

Trastear, trastear y trastear. Siempre me ha encantado trastear en casa o con los amigos y creo que he aprendido muchísimas cosas de esas horas. Uno de los grandes éxitos de Linux, por poner un ejemplo, es que tienes a tu disposición en casa de la misma tecnología que tienen las empresas para ofrecer sus servicios, lo que es una ventaja enorme para el aprendizaje. Aún recuerdo como en mi piso de estudiante fuimos incorporando a nuestro servidor casero los distintos tipos de redes según estas iban evolucionando y se hacían asequibles a nuestro bolsillo. Primero teníamos toda la casa cableada con coaxial para luego pasarnos a RJ45 progresivamente en los cuartos y montar un puente entre ambas redes para los que aún no habían hecho la actualización y con el tiempo incorporar la tecnología inalambrica a nuestro super puente cuyo objetivo principal era poder echar unas buenas partidas al Counter Strike. En ese servidor teníamos nuestro correo, nuestras webs, nuestro ftp para intercambiar ficheros con la peña o nuestro servidor de Amule que echaba llamas, todo sobre un viejo 486 que ibamos renovando con las piezas que sobraban de nuestros PCs. ¿Se os ocurre un laboratorio mejor?

– Un día sentados en el curro delante del Barrapunto del día y viendo noticias de la útlima Hispalinux me giré hacia mi compañero de sistemas “el Chache” y le dije: “tio, ¿por qué en Albacete no tenemos nada de esto?”, tras hacer la pregunta a varios amigos y compañeros de la Universidad a los que nos encantaba Linux nos lanzamos a iniciar la asociación juvenil Linux Albacete. Es increíble la cantidad de cosas que he aprendido en las horas que le dedicamos a la asociación y así espero que lo sienta todo el que se acercaba a la misma, pues además de promover el uso de tecnologías libres el objetivo era el de compartir conocimiento entre todos nosotros, ¿puede haber algo más bonito?

Bueno, y podemos decir que después de todo este rollo introductorio, queda bastante claro porque decidí dedicarme profesionalmente al mundo del IT con tecnologías libres. En el sigueinte post os contaré las peripecias en mi primer trabajo como administrador de sistemas.

Experiencias en la administración de sistemas con Software Libre

12/5/2011 9:39 am

Este es el título, aunque no el orginial que más bien era Experiencias del Software Libre en las empresas TIC, de la charla que dí el pasado Viernes en el curso de Arquitectura de servidores con Software Libre que está realizando LibreSoft y la Universidad Rey Juan Carlos en el centro Madrid On Rails y en el que Andago participa cómo colaborador. En un principio pensé que no podría dar la charla al estar en Reino Unido pero al final conseguimos cuadrar las fechas con los días que ibamos a estar por España arreglando papeles. El curso que ha montado la gente de LibreSoft me parece superinteresante, de hecho tuvimos suerte de pillar una plaza para uno de los compañeros del departamento de IT, y es el tipo de formación del que siempre me he quejado que no ofrezca la Universidad cómo parte de su temario habitual. Esperemos que se les reconozca el éxito y puedan repetirlo en siguientes ediciones.

El caso es que cuando me puse a pensar sobre qué podía contar sobre el tema me llegaron muchísimas ideas de golpe y no sabía muy bien cuales serían más interesantes y cuales descartar. Entre ellas había muchísimas experiencias e historietas de distinto ambito, desde cuando empezaba a utilizar mis primeras distribuciones de Linux en casa, las cosas aprendidas en la Universidad y en LinuxAlbacete, cómo montamos la infraestructura de un pequeño ISP en mi primer trabajo y luego todos los proyectos, metodologías, infraestructuras y lecciones que he ido adquiriendo durante los últimos años en mis distintos puestos dentro de Andago. Así que al final intenté incluir un poquito de cada cosa con la idea de dar muchas ideas y conceptos, sin profundizar en el cómo (HOWTO), de forma que sirvieran de puntero para que la gente del curso, en caso de que le resultaran interesantes o de utilidad, pudieran investigar un poco más.

A continuación os dejo las transparencias por si os interesa echar un vistazo:

La audiencia era gente con experiencia en la administración de sistemas así que intenté profundizar en los temas menos comunes o con los que pudieran estar menos familiarizados. Finalmente me pasé un cuarto de hora de la hora y media que tenía asignada, cosa que ya me estaba temiendo cuando terminé de preparar la charla, pero espero no haber aburrido demasiado a nadie. Yo cómo siempre disfruté cómo un enano contando cosas e intentando contestar las preguntas que me fueron hiciendo.

También había pensado en incluir un resumen de todo lo que conté en la charla en este post, pero pensándolo mejor voy a ver si saco tiempo y hago una serie de posts sobre ello porque hay demasiada chicha para un sólo día.

Rescatando una instancia con EBS en Amazon

22/11/2010 9:00 am

Este domingo, tras una increible fiesta mexicana la noche anterior, se me ocurre echar un vistazo al mail y me encuentro con un correo de Amazon indicándome que tienen problemas con el servidor anfitrión que alberga una de mis instancias de servidores virtuales, por cierto la que conseguí de forma gratuita.

We have noticed that one or more of your instances are running on a host degraded due to hardware failure.

i-55624c22

The host needs to undergo maintenance and will be taken down at 12:00 GMT on 2010-11-22. Your instances will be terminated at this point.

The risk of your instances failing is increased at this point. We cannot determine the health of any applications running on the instances. We recommend that you launch replacement instances and start migrating to them.

Feel free to terminate the instances with the ec2-terminate-instance API when you are done with them.

Sincerely,
The Amazon EC2 Team

El correo me dice que mi instancia está funcionando en un host degradado debido a un problema de hardware y que mi instancia será terminada en una operación de mantenimiento esta misma noche… al principio ni siquiera me lo podía creer ¿dónde quedó lo de la ubicuidad de la nube y el abstraerse de los problemas físicos? Dado que la instancia dispone de un almacenamiento persistente EBS, no podrían simplemente migrarla en vivo a otro servidor y santas pascuas. ¿Tendrá algo que ver con que se trata de una micro instancia, que está paravirtualizada o a que estemos en el pool de servicio gratuito? Igual han dedicado todos los servidores a punto de romperse a esta campaña de marketing… quién sabe.

Anteriormente cuando no disponíamos de imágenes con el almacenamiento directamente sobre EBS si una instancia era terminada todos los datos de la instancia que no salvaras explicitamente en un bloque EBS especialmente montado para ese propósito eran eliminados, ahora cuando terminas una instancia con EBS simplemente el EBS se queda almacenado para que lo anexes a otra instancia o para que lo borres si ya no vas a hacer uso de él. Así que bastaría con esperar a que pararan la imagen y levantar una nueva con ese EBS, pero al ir a conectarme comprobé que la instancia ya ni si quiera estaba en funcionamiento y no podía acceder a ella por web o por ssh, así que me lanzé ¡AL RESCATE!

El primer paso era parar la instancia que estaba fallando para poder liberar el EBS, pero sorpresa… la instancia no se para por mucho que se lo pidas, supongo que debido a los temibles problemas de hardware. Tras esperar veinte minutos decidí buscar un plan alternativo. Y aquí es dónde sacamos provecho de la potencia de los snapshots, así que simplemente hacemos un snapshot, es decir una copia, de nuestro EBS y creamos un nuevo EBS a partir del snapshot con lo que tendremos una copia exacta de nuestro almacenamiento disponible.

El siguiente paso es arrancar una instancia y asignarle el nuevo EBS que hemos sacado del snapshot. Me parecía recordar que podías hacer eso en un sólo paso pero a través del API y la línea de comando pero no encontré forma de hacerlo a través de la consola web así que hubo que hacerlo en varios pasos. Arrancamos la nueva instancia con un EBS por defecto, luego la paramos, desligamos el EBS de la instancia y lo borramos para a continuación enlazar el EBS que sacamos del snapshot con la instancia en la ubicación /dev/sda1 y ya estamos listos para arrancar una instancia clonada desde la original que estaba fallando.

Por otro lado, es posible que tengas que hacer alguna adaptación interna de tu servidor ya que tu dirección ip pública y privada en Amazon habrán cambiado, en mi caso a este nivel tuve que cambiar el /etc/hosts del servidor. Si dispones de una ip elástica para ofrecer los servicios te bastará con cambiar la instancia a la que apunta esta a la nueva instancia que hemos creado y tu servicio debería volver a la vida y responder de forma correcta a los dominios que la apunten. Cómo yo no dispongo a día de hoy de ip elástica, no entraba en el pack gratuito de Amazon, estaba usando la ip pública de Amazon cómo entrada a mis servicios y alguno de ellos cómo wordpress dependen de ella me tocó arreglarlos en la base de datos:

update wp_options set option_value=”http://minuevaippublicaamazon/miwordpress” where option_name=”stieurl”;
update wp_options set option_value=”http://minuevaippublicaamazon/miwordpress” where option_name=”home”;

La verdad es que se destapan dos temas igualmente de importantes respecto al servicio de Amazon: la fiabilidad de la nube y la felxibilidad de la que nos provee. Cada uno que saque sus conclusiones y vea hacia dónde se inclina la balanza.

Novedades en RHEL 6

18/11/2010 7:57 pm

En el post anterior comentaba las primeras impresiones de la instalación de RHEL 6 y os prometía ampliar algunas de las novedades que trae esta nueva versión después de la presentación que nos realizaron en el evento de partners de Red Hat.

Cómo la descripción general podéis verla en la web de Red Hat sobre RHEL os dejo las notas que tomé porque me sorprendieron o interesaron durante la presentación:

* Mejoras en la eficencia energética: se incorporan comandos como powertop e iotop para medir el consumo de los distintos procesos así cómo tuned, un demonio que va adaptando los recursos del sistema para mejorar la eficiencia

* Con cgroups podremos establecer un límite de recursos sobre un proceso a nivel de número y porcentaje de cpu, memoria, disco y red de forma dinámica.

* Se de usar PAM a SSSD

* Respecto al temido SE-Linux se crean dos nuevos modos: SE-Linux kiosk para aplicar políticas a sesiones en modo kiosko cuando es un terminal de uso público y SE-Linux sandbox para confinar aplicaciones que no tienen todavía definida una política predefinida de SE-Linux

* En cuanto a IPSEC se pasa de usar OpenVPN a OpenSwan

* Dispondremos de System Tap para depurar aplicaciones, pero al parecer también nos va a permitir depurar aplicaciones Java

* KVM entre muchas otras mejoras permite añadir recursos físicos en caliente (CPU, disco, memoria, etc…)

* Yum permite hacer rollback de una instalación !!!

* Simplificado el reporte de errores ante fallos graves que captura el estado de la máquina y permite enviarlo a Red Hat para abrir un bug

* En la parte de Cluster podemos destacar el uso de corosync, unfencing y la interfaz conga rediseñada

También hay grandes cambios en el tema de subscripciones y se complica un poco el tema de saber cuál aplica a tu caso, además de estar fuertemente ligado a la virtualización, pero básicamente tendremos que sacarlo de cruzar los siguientes datos:

* Por cada par de sockets (zocalos utilizados) del servidor anfitrion
* Por el número de guest RHEL máximo que podemos correr en ese anfitrión (1, 4 o ilimitado)
* Por el número de extras que queramos contratar (alta disponibilidad, GFS, XFS, soporte extendido, etc…)

Un caso curioso es el de los clusters de virtualización que tengan migración en vivo, en cuyo caso todos los servidores a los que pueda ir un guest RHEL deben de tener una subscripción activa y el máximo de guests que podremos ejecutar en total en el cluster saldrá de sumar los guests permitidos en cada una de las subscripciones de los nodos anfitriones (1 o 4 o más si apilamos varias subscripciones en ese mismo anfitrión) o será ilimitado en caso de tener subscripciones de tipo ilimitado en todos los nodos del cluster, ya que estas no se pueden mezclar. Un poco lioso.

Lo que sigue estando verde es el tema de usar RHEL en nubes públicas aunque se están avanzando acuerdos con los proveedores de Cloud para que lo ofrezcan por ahora no hay subscripciones que puedas pagar por uso provenientes de la propia Red Hat.

ACTUALIZACIÓN: Se me había olvidado comentar el tema de formación y certificación que también tiene sus novedades. Cómo comentaba por twitter casi me enteré antes de que estaba RHEL 6 en la calle porque me llegó un correo indicando que en breve va a estar obsoleta mi certificación RHCE, la saqué con la versión 4, y que la RHCT, la renové a la versión 5 en el evento de partners de Valencia dónde hacían exámenes gratuitos, se convalida con la nueva certificación RHCSA (Red Hat Certified System Administrator) que será la nueva certificación previa a sacar el RHCE.

Probando la instalación de RHEL 6

16/11/2010 8:30 pm

Hace un par de días se lanzaba definitivamente la nueva versión de Red Hat Enterprise Linux: RHEL 6. Y aunque ya le había echado un ojo a alguna Release Candidate he sacado un rato para probar la instalación en una máquina virtual de KVM de la edición de servidor de RHEL 6 recien descargada de Red Hat Network. La instalación ha sido muy sencilla y aquí os dejo los pasos y algunos comentarios al respecto.

La instalación arranca con la selección del tipo de acciones que queremos realizar: instalar, instalar en modo texto, recuperar el sistema, arrancar desde el disco local o hacer el test de memoria. Nada nuevo por ahora en el horizonte, seleccionamos la opción de instalar:

A continuación haremos la típica selección de idioma y teclado, en mi caso me gusta mantener el idioma en inglés, sobretodo porque es más fácil rastrear los mensajes de error por internet, y el teclado en castellano:

Seleccionamos nuestra ubicación en Madrid:

Y pasamos a seleccionar el dispositivo de almacenamiento en el que queremos instalar, siendo las opciones básico o especializado, permitiendo esta última opciones muy interesantes para el modo servidor cómo instalar en una cabina de almacenamiento o añadir drivers de nuestro raid hardware:


Enseñame más… »

Charla: Gestionando nuestros servidores con Puppet

5/11/2010 9:54 am

Otro semestre más vuelven los cursos del Gul de la Universidad Carlos III de Madrid que durante la semana próxima, del 08 al 14 de Noviembre, tratarán de temas tan interesantes cómo Git, tunning de Mysql, Android o ITIL. Yo me apunto de nuevo a dar una charla y esta vez será sobre Puppet y cómo puede cambiar radicalmente la concepción de la gestión de nuestros servidores ofreciendonos grandes ventajas en la automatización, gestión de configuración y la reutilización.

Mi charla será el Martes 09 de Noviembre a las 18:00 en el aula 4.0.E02 en el Campus de Leganés de la Carlos III, así que si os interesa el tema nos vemos por allí.

ACTUALIZACIÓN: Ya tenéis un resumen y las transparencias de la charla disponibles en el blog.