viernes abr 15, 2011

Almacenamiento en el evento "CPD de Siguiente Generación" (2)

Continuando con la entrada anterior, G. Chillón cerró la sesión de la mañana hablando sobre las grandes ventajas que la tecnología flash aporta a las bases de datos Oracle. Señaló que la mejora en la tecnología de discos es mucho más lenta que en el tema del procesamiento. Los mejores discos trabajan a 15.000 rpm desde hace unos ocho años y ahora un moderno procesador es unas 260 veces más rápido que un disco. Eso provoca importantes esperas, lo que redunda en que las aplicaciones no sacan todo el potencial de los modernos procesadores.

El almacenamiento flash aporta baja latencia, da más caudal y disminuye el consumo y el espacio de forma significativa con respecto a los discos. Componer discos de estado sólido con esta tecnología mejora algo el tema, pero cuando realmente se saca partido es cuando se construye una capa intermedia entre la memoria DRAM y el disco rápido. Pero para que esta capa funcione bien, el software ha de conocer su existencia y saber aprovecharla.La versión de Oracle DB 11gR2 dispone de un módulo Smart Flash Cache que optimiza al máximo estas posibilidades, por lo que el binomio de ambas han producido productos tan extraordinarios como el Exadata o el record mundial de Tpm-C.

Cuando el caudal de IOPS es crítico hay instalaciones que acuden a fragmentar la base de datos en gran número de discos. El ejemplo adjunto muestra cómo conseguir la misma cifra de IOPS con estas dos estrategias y habla por sí solo.

Para los que no puedan implantar por ahora la revisión Oracle DB 11gR2, la buena noticia para usuarios de otras versiones anteriores es que gestionando por configuración que los índices se ubiquen en la memoria flash, se pueden conseguir mejorar dos veces el rendimiento.

Helena Blanco abrió la sesión de tarde y se centró en el resurgimiento de la tecnología de cintas de la mano de soluciones de archivo a largo plazo y como última línea de defensa de los datos ante catástrofes.

Centrándonos en el primer tema, que tiene especialísimo interés en sanidad, nos encontramos con la problemática de tener que almacenar datos por muchos años, que posiblemente se acceda a ellos muy poco pero que tienen que estar disponibles por temas de regulaciones o investigación. Y en ese tiempo las tecnologías irán cambiando y habrá que hacer migraciones. Y claro, eso lleva a temas como la conveniencia o no de tener esos datos en un disco dando vueltas y gastando energía a lo tonto o cómo traspasar centenas de TB de un medio a otro sin impacto en el servicio.

La propuesta de Oracle se basa en una solución con dos productos de software trabajando sobre una arquitectura jerarquizada con el nivel más bajo basado en cintas. Quick File Systems (QFS) soluciona el interfaz con las aplicaciones y cumple el estándar Posix. Storage Archive Manager (SAM) es un sistema automatizador de la jerarquía de datos, con larga experiencia en el mercado. En la figura adjunta se presenta una arquitectura de archivo jerarquizada en alta disponibilidad. En otra lámina se esquematizan los cuatro procesos básicos que tiene el SAM

SAM está gobernado por políticas que define el administrador y trabaja trasparente al usuario y a las aplicaciones. Un ejemplo de cómo podría ser la operación sería que de salida un fichero se archiva en los tres niveles del CPD principal y en cinta en el de respaldo. Al cabo de un mes, si no se ha señalado lo contrario, se elimina del primer nivel del CPD principal, liberando espacio en el disco más rápido y más caro. Y al cabo de seis meses se podría liberar también del nivel intermedio. Si en algún momento se accediese a datos que no están en el nivel 1, estos se podrían recopiar a dicho nivel y reiniciar el ciclo. Y quizás al cabo de siete años se procedería internamente a un reciclado de soporte físico, sin interrupciones de servicio.

El ahorro de costes directos e indirectos en consumo de energía, espacio y gestión que supone el tener un alto porcentaje de almacenmiento en cinta hace que una solución jerarquizada sea una alternativa muy a tener en cuenta en los entornos sanitarios.

Cerró la jornada M.A. Borrega que trató sobre la protección del dato, que no solo es una necesidad para minimizar riesgos del negocio sino que en muchos casos es objeto de regulación específica. Hay muchos sistemas de protección del dato, pero lo más importante es comprender que no todos los datos son igual de sensibles y hay que considerar las necesidades en lo que se llama Tiempo de Recuperación (RTO) y Punto de Recuperación (RPO).

En cuanto al nivel de backup y recuperación para las bases de datos Oracle DB dispone de la eficiente herramienta RMAN integrada en el producto y sin coste adicional para copias de respaldo a disco. Oracle Secure Backup es una herramienta que añade a RMAN la gestión del dispositvo de cintas y supone una eficiente solución para el respaldo tradicional de las bases de datos corporativas. En la lámina adunta se presenta una sofisticada solución de backup con respaldo remoto

En cuanto a la replicación de bases de datos, Oracle en la versión Enterprise incluye Oracle Data Guard 11g que permite replicaciones síncronas y asíncronas. Es independiente del almacenamiento y en el CPD remoto sólo se puede leer, lo que, entre otras muchas ventajas, aisla de corrupciones de disco. El producto estrella es Oracle Golden Gate que permite replicaciones entre diferentes gestores de bases de datos, trabajar en activo-activo y, entre otras prestaciones destacadas, facilita los mantenimientos y las migraciones.

Por último, se presentaron soluciones de respaldo para Exadata según las necesidades, bien directamente vía Infiniband con RMAN y un sistema ZFS Storage Appliance, a cinta con Secure Backup o mixta, como aparece en la figura.

jueves abr 14, 2011

Almacenamiento en el evento "CPD de Siguiente Generación" (1)

<script type="text/freezescript">var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

En la segunda parte del evento de Oracle sobre los CPD de la Siguiente Generación asistí a las sesiones de almacenamiento. Y voy a compartir mis resúmenes en dos entradas sucesivas.

En la primera sesión M. A. Borrega insistió en lo que todos más o menos conocemos pero a lo que posiblemente no estamos reaccionando a tiempo: el crecimiento explosivo de los datos. Este fenómeno está generando efectos inducidos y creando un nuevo paradigma en el que las réplicas de los datos originales ya suponen el 75% del total. Y este crecimiento desbocado tiene fuerte impacto en los costes de consumo, espacio y gestión en los CPD.

Y presentó el proceso evolutivo que está teniendo el almacenamiento, una vez que se ha visto que más de lo mismo en un escenario de crecimiento exponencial es imposible. Esa evolución nos dirige a los Sistemas de Almacenamiento Listos para el Negocio que se enfocan a mejorar la eficiencia, simplificar la gestión y reducir costes. Ello se consigue gracias a un acceso seguro a demanda al dato, optimización para las aplicaciones usuarias, capacidad ilimitada y rendimiento escalable, despliegue rápido tipo appliance y gestión fuertemente integrada con los sistemas y aplicaciones.

Esto ya está disponible con la solución multinivel que ya viene de la época de StorageTek con su solución SAM en la que se jerarquiza de forma automatizada y transparente al usuario el almacenamiento con el criterio de ajustar el coste y el rendimiento a las necesidades de uso del dato. Y ello supone ahorro de costes de más del 70%.

En la segunda sesión J.P. de Frutos comentó las implicaciones que el masivo despliegue de soluciones de virtualización tiene para el almacenamiento en cuanto a su necesidad de proceder a una consolidación para aprovechar eficientemente la propia virtualización. 

En este escenario ZFS Storage Appliance es la apuesta de Oracle. Está certificado para Oracle VM, VMware, Hyper-V y Citrix, dispone de una gama completa de protocolos de conectividad y de servicios de datos sin costes adicionales, deduplicación en línea y compresión avanzada y una eficiente arquitectura multinivel Hybrid Storage Pool(HPS) que integra la tecnología flash de forma transparente para el usuario para conseguir la máxima eficiencia en IOPS, espacio y consumo.

Pero lo que más aprecian los clientes es el sistema de detección y análisis DTrace Storage Analytics que ofrece información ligada a las aplicaciones y favorece la rápida detección de cuellos de botella.

<script type="text/freezescript" src="http://platform.twitter.com/widgets.js"></script>

jueves abr 07, 2011

Oracle apuesta por la simplificación de los CPD

<script type="text/freezescript">var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Oracle celebró el evento de "CPD de la Siguiente Generación" en el acogedor escenario del Palacio de la Bolsa de Madrid el pasado día 6. El VP y Líder de Hardware para Iberia Joao Taron dio la bienvenida a los asistentes comentando que, una vez culminada la transición de la compra de Sun, estábamos poniendo todo nuestro foco en el futuro con una estrategia basada en una apuesta firme por el binomio SPARC/Solaris y con el desarrollo de soluciones innovadoras diseñadas desde el principio conjuntamente entre los ingenieros de hardware y software para reducir el coste y la complejidad de los CPD.

Por tanto, la oferta de Oracle se orienta a dar elección entre un abanico de propuestas que cubren los diferentes planteamientos de las organizaciones y que van desde los sistemas que den las máximas prestaciones para cada nivel de la arquitectura del CPD (el modelo tradicional), a una propuesta de soluciones optimizadas para diferentes productos de software Oracle (Oracle sobre Oracle integrado en la instalación) hasta una propuesta de sistemas compactos de sofware y hardware Oracle diseñados ad-hoc conjuntamente por los equipos de ingeniería hardware y software con rendimientos extremos en su cometido (sistemas Exadata, Exalogic y futuros Exa, con la integración hecha en fábrica).

Dermot O'Kelly, el Senior VP de Hardware para Europa, Oriente Medio y África, señaló que según estudios de Forrester, el 80% del presupuesto de las TIC se consume en mantener operativos los sistemas existentes, debido a la enorme complejidad que la estandarización sólo ha paliado en parte. Por ello estamos ante el desafío de disminuir drásticamente la complejidad para que los recursos se vayan a temas más productivos. En este contexto, los modelos tipo cloud buscan la sencillez y la eficiencia, por lo que las organizaciones están en un proceso que ha pasado de los silos aislados a una consolidación y ahora estamos en una optimización que llevará al modelo cloud (privado o público).

Explicó que Oracle era el único fabricante que dispone de propiedad intelectual sobre toda la pila de niveles del cloud y eso le permite optimizar entre si las piezas y conseguir mejoras mucho más allá que la simple evolución de una capa. Estamos en condiciones de ofrecer soluciones con sus elementos diseñados, certificados, empaquetados, desplegados, evolucionados, gestionados y mantenidos juntos, en bloque, lo que ataca frontalmente a la complejidad y produce reducciones de coste muy significativas que rompen las reglas de juego habituales.

La construcción de CPDs por bloques en vez de por piezas nos permite hablar de CPDs listos para el cloud computing. Para los servicios de IaaS Oracle ofrece la elección de sistemas x86 con Oracle Enterprise Linux, Solaris y Oracle VM, sistemas SPARC con Solaris y Oracle VM y los SPARC SuperClusters y ZFS Storage Appliances. En la capa PaaS y/o SaaS están las Soluciones Optimizadas y, con un modelo de máxima simplificación, los sistemas Exadata y Exalogic cubren todos los niveles.

Comentó que las Soluciones Optimizadas no son un lema de marketing sino una realidad contrastada en numerosas experiencias reales, en las que los clientes han reportado notables mejoras de ejecutar el software de Oracle sobre las arquitecturas recomendadas de hardware Oracle. En pocas fechas se estarán entregando las primeras unidades de los SPARC SuperClusters, varios empaquetamientos construidos con la experiencia que nos ha dado el record de Tpm-C recientemente batido con 30 millones de transacciones por minuto, triplicando el anterior.

Dermot señaló que gran número de países del área bajo su responsabilidad ya tienen sistemas Exadata sorprendiendo a sus usuarios con unos rendimientos espectaculares en unos casos, sus increíbles ahorros en almacenamiento en otros casos o su rapidez para consolidar bases de datos.

En suma, Oracle ya no es una expectativa en hardware: es una realidad muy tangible y sus logros en prestaciones y simplificación al final se transforman en optimizar el retorno de la inversión, que es lo más importante. Y acabó instando a la audiencia a que no se quedasen escépticos con lo que habían oído sino que pusieran a prueba a Oracle.

La jornada se completó con un amplio panel de presentaciones de nuestros expertos sobre todas estas tecnologías y soluciones de las que se había hablado en la sesión plenaria. Hubo cosas muy interesantes y no muy conocidas en las sesiones a las que asistí, pero lo iré desgranando con más calma en otras entradas.

<script type="text/freezescript" src="http://platform.twitter.com/widgets.js"></script>



lunes ago 16, 2010

Oracle actualiza la estrategia de sistemas

<script type="text/freezescript">var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Sigo de vacaciones pero el pasado día 10 el vicepresidente ejecutivo de sisetemas John Fowler dió una conferencia retransmitida por web y disponible ahora en esta dirección, de la que quiero dejar una breve reseña. Las láminas que incorporo forman parte de la presentación disponible en esta otra dirección.

Lo primero para no sacar de contexto el contenido es recordar que Oracle proclama al principio de la presentación que el objetivo de la sesión es presentar genéricamente la evolución de los productos y que esta información no puede bajo ninguna circunstancia suponer un compromiso contractual ni ser motivo de ninguna decisión de compra por parte de los clientes, ya que Oracle se reserva en exclusiva la capacidad de fijación de los alcances y plazos de cualquier funcionalidad aquí presentada.

Por tanto, estamos ante una presentación de la estrategia y objetivos a cumplir en los próximos cinco años, lo que, a pesar de todas las restriccciones indicadas al principio es importante para los actuales usuarios de sanidad y los futuros clientes comprender la hoja de ruta prevista.

Además del compromiso reforzado con Solaris como sistema operativo empresarial por excelencia tanto sobre SPARC como sobre x86 de Oracle y otras plataformas, como el reciente anuncio de disponibilidad sobre equipos Dell y HP avala, incluyo el resumen de la estrategia sobre servidores, almacenamiento, virtualización y soluciones completas hardware-software de la que ExadataV2 es la primera gran muestra.

Espero que las láminas seleccionadas sean legibles y, en todo caso, la fuente original recuerdo que está en esta dirección. Mientras, por aquello del verano, cierro con una foto de uno de los lugares donde paseo estos días.


<script type="text/freezescript" src="http://platform.twitter.com/widgets.js"></script>


miércoles jul 28, 2010

Oracle: Almacenamiento estructurado para ahorrar en tiempo de crisis

<script type="text/freezescript">var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Cuando el consumo de gasolina no preocupaba, lo importante era tener un coche muy grande y potente. Hoy el consumo forma parte importante de la decisión. Cuando las casas eran un bien especulativo el precio era lo de menos si había un crédito asumible. Hoy el crédito es fácil y se compra mucho más para habitarla que como inversión, por lo que prima la adaptación de la vivienda a las necesidades.

Podría seguir con muchos más ejemplos, pero creo que no hace falta. En sanidad ocurre una cosa curiosa, debido al retraso comparativo de la digitalización de la historia clínica. Y es que se vivía en el día a día. Lo importante era lanzarla y consolidarla y para ello se buscaba el almacenamiento más potente

Pero hemos alcanzado el punto de no retorno ("tipping point") y tenemos ya mucha información y, además, cada vez crece más y encima hay que conservarla por mucho tiempo y no hay plan B en papel o película. El almacenamiento de altas prestaciones es muy bueno, pero también es costoso, consume mucha energía y ocupa mucho espacio.

Por otra parte, el acceso al 90% de la información decrece radicalmente tras pocos meses. ¿Tiene sentido seguir conservando esa información y sus copias de respaldo en un soporte muy rápido, pero que crece inexorablemente y consume cada vez más?. ¿Tiene sentido tener un potenente 4x4 aparcado sin usar en el garaje por si algún día queremos hacer un viaje de varios meses por la Europa oriental?. Posiblemete la respuesta a las dos preguntas es la misma: no es la mejor solución desde el punto de vista de eficiencia económica.

Desde Oracle se viene proponiendo pensar en el uso y necesidades de la información, si es estructurada o no y decidir una estrategia de adaptar las tecnologías a las necesidades. En sanidad hay mucha información no estructurada y que su acceso es muy pequeño tras cierto tiempo. Pensemos en imagen médica, vídeo, documentos pdf, o, simplemente correos.

Si pensamos en implantar soluciones con un primer nivel de máxima velocidad de acceso, un segundo con buena velocidad pero muho más económico y un tercero en una librería de cintas en que se pueda ofrecer respuestas de segundos si está cargado o minutos si está en una cinta externa, estaremos disponiendo de niveles de servicio muy razonables y con una alineación de coste por GB que baja varios órdenes de magnitud por nivel, con lo que el coste global se reduce mucho, el consumo no crece o, incluso, disminuye y además tenemos un modelo sostenible en el tiempo, ya que seguro que las tecnologías cambiarán pero el modelo es consistente.

Oracle ofrece soluciones para todos los niveles y recientemente ha anunciado importantes mejoras en su familia Unified Storage que pueden cubrir el primer o segundo nivel. Del tercero ya he hablado recientemente y remito a esa entrada aquí. Los sistemas Sun Storage 7000 forman parte de la oferta de soluciones completas listas para permitir a los clientes crecer en sus soluciones convencionales o en modelos cloud computing.

Las mejoras incluyen la incorporación de la deduplicación de datos en línea que completa la compresión en línea ya existente, soporte de protocolo Fiber Channel a 4 y 8 Gbit/seg, múltiples pools de almacenamiento y los nuevos discos SAS de 1 y 2 TB que permiten alcanzar la capacidad máxima de 576 TB.

Estas mejoras ayudan a reducir severamente los costes del almacenamiento de datos, consolidar y gestionar datos con gran eficiencia, conectar los Sun Storage 7000 Systems a SANs con Fiber Channel y mejorar la capacidad y disponibilidad. Las potentes capacidades de diagnóstico y monitorización de DTrace Analytics se extienden a las conexiones Fiber Channel, lo que permite optimizaciones de rendimiento sin parangón al identificar los cuellos de botella y gestionar eficazamente los recuros y provisionar las prestaciones de los aceleradores Flash sin procesos de prueba y error.

Como parte de la estrategia de Oracle de ofrecer sistemas completos, abiertos e integrados, la línea Sun Storage 7000 System Product Line está diseñada y soportada con Oracle Solaris, Oracle Enterprise Linux, Oracle VM, Oracle Database 11g, Oracle Applications, Oracle Fusion Middleware y los productos software provinientes de Sun System, así como muchos otros productos de terceros. Por ejemplo, Oracle Enterprise Manager 11g permite un diagnóstico simplificado de los problemas de las aplicaciones y el impacto del almacenamiento durante el despliegue de las aplicaciones y de la base de datos.

Información del anuncio aquí y de las características de la familia Sun Storage 7000 Systems aquí.



viernes may 28, 2010

UGRGrid: Un gran centro de supercomputación científica

<script type="text/freezescript">var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Hace unos días he tenido la oportunidad de visitar el CPD que alberga el primer nodo de la Red Andaluza de Supercomputación Científica que fue creada el 28 de diciembre de 2006 por iniciativa de la Junta de Andalucía, la Universidad de Granada (UGR) y Sun Microsystems.

Se constituyó entonces la sección de Supercomputación de la Universidad de Granada, donde se ubicaron los primeros nodos de la red. Esta instalación que lleva el nombre de UGRGrid, pasó un test de rendimiento Linpack para su acreditación a nivel mundial, obteniendo en la medida Sum Rmax 4.222 GFlops y 5.491 GFlops en Sum Rpeak, lo que lo colocó en la posición 469 a nivel mundial en la lista Top500 de junio de 2007.

Actualmente se dispone de dos tipos de arquitecturas de cálculo, una de memoria distribuida y otra de memoria compartida. La de memoria distribuida se llama UGRGrid y dispone de una arquitectura basada en un Cluster Sun Fire X2200 M2/X4600 M2 con 1.264 núcleos, un total de 3 TByte de memoria RAM y 24 TByte de almacenamiento, interconectado todo ello a través de una red Infiniband de alto rendimiento. Este sistema utiliza los servicios de backup generales de la Universidad.

Pieza clave de la solución es el sistema de ficheros compartido Lustre, que ofrece la capacidad de obtener un importante ancho de banda agregado y que ofrece una estabilidad y escalabilidad muy altas, lo que resulta fundamental para garantizar unos altos niveles de prestaciones y servicio, siendo considerado por los gestores del centro una de las claves del éxito del mismo. Lustre es un producto open source que está siendo reforzado por la compra de Sun por Oracle.

Y esto me lleva a la razón de dedicar esta entrada: el servicio que se ofrece. Desde el día 1 de octubre de 2009, los recursos computacionales de UGRGrid se ofrecen a todos los investigadores del Plan Andaluz de Investigación (PAI). El servicio está en pleno funcionamiento y con una madurez y eficiencia palpables. 

El número de CPD científicos no es muy alto y tradicionalmente se asume que el investigador usuario es un consumidor de recursos que ha de tener un buen conocimiento informático. Aquí el UGRGrid piensa que el usuario ha de centrarse en la investigación y no en la informática y se ofrece una serie de servicios de herramientas tipo y apoyos a la optimización de los programas privados del investigador para aprovechar al máximo las capacidades del sistema. Y estos servicios se ofrecen a través de un portal con acceso ergonómico y en el que el usuario autorizado carga el trabajo mediante un menú amigable y es informado de su estado de proceso y de su finalización.

A eso hay que añadir que la gestión está muy depurada, con sofisticadas herramientas de control y monitorización que permiten mantener un alto nivel de ocupación de recursos. El sistema de acceso a recursos es básicamente un sistema de mercado entre oferta y demanda, lo que implica que cuanto menor sea la cantidad de recursos solicitados más rápido será el acceso y viceversa, aunque también hay cabida para la reserva de recursos para grandes proyectos que, en circunstancias normales tendrían muy difícil su asignación de recursos.

La experiencia demuestra un alto nivel de disponibilidad y una explotación cuidada que, por ejemplo, tiene programada una parada para una actualización de la versión de Lustre a 1.8, una vez realizadas las pruebas previas con absoluto éxito. En suma, como persona de Sun me siento orgulloso de la tecnología, pero sobre todo de ver lo bien que se usa y de que la tecnología funciona tan bien que las preocupaciones de sus responsables están en los niveles de servicio y en la satisfacción de sus usuarios, que actualmente son 48 grupos de investigación del PAI. Detalles sobre la producción científica aquí.

Y como tema curioso, a las puertas del UGRGrid hay una pieza de museo: un lector de tarjetas perforadas Univac de los años 70 del pasado siglo. Un maridaje de lo antiguo y lo nuevo.

Para algunos proyectos en que se necesita memoria compartida, en otro centro del mismo edificio está Mulhacén, un servidor SGI de arquitectura Numa con 64 procesadores y 64 GByte de memoria RAM.

martes oct 13, 2009

Desafío Oracle Exadata V2 con tecnología Sun

<script type="text/javascript"> var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/javascript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

El pasado 8 de octubre los lectores del Wall Street Journal se encontraron un anuncio en primera página de un curioso desafío de Oracle abierto a las empresas norteamericanas catalogadas dentro de la lista de mayores empresas Fortune 1000, incluida IBM, en el que podían ganar 10 millones de dólares si se inscribían antes del 16 de diciembre y se podía demostrar que Oracle Database 11g sobre Exadata V2 con tecnología Sun no es dos veces más rápido que sobre cualquier tecnología comercial de IBM.

La competición evalúa rendimientos exclusivos de la base de datos Oracle Database 11g y vale tanto medir el doble de carga en el mismo tiempo o la mitad de tiempo para la misma carga.

Más allá a este estilo al que no estoy acostumbrado en Sun, mi comentario lo quiero ceñir a una reflexión sobre la evolución de las tecnologías desde una fase de optimización de resultados y prestaciones buscando la excelencia en los servidores y almacenamiento, alcanzando niveles de mainframe con sistemas abiertos, a un movimiento pendular que apuesta por dar importancia al software en detrimento del hardware como puede ilustrar el lanzamiento de Oracle Database 10g en el que se puede montar también sobre componentes de bajas prestaciones y un reflujo a soluciones en las que la excelencia la da la unión íntima de los mejores hardware y software, como ocurre con la visión de Oracle al comprar Sun y lanzar rápidamente Exadata V2.

¿Eso quiere decir que cada etapa anula a la anterior?. No. Como toda evolución, las innovaciones mejoran la competencia al dar a los clientes más opciones para elegir dependiendo de sus necesidades.

Las soluciones corporativas en manos de buenos servicios de TI permiten diseñar las soluciones más apropiadas para cada organización, combinando en la dosis adecuada la rapidez, seguridad, disponibilidad, flexibilidad, evolución futura, costes de explotación, etc.

Las soluciones basadas en hardware de bajo coste obviamente tienen como principal virtud el precio de adquisición aunque deben de valorarse otras variables como la proliferación incontrolada de hardware, la creación de islas tecnológicas, los niveles de servicio, etc.

Y las nuevas soluciones tipo "appliance" que empiezan a aparecer ofrecen soluciones muy optimizadas para temas muy concretos y parece la línea de futuro para el cloud computing público o privado.

Con todo me viene a la cabeza la imagen de un traje de sastre o un prêt-à-porter, Supongo que en principio a todos nos interesa un armario con trajes a la medida, aunque posiblemente tengamos una mezcla y, seguro, el traje para hacer deporte no será a medida...



miércoles sep 23, 2009

Open Storage: el bebé ya corre antes del año

Hace diez meses Sun anunciaba la gama Sun Storage 7000, un "appliance" de almacenamiento dentro de la familia de Open Storage construido combinando servidores, almacenamiento (discos y memorias flash) y una amplia gama de software de almacenamiento de nivel empresarial basado en software libre que sacando el máximo provecho a ZFS ofrecía al usuario una solución de muy altas prestaciones de velocidad, seguridad, disponibilidad, ahorro energético, con gran facilidad de uso e instalación y, por supuesto, multiplataforma.


John Fowler, EVP de Sistemas comenta en el vídeo que acompaño que antes del primer año ya se han entregado más de 35PB (35un.000 TB) en os miles de sistemas. Aprovecha para anunciar mejoras para añadir rendimiento y simplificar aún más la gestión.

De las dieciseis mejoras incorporadas destacan:

  • Mejoras en la protección de datos con RAID Z (triple paridad) y espejo triple
  • Mejoras en el soporte de ISCSI apoyadas en COMSTAR.
  • Shadow Data Migration
  • Más rápida toma de control en modo cluster
  • Mejoras en la administración
  • 30% de mejora en la gama alta al incluir nuevas CPU de 24 cores y doble de caché.

Con esta actualización no sólo se consiguen más prestaciones sino que se soportan fallos de hasta tres discos, reduciendo el riesgo de pérdida de datos cuando se usan discos de gran capacidad con tiempos largos de recuperación.

Y. por supuesto. mantiene sus características multiplataforma, siendo agnóstico al tipo de servidores a los que se conecta.

En España hay ya una buena base instalada en educación y empieza a calar en la administración pública y la sanidad, lastrada inicialmente por inercias de la base instalada y por compras masivas como hizo Red.es cuando aún no estaba disponible esta solución. Pero el impulso de la Ley 11/2007 y de las soluciones de EMR y PACS en sanidad en un contexto de fuertes ajustes presupuestarios colocan al Open Storage en una posición de salida muy atractiva por sus prestaciones y su precio.

Información ejecutiva sobre la familia Sun Storage 7000 en este vídeo de menos de cinco minutos. Información más detallada en este enlace. Para probarlo durante 60 días sin compromiso se puede consultar esta dirección.

viernes mar 13, 2009

Nos vemos en Inforsalud 2009

Por si alguien se había despistado, le recuerdo que del próximo lunes 16 al miércoles 18 tendrá lugar el XII Congreso Nacional de Informática de la Salud Inforsalud 2009 en el Palacio de Congresos de Madrid en la Castellana.

Aunque con un formato muy tradicional, que creo que va siendo hora de adaptar a la realidad del siglo XXI, no deja de ser el punto de encuentro ideal en el que confluyen todos los actores del sector. Y esto es algo que no apreciamos a veces en lo que vale. Los profesionales y los directivos tienen la oportunidad de conocer de primera mano lo que otros están haciendo o les preocupa y las mejores propuestas del sector industrial. Y desde la industria tenemos la oportunidad de conocer las necesidades y tendencias del sector en un master intensivo.

Un vistazo a la agenda permitirá apreciar la gran cantidad de sesiones, el solapamiento de las que a uno le interesan y el poco tiempo para acercarse a los stands con los que la industria financiamos mayoritariamente el Congreso. Esto nos mueve a los que realmente apostamos por este encuentro a realizar el máximo esfuerzo para ofrecer al sector una propuesta atractiva que le justifique esos minutos que esperamos nos dedique.

Y en esa línea Sun tiene una presentación ejecutiva que daré yo mismo el martes 17 a las 16:40 en la Sala 2A bajo el título de "Open Source: Bueno Siempre, Mejor en Tiempo de Crisis" y dispondremos de un stand en la planta sótano (el 48A) en el que habrá expertos de Sun para explicar nuestra propuesta de Open Source Profesional, de Open Storage y de qué valor aporta a las instituciones sanitarias tanto a nivel de funcionalidad como de ahorros. Por supuesto, nuestra tradicional apuesta por los terminales ultraligeros Sun Ray estará presente durante todos los días.

En el stand haremos jornadas temáticas, con el siguiente alcance:

  • Martes 17 y miércoles 18, por la mañana: estarán nuestros expertos en Open Source, con foco en MySQL, OpenOffice y OpenESB. Presentaciones programadas durante el horario de vistas a stands, pero no dudéis de acercaros en cualquier momento para una atención personalizada.
  • Martes 17, por la tarde: lo dedicaremos a explicar el revolucionario OpenStorage y continuaremos con MySQL. Presentación de Open Storage programada durante el horario de vistas al stand, pero tampoco dudéis en acercaros en cualquier momento.

Y para compensar el esfuerzo de bajar al sótano, tendremos sorpresas agradables para nuestros visitantes.

Deseo a todos una feliz estancia en Madrid y unas jornadas provechosas profesionalmente, para a lo que hemos trabajado intensamente para aportar nuestro granito de arena.




viernes jul 18, 2008

CPD en un contenedor: experiencia real

Una imagen vale más que mil palabras. Un vídeo ¿más que mil imágenes?. El crecimiento de usuarios y contenidos en los CPDs está llegando a situaciones de colapso por consumo, temperatura, espacio y costes de energía. Hay diferentes maneras de atacar el tema. Y en muchos casos se necesitan varios frentes de actuación.

Quiero compartir este vídeo que ilustra una ingeniosa e innovadora solución de Sun para virtualizar un CPD completo, como un caso real de cómo ahorrar energía, espacio y tiempo de despliegue. Y esto no es un sistema cerrado. La revista Computing se hace eco de cómo los grandes cuando tienen estos problemas confían en esta tecnología de Sun.

Mas información para los interesados en el proyecto Blackbox, ahora llamado Sun Modular Datacenter S20 aquí.

lunes jun 23, 2008

Open Storage incorporará almacenamiento en estado sólido

Esta entrada es mi versión libre del blog de Jonathan Schwartz, CEO de Sun Microsystems, a quien recomiendo acceder para leer la versión original. La razón de hacer este post es compartir con los lectores en español los importantes anuncios que siguen al lanzamiento del Open Storage, por la capital importancia que tiene el almacenamiento y archivo en sectores tan consumidores de datos como la sanidad y la nueva educación.

Según la visión tradicional de los responsables de los centros de procesos de datos, sólo hay dos tipos de dispositivos de almacenamiento: los que han fallado y los que lo van a hacer. Y es que todos los discos fallan y los más baratos lo hacen antes.

Si el tiempo típico de fallos son cinco años, a nivel personal uno se puede manejar con copias de seguridad ocasionales. Pero si nos vamos a los servidores corporativos con cantidades de discos desde 100 a 100.000, los fallos son diarios. No lo dudemos, los discos fallan.

Y cuando fallan, entra el tema de la potencial pérdida de datos. Y no es lo mismo perder una cita (que ya es grave) que perder historiales y sufrir encima una gran multa por incumplimiento de la ley. En el caso de los datos clínicos de los pacientes, la custodia de datos ha de ser, simplemente,  perfecta

Esta es la razón por la que Sun inventó, hace ya varios años, una plataforma de almacenamiento llamada ZFS. ZFS parte de un importante axioma: un sistema fiable se tiene que construir sobre componentes no fiables. ZFS utiliza ciclos sobrantes de computación para realizar constantes chequeos de integridad, evitando corrupciones ocultas.  Con ZFS los usuarios pueden usar los discos y sistemas más sencillos con una excepcional integridad de datos, proporcionando una importante reducción de costes y complejidad.

Pero hay una nueva opción en escena, conocida por todos ya que la usamos en teléfonos móviles, PDA, cámaras, etc: las memorias flash. Las memorias flash son muy rápidas leyendo y escribiendo, como las memorias DRAM de los ordenadores. Su precio está entre medias de las memorias DRAM y los discos. Pero, a diferencia de otras tecnologías, las flash no necesitan alimentación para conservar los datos. Y con el incesante incremento del coste de la energía, mantener 10.000 discos rotando a muchas rpm puede costar tanto como el mismo precio de los dispositivos. El coste energético ha pasado a  ser un factor dominante en las decisiones de hardware de gran escala. En este contexto, las flash llegan para hacer un cambio perturbador.

Históricamente ha habido dos grandes barreras para el uso de las flash a nivel empresarial. La primera es el coste. El precio por Gigabyte de un flash es mayor que el del correspondiente en disco. Pero entre el descenso de precios de las flash y el encarecimiento del coste de la electricidad, el coste por gigabyte disponible en una flash está bajando rápidamente. Aunque el coste de un gigabyte en disco físico es menor que el de una flash, el tiempo de acceso para lectura o grabación de este gigabyte desde una flash es, al menos, de un orden de magnitud menor, por lo que el coste por gigabyte servido es excepcionalmente bajo.

Pero incorporar simplemente una flash como un nivel de almacenamiento más no aporta gran valor, ya que añade nuevos costes y complejidad. El paradigma que cambia el panorama es cuando la flash es completamente transparente para el usuario y el operador al mismo tiempo, sin conmutaciones ni costes operacionales. Y esto es lo que hacemos con ZFS. ZFS incorporará la flash en la jerarquía de memoria de los sistemas en explotación, usando la cache del microprocesador para las tareas más sensibles al rendimiento, DRAM para las siguientes, luego flash, luego disco y, por último, cinta magnética.

ZFS permitirá a la flash unirse a la DRAM y a los discos convencionales para formar una plataforma híbrida para conseguir los mejores precios, rendimiento y eficiencia energética. Simplemente, nuestros servidores y almacenamiento irán enórmemente rápidos, sin necesidades de hacer una actualización del microprocesador. Añadir una flash será como añadir memoria DRAM, que, una vez instalada, no es necesaria nueva administración, simplemente hay más capacidad.

Esta es una de las razones para estar emocionado: el coste por gigabye servido ( el coste operacional total del almacenamiento) cae en picado al incorporar la flash en la mezcla, en especial para aplicaciones intensivas en datos (como MySQL, Postgres, Oracle o SQL Server).  Partiendo de un adecuado diseño, las flash tienen el potencial de ofrecer mejoras de varios órdenes de magnitud en coste y prestaciones y, con la inminente llegada de la plataforma de base del virtualizador Sun XVM, se pueden exportar estos beneficios a otros sistemas operativos instalados sobre xVM, es decir, instalando sobre xVM una instancia de Windows, éste se puede beneficiar de las mejoras de ZFS+ flash.

La segunda barrera tiene que ver con el deterioro por escrituras de las flash. Aunque se puede leer un flash infinitas veces sin problema, grabar en una flash varios cientos de miles de veces puede degradarla.  Para una cámara no es problema, ya que es casi imposible hacer 500.000 fotos, pero en una solución empresarial ¿qué hacer?.

ZFS trata a la flash como a cualquier otro dispositivo de almacenamiento -recordemos que todos fallan- y gestiona la integridad de los datos sea cual sea la causa del problema. Cada vez mas sofisticados algoritmos de gestión del nivel de deterioro permiten maximizar la vida útil de las flash. El resumen es que con ZFS al timón, el deterioro de las flash no es un problema, aunque tanto las flash como los discos tienen límites.

Estas son las premisas que fundamentan la estrategia de Sun de Open Storage. Estamos integrando ZFS, memorias flash y algunas otras innovaciones excepcionales en hardware/silicio para ofrecer sistemas de almacenamiento y servidores de altas prestaciones, bajo consumo y uso general, acelerando cualquier software que se ejecute sobre nuestros sistemas Sparc o x86. En concreto, los usuarios de MySQL lo verán como un turboacelerador. Y por una fracción del coste de una solución NAS convencional. Nuestros primeros sistemas con flash estarán en el mercado hacia final de este año.

En línea con nuestra estrategia, ZFS y todo el software involucrado será gratis sin soporte comercial en el tradicional modelo Open Source (OpenSolaris, ZFS, MySQL y Postgress se pueden conseguir en este enlace) y hay versión también para Mac OSX.

Nuestros ingresos vendrán de aquellas empresas que quieran un soporte profesional de Sun para despliegues de misión crítica. En el lado del hardware, estamos impulsando una estrategia de prueba antes de la compra, por la que los clientes o nuestros socios de negocio pueden solicitar uno de nuestros sistemas para probar sin compromiso durante 60 días. Si le convence, lo compra. Si no, nos hacemos cargo de él.

Si lo anterior no lo hace obvio, es interesante dejar constancia de que la visión de Sun es que, dado que los precios de la energía continúan subiendo y los de las flash cayendo en picado, la combinación de flash, ZFS  e la innovación real de sistemas en base a ello tendrán un impacto en las economías de los centros de datos mayor que la virtualización.





jueves jun 05, 2008

Muchos datos pero ¿mucho conocimiento?

Comparar los datos que se generan en sanidad con los que se generan en bancos o grandes cadenas de distribución es más que una ciencia un divertimento. En todo caso el hecho es que son muchísimos en todos los casos. 

En sectores con uso intensivo de las TIC como banca, distribución o incluso buscadores, tan importante es lo que se custodia como el conocimiento que proporciona el análisis de esos datos. Los datawarehouse están a la orden del día. En el campo de la sanidad, al menos en nuestro país, el uso es escaso, en parte por el retraso de los despliegues de las historias de salud digitales. Pero esa escusa, que hace unos cinco años era real, creo que ya está quedando obsoleta.

Esta reflexión me viene a la cabeza al leer una noticia que tiene mucho de mediática: una solución de Datawarehouse consigue un Record Guiness. La pura curiosidad y el escepticismo hace que uno se vaya a leerlo. Y, tras el mundano glamour, aparece algo serio, si tenemos en cuenta el sector en que estamos y lo que a corto plazo deberá de venir.

Infozing, la consultora que escribió el test TPC-C auditó un datawarehuse creado conjuntamente por Sybase, BMMsoft y Sun como el más grande del mundo. En este enlace hay el informe completo

Para el que no le interese tanto el detalle destaco algunas cosas como que se ha conseguido un excelente ratio de compresión de la información (85%) almacenado 1 Petabyte de datos brutos en menos de 260 TB de disco,  la velocidad de carga de la base de datos lograda es de 3 millones de filas por segundo, el tiempo medio de adicción de datos al DW es inferior a 2s y que para la carga de documentos, se han conseguido ratios de carga de 2 millones de e-mails por hora y 6 millones de documentos por hora, consumiendo menos del 7% de potencia de CPU del M9000

Lo más importante es que el contexto de la prueba se diseñó lo más realista posible con 1 Petabyte, 6 billones (españoles) de filas de datos transaccionales y más de 185 millones de documentos sobre los que hacer búsquedas de información (e-mails, hojas de cálculo, informes y contenido multimedia). Por parte de Sun se utilizó la arquitectura de referencia y configuraciones de mercado.   Además, esta prueba manifiesta una capacidad de eco-eficiencia extraordinaria: se ha estimado es que la arquitectura propuesta supone un 90% de reducción en las emisiones de C02 sobre otras configuraciones de mercado.

Dicho esto y, apoyándome en la opinión el propio organismo auditor de que el contenido transaccional de esta prueba supone una cantidad de datos sin precedentes, equivalente a las transacciones procesadas a través de la red de comercio financiero mundial a lo largo de varios años y que los datos de documentos multimedia representan de una forma ajustada un volumen de comunicación electrónica entre medio millón de operadores financieros, el mensaje es claro: ¿sigue habiendo excusas para no empezar a tener buenos datawarehouse sanitarios?



About

Mi punto de vista desde mi posición en Oracle.

Los puntos de vista de este blog son míos y no necesariamente reflejan los de Oracle.

Search

Categories
Archives
« abril 2014
lunmarmiéjueviesábdom
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
    
       
Hoy