viernes mar 11, 2011

Invitación al evento "CPD de la Siguiente Generación"

<script type="text/freezescript">var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Entre el aniversario del 11-M y el tsunami de Japón hoy definitivamente no es un día muy motivante. Espero que por el contrario lo que se va a presentar el próximo día 6 de abril en el Palacio de la Bolsa sito en la Plaza de la Lealtad 1, Madrid, sea lo suficiente atractivo para poder empezar a pensar en un nuevo paradigma de centro de proceso de datos que de soluciones a los más exigentes rendimientos, con importantes retornos de las inversiones y los niveles de elasticidad ante la demanda, seguridad, reducción de espacio y consumo que hoy se necesitan.

Adjunto la invitación oficial desde podéis acceder a todos los detalles y a la inscripción


Oracle Corporation


Participe en este evento exclusivo

Madrid, 6 de abril


Construya un centro de datos más potente y eficaz con Oracle

Asista a este evento de Oracle y le mostraremos cómo rentabilizar al máximo sus inversiones informáticas de forma inmediata y sentar unas bases sólidas para su infraestructura de cloud privada. Le esperamos para poder compartir más información sobre las revolucionarias tecnología que Oracle aporta en el Centro de Datos.

Las ventajas del cloud computing son indudables. Los profesionales de la informática llevan soñando desde hace tiempo con la gran eficiencia que ofrecen las funciones de automatización y autoservicio de este tipo de sistemas, pero muchos proyectos no llegan a despegar debido a un obstáculo que entraña un alto riesgo técnico y financiero: la falta de soluciones integradas de cloud computing. Por ello, es normal que muchos directores de sistemas prefieran concentrarse en objetivos a corto plazo y seguir la evolución de las soluciones de cloud computing desde una distancia prudencial.

Ahora, por primera vez en la historia de la informática, Oracle pone a su disposición una completa gama de tecnologías para centros de datos con la que todo son ventajas, pues resuelve sus necesidades a corto plazo y, además, permite pasarse al cloud computing de forma rápida y fiable.

Muchos de nuestros clientes ya disfrutan de las ventajas de Exadata 2.0, la velocísima plataforma de bases de datos que se ha convertido en el producto de mayor crecimiento de la historia de Oracle. Dada la eficacia que ha demostrado, hemos empleado las tecnologías que lo componen (servidores eficientes, almacenamiento ultrarrápido, memoria flash y redes de alto rendimiento) como base para crear el nuevo SPARC Supercluster y la plataforma Exalogic. De este modo, se eliminan los cuellos de botella habituales en los centros de datos y las aplicaciones funcionan con un rendimiento mucho mayor, lo que supone las siguientes ventajas:

  • las inversiones en informática ofrecen la máxima rentabilidad;
  • la energía y el espacio del centro de datos se aprovechan al máximo; y
  • la eficiencia operativa mejora de forma considerable gracias a la estandarización de la infraestructura informática.

La potencia de estas tecnologías ha quedado sobradamente demostrada en los resultados de las pruebas TPC-C, en las que superaron el anterior récord de transacciones en nada menos que un 200%.

Inscríbase ahora!

Para cualquier aclaración, por favor, envíe un correo a maria.simon@ketchumpleon.com.
Agenda
9.00 - 09.30 Café y Registro
9.30 - 10.00 Bienvenida
10.00 - 10.45 Keynote: Centros de datos de última generación
El máximo rendimiento, los productos líderes del sector, excelente para su negocio.
10.45 - 11.00

Pausa y café


TRACK 1:
Hardware & Software:
Engineered to work together

TRACK2:
Almacenamiento de máximo rendimiento

11.00 - 11.45

Incremento del ROI con la infraestructura de Oracle

Sistemas de almacenamiento empresarial:
la máxima eficiencia y la mayor simplicidad

11.45 - 12.30

Optimización de la utilización y agilidad con el Software de Sistemas de Oracle

Cómo mejorar la eficiencia del almacenamiento
en entornos de servidores virtualizados

12:30 - 13:15

Alta disponibilidad y escalabilidad en la Base de Datos de Oracle

Cómo mejorar al máximo el rendimiento de las aplicaciones de bases de datos mediante memorias flash y unidades SSD

13.15 - 14.30

Almuerzo

14:30 - 15:15

Máximo rendimiento en el Middleware de Oracle

Arquitecturas de archivo optimizadas

15:15 - 16:00

Experiencia de usuario optimizada en las aplicaciones de Oracle

Prácticas recomendadas para proteger el contenido de las bases de datos

16:00

Cierre

Copyright © 2011, Oracle. All rights reserved.

Contact Us | Legal Notices and Terms of Use | Privacy Statement
<script src="http://platform.twitter.com/widgets.js" type="text/freezescript"></script>

jueves abr 15, 2010

El empuje de Oracle se nota en la tecnología adquirida de Sun

<script type="text/freezescript">var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Ya sé que los benchmarks y los records mundiales vienen y van, pero en el poco tiempo desde la adquisición de Sun por Oracle, el impulso se está notando, entre otras muchas cosas, en la cultura de acudir a pruebas de evaluación independientes que ponen en valor las tecnologías que se ofrecen al mercado.

Y traigo a este rincón un par de records que tienen como protagonista o actor colaborador al sistema acelerador F5100 basado en la tecnología Oracle FlashFire, de la que ya he hablado varias veces en este blog. A una de ellas remito a los lectores interesados en detalles técnicos.

Uno de ellos es el SPC-1C Performance, datado del 13 de abril. Los detalles y su mejora sobre el récord anterior lo avanzo en foto adjunta, pero creo que es importante acudir a las fuentes originales para entender todos los detalles, por lo que remito a la revisión de resultados de SPC y los resúmenes ejecutivos de las pruebas por parte de Oracle e IBM respectivamente.

Para valorar el significado práctico de este test, diremos que Storage Performance Council es una corporación sin ánimo de lucro fundada para definir, estandarizar y promover bancos de prueba de subsistemas de almacenaje, así como publicar datos de prestaciones objetivos y verificables a la industria y a los clientes.

El SPC-1C es el primer benchmark a nivel de componente definido por SPC y aplicable a un amplio espectro de productos de almacenaje como discos, adaptadores de bus (HBAs) y software de almacenaje. El SPC-1C utiliza una carga de trabajo diseñada para evaluar las prestaciones del componente de almacenaje realizando funciones típicas de aplicaciones críticas de negocio, caracterizadas por un predominio de operaciones de E/S aleatorias con consultas y actualizaciones. Ejemplos de este tipo de aplicaciones son las de OLTP, operaciones de base de datos e implementaciones de servidores de correo.

Las configuraciones de las pruebas han de incluir uno o más controladores y hasta cuatro dispositivos de almacenaje. En la categoría de "Subsistemas de Almacenaje Pequeños" la configuración ha de ocupar como mucho 4U.

Como se puede ver en la imagen adjunta la mejora de prestaciones absoluta es casi 7 veces mejor y el tiempo de respuesta se rebaja un 28%.

La otra marca viene del benchmark TPC-H @3000GB. El Transaction Processing Performance Council (TPC) es una corporación sin ánimo de lucro creada para definir bancos de prueba de procesos transaccionales y de bases de datos y publicar datos objetivos y verificables a la industria. Por transacciones a nivel de computación se entiende una serie de operaciones como lecturas/escrituras de disco, llamadas al sistema operativo o algún tipo de trasferencia de datos de un subsistema a otro. Para TPC una transacción típica incluye la actualización de un sistema de base de datos para actividades como control de inventarios, reserva de plazas en una aerolínea o movimientos bancarios.

El TPC Benchmark™H (TPC-H) es un banco de pruebas de sistemas de soporte a la decisión. Consiste en una serie de consultas y modificaciones concurrentes sobre una base de datos con relevancia para un amplio espectro de la actividad industrial. Este benchmark en particular trabaja sobre grandes volúmenes de datos y ejecuta consultas con un alto grado de complejidad.

El resultado se llama "TPC-H Composite Query-per-Hour Performance Metric (QphH@Size)" y refleja múltiples aspectos de la capacidad del sistema para ejecutar consultas, así como el como el precio/prestaciones, medido en $/QphH@Size.

La mejor marca mundial TPC-H @3000GB no cluster,  se ha publicado el 10 de abril y la información ejecutiva completa se puede consultar aquí. El resultado global y el acceso a otros resúmenes ejecutivos se puede encontrar en esta dirección.

Lo que quiero destacar es que la configuración utilizada constaba de un servidor Sun SPARC Enterprise M9000, 512 GB de memoria, 32 x Sun Storage J4200 arrays (32x 12 x 600 GB), 2 x StorageTek 6140 Arrays (2x 16 x 300 GB) y 1 x Sun Storage F5100 Flash Array (80 x 24 GB). El sistema operativo era Oracle Solaris 10 10/09 y la base de datos  Oracle 11g Release 2 Enterprise Edition.

Una vez más el array F5100 forma parte de la solución, siendo utilizado para la ubicación de índices por su baja latencia.

En resumen, por más que el proceso de compra de Sun por parte de Oracle se haya alargado más de lo esperado, tiempo que ha servido para generar especulaciones y miedos sin base real, se ha seguido trabajando en ingeniería y la nueva etapa bajo dirección de Oracle empieza a presentar sus frutos. Estos dos resultados son especialmente interesantes por su aplicación directa en la amplia base instalada en administración pública y sanidad.




miércoles oct 14, 2009

Importante record mundial TPC-C de Sun-Oracle anunciado en el Oracle Open World

<script type="text/freezescript"> var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Está claro que un evento como el Oracle Open World en pleno proceso de compra de Sun era el momento oportuno para hacer importantes anuncios.Y, por ahora, van dos.

Uno tecnológico, con el lanzamiento del Sun Storage F5100 Flash Array con tecnología FlashFire, ya incorporada en el recién anunciado Exadata V2. Este sistema es un acelerador de bases de datos que permite superar la barrera del millón de I/O en un dispositivo de 1U de altura. Está pensado para acelerar tanto la base de datos Oracle como MySQL optimizando arquitecturas para obtener mejores prestaciones a menor precio. Información tanto ejecutiva como técnica aquí.

Y como la mejor manera de poner en valor una innovación es probándola, se anunció el resultado del benchmark TPC-C que supone un importante avance de un 26% de mejora sobre el anterior en poder de IBM y Bull, pasando de los 6,085 millones de transacciones por minuto a las 7,717 millones de Sun con Oracle Database 11g sobre servidores Sun SPARC Enterprise T5440 -tecnología CMT- corriendo Solaris 10 y el antes mencionado Sun Storage F5100 Flash Array, entre otros componentes. Detalle de los resultados y configuraciones aquí.

Los tests TPC-C han evolucionado refinando sus reglas para ofrecer una credibilidad grande, aunque la mejor comparación para un cliente siempre sería sobre una configuración concreta para un SI concreto. No obstante, se han ido incorporando mejoras que validan su credibilidad. Para mi la más importante son los criterios de certificación del precio.

Aunque muchos ya lo conocerán o lo pueden leer con detalle aquí, me gustaría resaltar que las pruebas se realizan sobre unas condiciones que simulan lo mejor posible un contexto transaccional de una corporación con miles o millones de usuarios concurrentes, con un porcentaje mínimo de cada tipo de transacciones, excepto del tipo de inclusión de nuevos pedidos que es el que realmente fija el resultado.

La arquitectura sobre la que se hacen las pruebas ha de tener características empresariales de seguridad y disponibilidad y estar dimensionada para soportar durante 180 días la carga de trabajo que establezca la marca de transacciones que se obtenga.

Para simular el trabajo real se han de incorporar una granja de servidores en donde se simulan los clientes que actúan con la mezcla de transacciones pedidas por las reglas. Estos sistemas y todo el hardware y software directa o indirectamente utilizado también forman parte del precio total valorado.

El resultado de la prueba es una medida de caudal (throughput) con unos tiempos de respuesta máximos que son los que limitan el resultado. Es decir, la cifra que vale es la mayor que cumple un tiempo de respuesta máximo para la transacción de entrada de pedido de 5 seg. Es obvio que hay que tomar decisiones sobre las dimensiones óptimas ya que se mide no sólo es el número de transacciones sino también el precio por transacción. Otras medidas de segundo nivel también son recogidas en las pruebas, en especial los tiempos medios de respuesta.

Y, por supuesto, el benchmark ha de estar auditado por un consultor independiente que valida el desarrollo de la prueba y la veracidad del informe. La complejidad y coste de todo este montaje explica por que no se hacen estos benchmarks para cada producto o solución que se lanza al mercado.

Tras este preámbulo que espero haya servido para poner en contexto los resultados, los hitos más relevantes son:

  • 7,717 millones de transacciones por minuto de Sun-Oracle con un cluster de 12 Sun SPARC Enterprise T5440 contra los 6,085 millones de transacciones por minuto de IBM-DB2 sobre IBM 595 Server, con un 26% de mejora
  • $2.34/tpmC de la configuración Sun-Oracle que mejora los $2.81tpmC de IBM
  • Tiempo medio de respuesta de 0,075seg de Sun-Oracle contra 1,22seg de IBM, con una mejora de 16 veces
  • Cuatro veces menos consumo energético a pesar de un caudal de transacciones 26% mayor
  • Ocho veces menos espacio que la correspondiente configuración de IBM
En fin, un buen record para una configuración que simula una organización con más de 6 millones de usuarios trabajando....

jueves jun 05, 2008

Muchos datos pero ¿mucho conocimiento?

Comparar los datos que se generan en sanidad con los que se generan en bancos o grandes cadenas de distribución es más que una ciencia un divertimento. En todo caso el hecho es que son muchísimos en todos los casos. 

En sectores con uso intensivo de las TIC como banca, distribución o incluso buscadores, tan importante es lo que se custodia como el conocimiento que proporciona el análisis de esos datos. Los datawarehouse están a la orden del día. En el campo de la sanidad, al menos en nuestro país, el uso es escaso, en parte por el retraso de los despliegues de las historias de salud digitales. Pero esa escusa, que hace unos cinco años era real, creo que ya está quedando obsoleta.

Esta reflexión me viene a la cabeza al leer una noticia que tiene mucho de mediática: una solución de Datawarehouse consigue un Record Guiness. La pura curiosidad y el escepticismo hace que uno se vaya a leerlo. Y, tras el mundano glamour, aparece algo serio, si tenemos en cuenta el sector en que estamos y lo que a corto plazo deberá de venir.

Infozing, la consultora que escribió el test TPC-C auditó un datawarehuse creado conjuntamente por Sybase, BMMsoft y Sun como el más grande del mundo. En este enlace hay el informe completo

Para el que no le interese tanto el detalle destaco algunas cosas como que se ha conseguido un excelente ratio de compresión de la información (85%) almacenado 1 Petabyte de datos brutos en menos de 260 TB de disco,  la velocidad de carga de la base de datos lograda es de 3 millones de filas por segundo, el tiempo medio de adicción de datos al DW es inferior a 2s y que para la carga de documentos, se han conseguido ratios de carga de 2 millones de e-mails por hora y 6 millones de documentos por hora, consumiendo menos del 7% de potencia de CPU del M9000

Lo más importante es que el contexto de la prueba se diseñó lo más realista posible con 1 Petabyte, 6 billones (españoles) de filas de datos transaccionales y más de 185 millones de documentos sobre los que hacer búsquedas de información (e-mails, hojas de cálculo, informes y contenido multimedia). Por parte de Sun se utilizó la arquitectura de referencia y configuraciones de mercado.   Además, esta prueba manifiesta una capacidad de eco-eficiencia extraordinaria: se ha estimado es que la arquitectura propuesta supone un 90% de reducción en las emisiones de C02 sobre otras configuraciones de mercado.

Dicho esto y, apoyándome en la opinión el propio organismo auditor de que el contenido transaccional de esta prueba supone una cantidad de datos sin precedentes, equivalente a las transacciones procesadas a través de la red de comercio financiero mundial a lo largo de varios años y que los datos de documentos multimedia representan de una forma ajustada un volumen de comunicación electrónica entre medio millón de operadores financieros, el mensaje es claro: ¿sigue habiendo excusas para no empezar a tener buenos datawarehouse sanitarios?



About

Mi punto de vista desde mi posición en Oracle.

Los puntos de vista de este blog son míos y no necesariamente reflejan los de Oracle.

Search

Categories
Archives
« abril 2014
lunmarmiéjueviesábdom
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
    
       
Hoy