miércoles feb 02, 2011

Oracle presenta una cinta de 5TB para grandes generadores de datos

<script type="text/freezescript">var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Oracle acaba de anunciar una cinta de 5TB y 240MB/s de caudal nativos que viene a facilitar la vida a organizaciones que manejan una gran cantidad de datos. ¿Conocéis alguna?. Es evidente que uno de los escenarios es el entorno sanitario donde se genera gran cantidad de datos multimedia que contienen información que hay que asegurar y preservar durante largos períodos de tiempo. Y la situación no hace más que empeorar ya que cada vez las imágenes son más y más voluminosas.

Para aquellos que no se encargan de estos temas tan poco vistosos quizás no les parezca importante pero si consideramos que su capacidad multiplica por 3 la tecnología existente a la fecha y es más rápida en un 50% a un 70% que cualquier otro tipo, incluidas la LTO-5 y la IBM TS1130, podemos poner en valor lo que implica de ahorros en espacio y en reducción de los tiempos que se necesitan para el backup.

Otro tema que me trae a la memoria la preservación de datos es la inviabilidad económica y la insostenibilidad ecológica de seguir poniendo discos y discos a girar para tener una información que se usa esporádicamente. Por eso, los modelos de estratificación del almacenamiento con adaptación de las prestaciones y el precio al uso y necesidad de los datos se están imponiendo de forma clara. En este contexto el último nivel lo ocupan las cintas, y una solución como la T10000C simplifica y mejora radicalmente las prestaciones de esta capa.

En el caso de archivos de sistemas abiertos, el software Oracle’s Sun Storage Archive Manager (SAM) ofrece una gestión sencilla de datos sobre distintos niveles de discos y cintas, basada en políticas definidas por el usuario. Dicho software está implantado en bastantes grandes PACS a nivel mundial.

En el caso del Oracle Exadata Database Machine, el Oracle StorageTek T10000C disminuye la ventana de backup en un 33%.

La solución incluye encriptación en línea, de forma transparente para las aplicaciones y sin impacto en el rendimiento, lo que es un valor añadido cara a políticas de cumplimiento de la LOPD (artículos 92.3, 101.2 y 102 del reglamento RD1720/2007 que la desarrolla).

A nivel anecdótico las soluciones Oracle StorageTek son las primeras en alcanzar la cifra del Exabyte (1.000 Petabytes) usando una compresión de 2:1. Digo lo de anecdótico porque me acuerdo de que hace 10 años pensábamos como algo inalcamzable el TB, ahora ya se habla de PB y no creo que pase mucho tiempo para estar asentados en el PB y vislumbrando el EB.

Información completa para los interesados en este enlace.

<script src="http://platform.twitter.com/widgets.js" type="text/freezescript"></script>



miércoles jul 28, 2010

Oracle: Almacenamiento estructurado para ahorrar en tiempo de crisis

<script type="text/freezescript">var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Cuando el consumo de gasolina no preocupaba, lo importante era tener un coche muy grande y potente. Hoy el consumo forma parte importante de la decisión. Cuando las casas eran un bien especulativo el precio era lo de menos si había un crédito asumible. Hoy el crédito es fácil y se compra mucho más para habitarla que como inversión, por lo que prima la adaptación de la vivienda a las necesidades.

Podría seguir con muchos más ejemplos, pero creo que no hace falta. En sanidad ocurre una cosa curiosa, debido al retraso comparativo de la digitalización de la historia clínica. Y es que se vivía en el día a día. Lo importante era lanzarla y consolidarla y para ello se buscaba el almacenamiento más potente

Pero hemos alcanzado el punto de no retorno ("tipping point") y tenemos ya mucha información y, además, cada vez crece más y encima hay que conservarla por mucho tiempo y no hay plan B en papel o película. El almacenamiento de altas prestaciones es muy bueno, pero también es costoso, consume mucha energía y ocupa mucho espacio.

Por otra parte, el acceso al 90% de la información decrece radicalmente tras pocos meses. ¿Tiene sentido seguir conservando esa información y sus copias de respaldo en un soporte muy rápido, pero que crece inexorablemente y consume cada vez más?. ¿Tiene sentido tener un potenente 4x4 aparcado sin usar en el garaje por si algún día queremos hacer un viaje de varios meses por la Europa oriental?. Posiblemete la respuesta a las dos preguntas es la misma: no es la mejor solución desde el punto de vista de eficiencia económica.

Desde Oracle se viene proponiendo pensar en el uso y necesidades de la información, si es estructurada o no y decidir una estrategia de adaptar las tecnologías a las necesidades. En sanidad hay mucha información no estructurada y que su acceso es muy pequeño tras cierto tiempo. Pensemos en imagen médica, vídeo, documentos pdf, o, simplemente correos.

Si pensamos en implantar soluciones con un primer nivel de máxima velocidad de acceso, un segundo con buena velocidad pero muho más económico y un tercero en una librería de cintas en que se pueda ofrecer respuestas de segundos si está cargado o minutos si está en una cinta externa, estaremos disponiendo de niveles de servicio muy razonables y con una alineación de coste por GB que baja varios órdenes de magnitud por nivel, con lo que el coste global se reduce mucho, el consumo no crece o, incluso, disminuye y además tenemos un modelo sostenible en el tiempo, ya que seguro que las tecnologías cambiarán pero el modelo es consistente.

Oracle ofrece soluciones para todos los niveles y recientemente ha anunciado importantes mejoras en su familia Unified Storage que pueden cubrir el primer o segundo nivel. Del tercero ya he hablado recientemente y remito a esa entrada aquí. Los sistemas Sun Storage 7000 forman parte de la oferta de soluciones completas listas para permitir a los clientes crecer en sus soluciones convencionales o en modelos cloud computing.

Las mejoras incluyen la incorporación de la deduplicación de datos en línea que completa la compresión en línea ya existente, soporte de protocolo Fiber Channel a 4 y 8 Gbit/seg, múltiples pools de almacenamiento y los nuevos discos SAS de 1 y 2 TB que permiten alcanzar la capacidad máxima de 576 TB.

Estas mejoras ayudan a reducir severamente los costes del almacenamiento de datos, consolidar y gestionar datos con gran eficiencia, conectar los Sun Storage 7000 Systems a SANs con Fiber Channel y mejorar la capacidad y disponibilidad. Las potentes capacidades de diagnóstico y monitorización de DTrace Analytics se extienden a las conexiones Fiber Channel, lo que permite optimizaciones de rendimiento sin parangón al identificar los cuellos de botella y gestionar eficazamente los recuros y provisionar las prestaciones de los aceleradores Flash sin procesos de prueba y error.

Como parte de la estrategia de Oracle de ofrecer sistemas completos, abiertos e integrados, la línea Sun Storage 7000 System Product Line está diseñada y soportada con Oracle Solaris, Oracle Enterprise Linux, Oracle VM, Oracle Database 11g, Oracle Applications, Oracle Fusion Middleware y los productos software provinientes de Sun System, así como muchos otros productos de terceros. Por ejemplo, Oracle Enterprise Manager 11g permite un diagnóstico simplificado de los problemas de las aplicaciones y el impacto del almacenamiento durante el despliegue de las aplicaciones y de la base de datos.

Información del anuncio aquí y de las características de la familia Sun Storage 7000 Systems aquí.



viernes nov 07, 2008

Hospital El Cruce: Una punta de lanza de la Sanidad Pública argentina

Desgraciadamente el panorama de penetración de la informática sanitaria en el sector público en muchos países latinoamericanos no es muy alentador. Por eso, cuando encuentras una muy atractiva excepción y que, además confía en la infraestructura de Sun, no queda más remedio que hablar de ello.

El Hospital El Cruce, en uno de los cinturones externos del gran Buenos Aires, es un hospital de Alta Complejidad que trabaja en red con otros cinco de su área y que ha nacido hace menos de un año para concentrar los servicios complejos que complementan los más convencionales que proveen los otros cinco hospitales a los casi 2.000.000 de ciudadanos de la zona. Es, por tanto, un hospital de referencia, cuyos pacientes vienen por derivación. Para conocer más sobre el hospital pulse aquí.

Y unos servicios complejos necesitan de una interoperatividad y una universalidad de acceso seguro y con movilidad. Decenas de terminales ultraligeros pueblan las diferentes salas y entornos, en donde los profesionales acceden a la red de forma segura y sin riesgo de pérdida de la confidencialidad de los datos. Toda la imagen está informatizada y prácticamente la mayor parte de los servicios centrales y órdenes médicas tienen una integración y un flujo de trabajo que se apoya en JCAPS. El sistema de gestión hospitalaria y de historia clínica electrónica Galileo está muy parametrizado para ellos y realizado en open source.

Una vez consolidado el arranque y la aceptación por los usuarios, viene la fase de mejoras, ampliaciones y consolidadción de estructuras, procesos de seguridad integral, etc. El pasado 29 de octubre, un grupo de Sun, encabezado por el Director de Sanidad y Administraciones Públicas Joërg Schwarz se reunió con los responsables del proyecto encabezados por el Dr. Mariano Puentes, Director de Procesos Técnicos Asistaencales, Patricia Zarrate, responsable de Comuniacón y Damián Albano, responsable de S.I. para reforzar la colaboración cara a consolidar el liderazgo del Hospital El Cruce como una referencia Latinoamericana y apoyar la posible replicación del modelo. Pulsar aquí para ver la galería completa de fotos.




jueves jun 05, 2008

Muchos datos pero ¿mucho conocimiento?

Comparar los datos que se generan en sanidad con los que se generan en bancos o grandes cadenas de distribución es más que una ciencia un divertimento. En todo caso el hecho es que son muchísimos en todos los casos. 

En sectores con uso intensivo de las TIC como banca, distribución o incluso buscadores, tan importante es lo que se custodia como el conocimiento que proporciona el análisis de esos datos. Los datawarehouse están a la orden del día. En el campo de la sanidad, al menos en nuestro país, el uso es escaso, en parte por el retraso de los despliegues de las historias de salud digitales. Pero esa escusa, que hace unos cinco años era real, creo que ya está quedando obsoleta.

Esta reflexión me viene a la cabeza al leer una noticia que tiene mucho de mediática: una solución de Datawarehouse consigue un Record Guiness. La pura curiosidad y el escepticismo hace que uno se vaya a leerlo. Y, tras el mundano glamour, aparece algo serio, si tenemos en cuenta el sector en que estamos y lo que a corto plazo deberá de venir.

Infozing, la consultora que escribió el test TPC-C auditó un datawarehuse creado conjuntamente por Sybase, BMMsoft y Sun como el más grande del mundo. En este enlace hay el informe completo

Para el que no le interese tanto el detalle destaco algunas cosas como que se ha conseguido un excelente ratio de compresión de la información (85%) almacenado 1 Petabyte de datos brutos en menos de 260 TB de disco,  la velocidad de carga de la base de datos lograda es de 3 millones de filas por segundo, el tiempo medio de adicción de datos al DW es inferior a 2s y que para la carga de documentos, se han conseguido ratios de carga de 2 millones de e-mails por hora y 6 millones de documentos por hora, consumiendo menos del 7% de potencia de CPU del M9000

Lo más importante es que el contexto de la prueba se diseñó lo más realista posible con 1 Petabyte, 6 billones (españoles) de filas de datos transaccionales y más de 185 millones de documentos sobre los que hacer búsquedas de información (e-mails, hojas de cálculo, informes y contenido multimedia). Por parte de Sun se utilizó la arquitectura de referencia y configuraciones de mercado.   Además, esta prueba manifiesta una capacidad de eco-eficiencia extraordinaria: se ha estimado es que la arquitectura propuesta supone un 90% de reducción en las emisiones de C02 sobre otras configuraciones de mercado.

Dicho esto y, apoyándome en la opinión el propio organismo auditor de que el contenido transaccional de esta prueba supone una cantidad de datos sin precedentes, equivalente a las transacciones procesadas a través de la red de comercio financiero mundial a lo largo de varios años y que los datos de documentos multimedia representan de una forma ajustada un volumen de comunicación electrónica entre medio millón de operadores financieros, el mensaje es claro: ¿sigue habiendo excusas para no empezar a tener buenos datawarehouse sanitarios?



martes may 06, 2008

Cataluña digitaliza su imagen médica

La sanidad catalana presentó ayer en el acogedor marco del Departament de Salut hospedado en un precioso edificio histórico de una maternidad el Plan para la Digitalización de la Imagen Médica en toda Cataluña cuyos objetivos son mejorar el acceso del ciudadano a estas tecnologías, hacer un uso adecuado de la imagen médica, lograr la coordinación y cooperación entre instituciones y potenciar el desarrollo de sistemas de información en el ámbito de la digitalización de la imagen.

El plan pretende logra que en el 2010 toda la imagen radiológica esté digitalizada y disponible y para ello contempla actuaciones no solo técnicas sino de gestión del cambio, calidad y rediseño de procesos, estandarización y total integración de la imagen en la Historia Clínica Compartida de Cataluña (HCC), como resaltó la Director General de Planificación, Dra. Mª Luisa de la Puente.

Juan Guanyabnes introdujo el Programa de digitalización de imagen en el marco de este Plan y de la HCC y resaltó que parte del camino ya está hecho pero hay bastante trabajo por hacer, sobre todo en el tema de accesibilidad de la imagen, para tener una red totalmente operativa en el 2010. Tomando como base el 2005, estaríamos hablando de un sistema que superaría los 130TB/año.

Carles Rubies, como director del programa, resaltó que se apoyarían en los fondos del programa Red.es para dotar de la infraestructura de los PACS principales, los PACS caché (atención primaria o pequeños hospitales que concentran en PACS principal), el backup y luego los servicios de puesta en marcha y primer año para garantizar la consolidación de proyectos. Respecto al software, resaltó el acuerdo con UDIAT que permitirá disponer de licencias sin coste para la red y de venideros acuerdos sobre visores. 

Todo este proceso vía Red.es va rápido, ya que las fondos caducan a fin de 2008. Parece que la contratación será como hasta ahora con un mínimo y un máximo, depende del número de instituciones que se acojan, ya que hay que co-financiar al 50% y garantizar su compromiso de despliegue e integración con la HCC.

Personalmente tengo curiosidad por ver el impacto de la nueva Ley de Contratos de las Administraciones Públicas en el sofisticado sistema de contratación de Red.es

 



About

Mi punto de vista desde mi posición en Oracle.

Los puntos de vista de este blog son míos y no necesariamente reflejan los de Oracle.

Search

Categories
Archives
« abril 2014
lunmarmiéjueviesábdom
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
    
       
Hoy