lunes nov 30, 2009

Acelerador F5100: Un interesante documento técnico

<script type="text/freezescript"> var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/freezescript"> try { var pageTracker = _gat._getTracker("UA-4618459-4"); pageTracker._trackPageview(); } catch(err) {}</script>

Mientras continúa el proceso de validación por parte de la Comisaría de la Competencia de la Unión Europea, cuyo siguiente paso es la presentación el próximo día 10 de diciembre de la posición de Oracle al documento de objeciones enviado por la CE, que esperemos acelere un trámite, que, como mucho debe de concluir el 19 de enero, hay un período de tranquilidad de novedades para concentrarse en cerrar cifras este trimestre. 

Entre tanto, el Presidente de la Comisión Europea ha hecho público su nuevo equipo que comenzará a trabajar en febrero, en el que destaca el nombramiento de Joaquín Almunia como Vicepresidente y Comisario de la Competencia, sustituyendo a Neely Kroes que pasa a Nuevas Tecnologías. En principio esto no afecta al contencioso en curso, pero no deja de ser curiosa la nueva comisaría de Kroes. Sin duda la adquisición de Sun por parte de Oracle le habrá dado la oportunidad de hacer un master previo.

Entre tanto, está disponible un detallado documento técnico sobre el acelerador F5100 anunciado en el pasado Oracle Open World y que es uno de los anuncios más importantes de los últimos tiempos por su impacto en la aceleración de bases de datos y sistemas de alta computación. Dicho documento está disponible en esta dirección y lo recomiendo sólo para los técnicos interesados en conocer a fondo la forma de multiplicar por casi cinco las prestaciones de una base de datos.

En todo caso y como aperitivo del documento escrito sugiero el vídeo de menos de diez minutos en el que se bucea en sus entresijos.



domingo oct 05, 2008

Tiempo de cosecha

Otoño es tiempo de cosechar. Supongo que es sólo una casualidad pero el mundo de la business inteligence y el del datawarehouse está en ebullición. No hace mucho, en una de mis entradas hablaba de los muchos datos que se manejan en sanidad y mis dudas sobre si realmente se extraía el conocimiento potencial que encierran.

En pleno septiembre Sun Microsystems y Greenplum anuncian el lanzamiento de solución empaquetada ("appliance" en terminología americana) basada sobre plataformas Open Source, con una arquitectura paralela en el software  basada en tecnología MapReduce y modular en la arquitectura, con rendimientos de entre 10 y 50 veces sobre plataformas de referencia y con una drástica reducción de precio. Aunque no en el mundo sanitario, se publica una importante referencia. Gartner lo considera un avance disruptivo.

La pasada semana en el Oracle World se anuncia la comercialización por parte de Oracle del Oracle Exadata como una solución empaquetada (otro appliance) sobre equipos HP bajo marca Oracle, con una mejora de 10 veces sobre plataformas de referencia.

En ambos casos se apuesta por soluciones empaquetadas como forma de optimizar el software sobre un hardware concreto y como forma de ofrecer soluciones más sencillas y económicas.

No me considero un experto en este área y dejo a los lectores que saquen sus propias conclusiones competitivas, pero no puedo dejar de resaltar:

  • La entrada de Oracle en el mundo del hardware, que me resulta especialmente sorprendente ya que no sólo crecen hacia el mundo de las soluciones de negocio sino que amplían el espectro hacia infraestructuras
  • La mayor agresividad del anuncio Sun-Greenplum (mejoras de 10 a 50) versus 10 de Oracle
  • La oferta al mercado de dos propuestas interesantes, una en la línea más Open Source con soporte, pero con opción de prueba. Otra más corporativa.
  • Constato el refuerzo del modelo de coo-petición (cooperación y competición según los casos). La cooperación entre ambas compañías sigue existiendo como se visualiza en el patrocinio del evento Cuore de Oracle, incluyendo un par de presentaciones el 23 de octubre que recomiendo. Está claro que este tema la posición es de competencia.
  • Aunque en los últimos años la sanidad se haya centrado en soluciones operativas y de recolección de datos clínicos, sin dejar de proseguir en esa línea, el mercado está ofreciendo opciones para empezar una minería de datos seria para extraer conocimiento. Y no sólo en el área de gestión administrativa, sino en la gestión clínica.


lunes jun 16, 2008

Generando valor para decidir en Salud

Del 11 al 13 de junio, se celebraron las XV Jornadas de informática Sanitaria en Andalucía, bajo el lema de "Generando valor para decidir en Salud", en las que la inteligencia colectiva se esforzó en evaluar la situación y proponer ideas para que la ingente cantidad de datos que se generan y almacenan en el entorno sanitario permitan crear conocimiento y ayudar a la toma de decisiones tanto gerenciales como en el entorno de la medicina basada en la evidencia.

Estas jornadas tienen una dinámica muy diferente a lo normal, puesto que se proponen unos temas, luego se debaten en grupos independientes de 30-40 personas y se consolidan los resultados y conclusiones. Muchas personas trabajan para que esto ocurra, pero creo de justicia destacar la labor de la Dirección Técnica de Jesús Galván y la Coordinación General de Jaime Nieto.

En la web de la SEIS y en la revista I+S aparecerán próximamente los resultados. Aquí quiero dejar constancia de algunas notas sueltas. Para empezar decir que la asistencia se repartía entre profesionales del servicio nacional de salud y de las empresas TIC presentes en el sector a un 50%. Pocos foros permiten un diálogo de verdad en las que salen a la luz las inquietudes y no quedan eclipsadas ante lo "políticamente correcto".

 En el taller T1 se debatió sobre que el nivel operativo puede descabalar cualquier estrategia, por lo que es muy importante que existan sistemas de apoyo a las decisiones asistenciales basados en la evidencia y alineados con las estrategias corporativas, la necesidad de trabajar en la incertidumbre y basarse no sólo en datos sino en tendencias, considerándose la posibilidad de que existan servicios de prospección a nivel sanitario para estar listos cuando lleguen las necesidades y la necesidad de comparabilidad a nivel del SNS.

En el taller T2  se concluyó una apuesta por SNOMED, incorporar la inteligencia a las historias clínicas, facilitar la comparabilidad y ofrecer los datos a tiempo.

En el taller T3 se consideró prioritario tener las ideas claras a nivel de estrategia, que hay herramientas adecuadas para implementarlas y hay que fijar de antemano el conocimiento que se quiere lograr, cómo hacerlo y trabajar en la adquisición de datos normalizados desde el principio.

En el taller T4, se concluyó que muchas propuestas de servicios se hacen al margen del ciudadano, no se habla su lenguaje y el paciente no siempre percibe los beneficios, siendo exigibles buenos planes de comunicación. Los nuevos servicios han de ofrecerse nada más anunciarse, ya que de lo contrario el ciudadano desconfía. Los profesionales tienen que asumir un cambio de rol en el proceso sanitario ante pacientes más informados y exigentes y no se sacó una clara conclusión sobre el nivel de información que se debe de dar al usuario.

El Defensor del Pueblo Andaluz, José Chamizo, en su amena charla nos alentó ya que el ciudadano valora positivamente el uso de las TIC en la salud.

De las conclusiones del último día y las consideraciones sobre el cuadro de mandos integral, me quedo con que se puede y debe acelerar la implantación de sistemas de inteligencia de negocio en la gestión de la salud, que los cuadros de mando han de diseñarse para medir lo que nos interesa en orden al cumplimiento de las estrategias y que es muy importante que los resultados tengan consecuencias, para que toda la organización se involucre.

Y a esperar que Jaime Nieto vuelva a coordinar las XVI jornadas.





jueves jun 05, 2008

Muchos datos pero ¿mucho conocimiento?

Comparar los datos que se generan en sanidad con los que se generan en bancos o grandes cadenas de distribución es más que una ciencia un divertimento. En todo caso el hecho es que son muchísimos en todos los casos. 

En sectores con uso intensivo de las TIC como banca, distribución o incluso buscadores, tan importante es lo que se custodia como el conocimiento que proporciona el análisis de esos datos. Los datawarehouse están a la orden del día. En el campo de la sanidad, al menos en nuestro país, el uso es escaso, en parte por el retraso de los despliegues de las historias de salud digitales. Pero esa escusa, que hace unos cinco años era real, creo que ya está quedando obsoleta.

Esta reflexión me viene a la cabeza al leer una noticia que tiene mucho de mediática: una solución de Datawarehouse consigue un Record Guiness. La pura curiosidad y el escepticismo hace que uno se vaya a leerlo. Y, tras el mundano glamour, aparece algo serio, si tenemos en cuenta el sector en que estamos y lo que a corto plazo deberá de venir.

Infozing, la consultora que escribió el test TPC-C auditó un datawarehuse creado conjuntamente por Sybase, BMMsoft y Sun como el más grande del mundo. En este enlace hay el informe completo

Para el que no le interese tanto el detalle destaco algunas cosas como que se ha conseguido un excelente ratio de compresión de la información (85%) almacenado 1 Petabyte de datos brutos en menos de 260 TB de disco,  la velocidad de carga de la base de datos lograda es de 3 millones de filas por segundo, el tiempo medio de adicción de datos al DW es inferior a 2s y que para la carga de documentos, se han conseguido ratios de carga de 2 millones de e-mails por hora y 6 millones de documentos por hora, consumiendo menos del 7% de potencia de CPU del M9000

Lo más importante es que el contexto de la prueba se diseñó lo más realista posible con 1 Petabyte, 6 billones (españoles) de filas de datos transaccionales y más de 185 millones de documentos sobre los que hacer búsquedas de información (e-mails, hojas de cálculo, informes y contenido multimedia). Por parte de Sun se utilizó la arquitectura de referencia y configuraciones de mercado.   Además, esta prueba manifiesta una capacidad de eco-eficiencia extraordinaria: se ha estimado es que la arquitectura propuesta supone un 90% de reducción en las emisiones de C02 sobre otras configuraciones de mercado.

Dicho esto y, apoyándome en la opinión el propio organismo auditor de que el contenido transaccional de esta prueba supone una cantidad de datos sin precedentes, equivalente a las transacciones procesadas a través de la red de comercio financiero mundial a lo largo de varios años y que los datos de documentos multimedia representan de una forma ajustada un volumen de comunicación electrónica entre medio millón de operadores financieros, el mensaje es claro: ¿sigue habiendo excusas para no empezar a tener buenos datawarehouse sanitarios?



About

Mi punto de vista desde mi posición en Oracle.

Los puntos de vista de este blog son míos y no necesariamente reflejan los de Oracle.

Search

Categories
Archives
« abril 2014
lunmarmiéjueviesábdom
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
    
       
Hoy