lundi oct. 01, 2012

#OOW 2012 : IaaS, Private Cloud, Multitenant Database, and X3H2M2

The title of this post is a summary of the 4 announcements made by Larry Ellison today, during the opening session of Oracle Open World 2012... To know what's behind X3H2M2, you will have to wait a little, as I will go in order, beginning with the IaaS - Infrastructure as a Service - announcement.

Oracle IaaS goes Public... and Private...

Starting in 2004 with Fusion development, Oracle Cloud was launch last year to provide not only SaaS Application, based on standard development, but also the underlying PaaS, required to build the specifics, and required interconnections between applications, in and outside of the Cloud. Still, to cover the end-to-end Cloud  Services spectrum, we had to provide an Infrastructure as a Service, leveraging our Servers, Storage, OS, and Virtualization Technologies, all "Engineered Together".

This Cloud Infrastructure, was already available for our customers to build rapidly their own Private Cloud either on SPARC/Solaris or x86/Linux... The second announcement made today bring that proposition a big step further : for cautious customers (like Banks, or sensible industries) who would like to benefits from the Cloud value of "as a Service", but don't want their Data out in the Cloud... We propose to them to operate the same systems, Exadata, Exalogic & SuperCluster, that are providing our Public Cloud Infrastructure, behind their firewall, in a Private Cloud model.

Oracle 12c Multitenant Database

This is also a major announcement made today, on what's coming with Oracle Database 12c : the ability to consolidate multiple databases with no extra additional  cost especially in terms of memory needed on the server node, which is often THE consolidation limiting factor. The principle could be compare to Solaris Zones, where, you will have a Database Container, who is "owning" the memory and Database background processes, and "Pluggable" Database in this Database Container. This particular feature is a strong compelling event to evaluate rapidly Oracle Database 12c once it will be available, as this is major step forward into true Database consolidation with Multitenancy on a shared (optimized) infrastructure.

X3H2M2, enabling the new Exadata X3 in-Memory Database

Here we are :  X3H2M2 stands for X3 (the new version of Exadata announced also today) Heuristic Hierarchical Mass Memory, providing the capability to keep most if not all the Data in the memory cache hierarchy. Of course, this is the major software enhancement of the new X3 Exadata machine, but as this is a software, our current customers would be able to benefit from it on their existing systems by upgrading to the new release. But that' not the only thing that we did with X3, at the same time we have upgraded everything :

  • the CPUs, adding more cores per server node (16 vs. 12, with the arrival of Intel E5 / Sandy Bridge),
  • the memory with 256GB memory as well per node,
  •  and the new Flash Fire card, bringing now up to 22 TB of Flash cache.

All of this 4TB of RAM + 22TB of Flash being use cleverly not only for read but also for write by the X3H2M2 algorithm... making a very big difference compare to traditional storage flash extension.

But what does those extra performances brings to you on an already very efficient system: double your performances compare to the fastest storage array on the market today (including flash) and divide you storage price x10 at the same time... Something to consider closely this days... Especially that we also announced the availability of a new Exadata X3-2 8th rack : a good starting point.

As you have seen a major opening for this year again with true innovation. But that was not the only thing that we saw today, as before Larry's talk, Fujitsu did introduce more in deep the up coming new SPARC processor, that they are co-developing with us. And as such Andrew Mendelsohn - Senior Vice President Database Server Technologies came on stage to explain that the next step after I/O optimization for Database with Exadata, was to accelerate the Database at execution level by bringing functions in the SPARC processor silicium. All in all, to process more and more Data... The big theme of the day... and of the Oracle User Groups Conferences that were also happening today and where I had the opportunity to attend some interesting sessions on practical use cases of Big Data one in Finances and Fraud profiling and the other one on practical deployment of Oracle Exalytics for Data Analytics.

In conclusion, one picture to try to size Oracle Open World


... and you can understand why, with such a rich content... and this is only the first day !

mercredi déc. 09, 2009

Etat des lieux du Cloud en France

Translate in English

Mardi dernier a eu lieu à Paris la 3ième édition du CloudStorm (après Bruxelles et Londres). Evénement destiné à présenter les solutions existantes aujourd'hui dans le Cloud Computing. Une occasion à ne pas manquer pour faire un état des lieux, 6 mois après le Cloud Camp de Paris.

Dans ce mouvement de remise en cause des modèles informatiques, il est clair que les solutions SaaS sont  maintenant bien présentes et matures, notamment pour ce qui est des offres d'outils de collaboration en ligne.

La problématique d'intégration reste toutefois une question fondamentale entre les applications SaaS (Software as a Service) et les applications internes de l'Entreprise, et a fortiori sur l'infrastructure supportant les services SaaS. Les critères de scalabilité qui s'appliquent aux SaaS, doivent s'appliquer à l'infrastructure qui les supporte.

De fait, des offres d'IaaS (Infrastructure as a Service) arrivent sur le marché. Elles permettent de résoudre entre autres la problématique d'intégration évoquée précédemment, en fournissant de blocs de construction incluant serveurs, stockages et réseaux, et l'outillage de management du Cloud. Une solution intégrée et intégrable dans un Datacenter existant.
C'est ce qu'a exposé la société Cloudsphere, en présentant la refonte de leur business de hosting vers une infrastructure hybride co-localisée.

Clouds public, privés, globaux, locaux ?

Même si les acteurs du Cloud Computing tels que Amazon et Google présentent un service globalisé, nous voyons également chez Sun une tendance vers une localisation des Clouds publics et privés. Et cela pour des raisons très pragmatiques et même légales.

Comme l'évoquait Patrick Crasson, Strategic Business Developer pour Sun et Business Angel, lors de son intervention: bien que "dans les nuages", les données sont malgré tout localisées dans un pays qui a sa législation propre et pas toujours en adéquation avec la vôtre. Cela peut vite devenir contraignant, voire rédhibitoire si vous êtes une administration et que le service soit destiné à stocker des données des citoyens.
C'est pour les mêmes raisons que les institutions financières étudient la faisabilité de mise en oeuvre de clouds privés, afin de garder un contrôle total sur leurs données.

La proposition de Cloudsphere permet à la fois de bénéficier des intérêts du Cloud Computing, en valorisant une architecture partagée pour soutenir des pics de charge,  tout en permettant de garder une connexion vers un système privé, dédié et co-localisé (un modèle hybride co-localisé). C'est une réponse intéressante face aux problèmes de sécurité, hébergement des données, bande passante et points d'accès réseau.
Le modèle hybride co-localisé répond donc aux 2 champs de contraintes évoqués:

  1. simplifier l'intégration,
  2. permettre aux entreprises de bénéficier des avantages du Cloud Computing sans avoir à subir ses inconvénients.

Et vous vous en doutez surement, tout cela étant basé sur de la technologie Sun, de l'infrastructure jusqu'à la brique de virtualization: VirtualBox.

Ce modèle est évidement applicable directement au sein de votre entreprise pour créer un Cloud Privé d'Infrastructure as a Service fournissant une solution "élastique" et permettant à l'informatique d'offrir de la flexibilité et de la réactivité accrue, en complément de votre existant.

Par ailleurs, il ne faut pas penser qu'ajouter une couche de virtualisation à votre infrastructure suffira à la transformer en Cloud
et la rendre "élastique". Il suffit pour cela de regarder les grands acteurs du Cloud comme Google, et vous constaterez que tout a été conçu de bout en bout en mode intégré et spécifique (voir GoogleFS, jusqu'à l'optimisation des couches d'inter-connexion réseaux [3.2 Data Flow]).

L'apport de Sun provient à la fois des technologies et de l'expérience acquises dans la fourniture de puissance informatique à la demande. Nous en sommes à la 5ième génération des blocs d'infrastructures extensibles ou "POD" (Point of Delivery). Et nous avons donc appris à les optimiser dans un modèle industriel, répétable et intégré (y compris avec les solutions logicielles, comme VirtualBox, OpenStorage ou VDI).

Si je peux me permettre une analogie, le POD est au Cloud ce qu'Exadata est à la base de données.

C'est pourquoi de grands acteurs comme AT&T nous ont fait confiance pour construire leur propre service de Cloud Public ou pour mettre en place des solutions de Desktop as a Service.

Translate in English

vendredi avr. 17, 2009

Sur les pas du premier Cloud Camp à Paris...

Translate in English

Première réunion hier avec quelques acteurs du Cloud Computing, pour lancer l'organisation d'un Cloud Camp à Paris fin mai.
L'occasion de faire un état des lieux du Cloud Computing en France. En effet, terme très à la mode, il reste à aider les entreprises à identifier les cas d'usages et le modèle économique associé.

Le Cloud Computing : pourquoi ?
Wayne Horkan's Cloud Relationship model Premièrement, le Cloud Computing représente une évolution du modèle d'acquisition : l'informatique comme un service. Pour une part cela n'est pas nouveau et nous avons déjà une forte expérience sur ce point au travers des modèles ASP (ou SaaS), comme Salesforce.com, où d'autres solutions bien connues comme PayPal. Là où l'on voit une évolution aujourd'hui, c'est dans l'extension du modèle d'acquisition de service qui ne s'arrête plus seulement à l'application mais qui couvre aujourd'hui la possibilité soit de développer directement sur une plate-forme externe (PaaS), soit d'acquérir de la puissance informatique en tant que service en fonction de ses besoins et cela de manière immédiate (IaaS). L'un des maître mot du Cloud Computing étant la flexibilité par le payement à l'usage : "je ne paie que ce dont j'ai besoin, quand j'en ai besoin".

Alors pourquoi seulement maintenant ? Une conjonction de plusieurs facteurs :

  • technologiques  : la bande passante réseau, la maturité du modèle et des logiciels open source couvrant tous les besoins d'un système d'information, les nouvelles technologies permettant de valoriser la capacité de traitement des serveurs et du stockage associé, tous ces facteurs contribuent à permettre la mise en place d'infrastructures matérielles et logicielles avec la connexion adéquate au meilleur coût.Comme le disait hier Sam Johnston : les technologies pour le "Cloud Operating Environnement"
  • sociaux : la société a évolué, internet est devenu un vecteur d'échange compris par tous, et tout le monde à l'habitude d'utiliser des services sur la toile.
Le Cloud Computing : pour qui ?
La réponse est simple : pour tous... Toutefois, les facteurs d'adoption et d'usage seront différents si l'on se trouve dans une entreprise du CAC40 ou dans une startup.
Les startups sont les premières à utiliser massivement le Cloud Computing, car pour les développeurs c'est un moyen à coût d'acquisition matériel nul, voir à coût d'administration nul -en fonction du modèle choisie (PaaS ou IaaS)-. Les startups partant d'une infrastructure vierge, peuvent adopter d'autant plus facilement le modèle. D'ailleurs, chez Sun, nous avons déjà mis à disposition des startups et ISV des environnements de type IaaS sur la toile, afin de leur permettre d'évaluer leurs solutions sur nos environnements. L'étape suivante arrivera cet été avec l'ouverture en Bêta du Sun's Open Cloud.
Pour les entreprises plus mature disposant d'un historique informatique, avec des applications plus complexe, l'adoption du modèle Cloud Computing se fait plus par fonction, et souvent en commençant en mode SaaS : l'extension de l'utilisation d'un Saleforce.com sur d'autres applications comme la messagerie par exemple. Mais très rapidement, ce modèle se doit d'évoluer pour apporter la flexibilité attendue par les développeurs et donc le business, tout en répondant à certaines contraintes souvent évoquées, comme la sécurité des données... Et cela se fera de 2 façons :
  • la capacité pour les développeurs de valoriser le Cloud Computing "Public" (c'est à dire au travers d'un fournisseur externe), tout en pouvant déployer ensuite en interne (usage "Hybride")
  • la capacité de l'informatique interne à adopter un modèle Cloud Computing : "Privé", pour les cas d'usages les mieux adaptés, pour être plus agile tout en optimisant au mieux l'utilisation de l'infrastructure.

Qu'est-ce qui différencie ce modèle d'un modèle d'hébergement ou d'infogérance ?

2 points clés :

  • le mode d'acquisition, qui notamment pour l'IaaS consiste à l'auto-provisioning et la facturation à la demande.
  • l'adaptabilité en quasi-temps réel : la capacité d'ajouter ou de retirer de la ressource en fonction du besoin et de façon quasi-instantanée

La flexibilité, oui mais.... Attention, pour en tirer partie, il faut savoir s'adapter au Cloud Computing, comme Smugmug, et souvent concevoir "at design time" en pensant Cloud, pour que cela fonctionne de façon flexible (c'est à dire par un modèle de croissance horizontale, où "scale out") "at run time" (merci à Emmanuel De La Gardette pour la formulation). Le maître mot ici étant : la maîtrise de l'asynchronisme et... des capacités des fournisseurs de Cloud.

L'importance de l'interopérabilité  et des standards
Dans la même philosophie où pour des raisons de gouvernances vous disposez de plusieurs fournisseurs, et vous vous appuyez sur des standards pour pouvoir passer de l'un à l'autre facilement, il en va de même pour le Cloud Computing, surtout si vous appuiez une fonction critique de votre entreprise sur ce modèle. C'est le même principe de réversibilité dans l'infogérance, à ceci prêt que dans le cas du Cloud Computing "Public", vous ne récupérez pas le matériel, voir même pas l'application. C'est là où il faut faire très attention au format de stockage des données et au mode de réversibilité associé... C'est une des raisons pour laquelle le Sun Cloud arrive avec une API de management ouverte, comme l'explique Tim Bray, afin de simplifier l'interopérabilité.
Quant à vos données et à la gouvernance en générale dans le Cloud de Sun, Michelle Dennedy est notre Chief Gouvernance Officer à ce titre.

Vous voulez en savoir plus, vous êtes un acteur et désirez partager sur ce sujet passionnant, c'est l'occasion de venir nous rejoindre lors du prochain Cloud Camp, dont je ne manquerais pas de vous tenir informé dans un prochain post.

Sinon je vous invite à consulter également le white paper de Jim Baty et Jim Remmell pour situer le Cloud Computing dans la réalité : non seulement en terme de cas d'usages, mais aussi en terme de technologies sous-jacentes.

Mise à jour - 9 mai 2009 : http://www.cloudcamp.com/paris  pour vous enregistrer au Cloud Camp qui aura lieu finalement le 11 juin.

Translate in English

About

Eric Bezille

Search

Archives
« avril 2014
lun.mar.mer.jeu.ven.sam.dim.
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
    
       
Today