mercredi sept. 25, 2013

#OOW2013: Jump into the Cloud...

Today we went into the Cloud, with 3 major announcements delivered by Thomas Kurian: a full Database as a Service, a full Java as a Service and a full Infrastructure as a Service in Oracle Cloud, guaranteed, backup and operated by Oracle, depending on different level of services.

Database as a Service

You will be able to provision inside Oracle Cloud a full Oracle Database (12c or 11g) either in single node or in highly available RAC cluster. This Database will be accessible in full SQL*NET, with Root access. This service will be offer in 3 different models :

Basic Service: pre-configured, automatically installed Database Software, managed by you through Enterprise Manager Express.

Managed Service: Oracle Databases managed by Oracle, including :

  • Quarterly Patching and Upgrades with SLA
  • Automated Backup and Point-in-Time Recovery
  • Elastic Compute and Storage

Maximum Availability Service: Oracle manages an highly available Database, including:

  • Real Application Cluster (RAC)
  • Data Guard for Maximum Availability
  • More flexible upgrade schedule

Of course you will be able to move your Data or even you entire Database between your Enterprise Datacenter and Oracle Cloud by leveraging regular tools like SQL loader or Data Pump for example.

Java as a Service

In the same model as the Database as a Service, you will be able to deploy dedicated Weblogic cluster(s) on our Compute Service. Full WLST, JMX and Root access will be provided as well. The 3 different models of services will be the following:

Basic Service: pre-configured, automatically installed weblogic software, with a single node Weblogic Suite (12c or 11g), managed by you using Enterprise Manager.

Managed Service: Oracle manages one or more Weblogic domains in the same way as the Database as a Service's Managed Service.

Maximum Availability Service: Oracle Manage an Highly Available environment, with the following characteristics :

  • Weblogic cluster integrated with RAC
  • Automated Disaster Recovery and Failover
  • More flexible upgrade schedules
  • Additional staging environment

So now let's have a quick look at the constituents of our Infrastructure as a Service layer.

Infrastructure as a Service

Compute Service: will provide an elastic compute capacity in Oracle Cloud, based on 3 different type of requirements : Standard, Compute Intensive or Memory Intensive. The management will be based on REST API, and providing as well Root VM access. This Compute Service will provide network isolation and elastic IP addresses. And of course, it will be highly available.

Storage Service: will store and manage digital content. The management will be through Java and REST API (OpenStack Swift). It has been designed for performance, scalability and availability.

 All those new or enhanced services, are complementing all the Oracle Software as a Services already existing and adopted with success by many of our customers, like was shown in many testimonies during Thomas Key Notes. This provides a Platform for our partners who are leveraging our technologies to build their own services in Oracle Cloud. That's why we also created an Oracle Cloud Market Place, enabling the delivery of our partners applications, as well as their combination/integration tailor to your specific needs directly in Oracle Cloud.

Let's Jump into the Cloud....

mardi déc. 04, 2012

Understanding Oracle Strategy, Cloud and Engineered Systems

Sometimes small self-explanatory videos are better than long talks... I wanted to share with you today 3 short videos explaining Oracle Strategy, our Cloud positioning and what Engineered Systems bring to your IT. Enjoy...

Oracle Strategy....

… the Cloud...

and Oracle Engineered Systems...

mardi nov. 20, 2012

#OOW 2012 @PARIS...talking Oracle and Clouds, and Optimized Datacenter

For those of you who want to get most out of Oracle technologies to evolve your IT to the Next Wave, I encourage you to register to the up coming Oracle Optimized Datacenter event that will take place in Paris on November 28th. You will get the opportunity to exchange with Oracle experts and customers having successfully evolve their IT by leveraging Oracle technologies. You will also get the latest news on some of the Oracle systems announcements made during OOW 2012.

During this event we will make an update about Oracle and Clouds, from private to public and hybrid models. So in preparing this session, I thought it was a good start to make a status of Cloud Computing in France, and CIO requirements in particular. Starting in 2009 with the first Cloud Camp in Paris, the market has evolved, but the basics are still the same : think hybrid.

From Traditional IT to Clouds

One size doesn't fit all, and for big companies having already an IT in place, there will be parts eligible to external (public) cloud, and parts that would be required to stay inside the firewalls, so ability to integrate both side is key.  None the less, one of the major impact of Cloud Computing trend on IT, reported by Forrester, is the pressure it makes on CIO to evolve towards the same model that end-users are now used to in their day to day life, where self-service and flexibility are paramount. This is what is driving IT to transform itself toward "a Global Service Provider", or for some as "IT "is" the Business" (see : Gartner Identifies Four Futures for IT and CIO), and for both models toward a Private Cloud Service Provider.

In this journey, there is still a big difference between most of existing external Cloud and a firm IT : the number of applications that a CIO has to manage. Most cloud providers today are overly specialized, but at the end of the day, there are really few business processes that rely on only one application. So CIOs has to combine everything together external and internal. And for the internal parts that they will have to make them evolve to a Private Cloud, the scope can be very large. This will often require CIOs to evolve from their traditional approach to more disruptive ones, the time has come to introduce new standards and processes, if they want to succeed.

So let's have a look at the different Cloud models, what type of users they are addressing, what value they bring and most importantly what needs to be done by the  Cloud Provider, and what is left over to the user.

IaaS, PaaS, SaaS : what's provided and what needs to be done

First of all the Cloud Provider will have to provide all the infrastructure needed to deliver the service. And the more value IT will want to provide, the more IT will have to deliver and integrate : from disks to applications. As we can see in the above picture, providing pure IaaS, left a lot to cover for the end-user, that’s why the end-user targeted by this Cloud Service is IT people.

If you want to bring more value to developers, you need to provide to them a development platform ready to use, which is what PaaS is standing for, by providing not only the processors power, storage and OS, but also the Database and Middleware platform.

SaaS being the last mile of the Cloud, providing an application ready to use by business users, the remaining part for the end-users being configuring and specifying the application for their specific usage.

In addition to that, there are common challenges encompassing all type of Cloud Services :

  • Security : covering all aspect, not only of users management but also data flows and data privacy

  • Charge back : measuring what is used and by whom

  • Application management : providing capabilities not only to deploy, but also to upgrade, from OS for IaaS, Database, and Middleware for PaaS, to a full Business Application for SaaS.

  • Scalability : ability to evolve ALL the components of the Cloud Provider stack as needed

  • Availability : ability to cover “always on” requirements

  • Efficiency : providing a infrastructure that leverage shared resources in an efficient way and still comply to SLA (performances, availability, scalability, and ability to evolve)

  • Automation : providing the orchestration of ALL the components in all service life-cycle (deployment, growth & shrink (elasticity), upgrades,...)

  • Management : providing monitoring, configuring and self-service up to the end-users

Oracle Strategy and Clouds

For CIOs to succeed in their Private Cloud implementation, means that they encompass all those aspects for each component life-cycle that they selected to build their Cloud. That’s where a multi-vendors layered approach comes short in terms of efficiency.

That’s the reason why Oracle focus on taking care of all those aspects directly at Engineering level, to truly provide efficient Cloud Services solutions for IaaS, PaaS and SaaS. We are going as far as embedding software functions in hardware (storage, processor level,...) to ensure the best SLA with the highest efficiency.

The beauty of it, as we rely on standards, is that the Oracle components that you are running today in-house, are exactly the same that we are using to build Clouds, bringing you flexibility, reversibility and fast path to adoption.

With Oracle Engineered Systems (Exadata, Exalogic & SPARC SuperCluster, more specifically, when talking about Cloud), we are delivering all those components hardware and software already engineered together at Oracle factory, with a single pane of glace for the management of ALL the components through Oracle Enterprise Manager, and with high-availability, scalability and ability to evolve by design. To give you a feeling of what does that bring in terms just of implementation project timeline, for example with Oracle SPARC SuperCluster, we have a consistent track of record to have the system plug into existing Datacenter and ready in a week. This includes Oracle Database, OS, virtualization, Database Storage (Exadata Storage Cells in this case), Application Storage, and all network configuration.

This strategy enable CIOs to very quickly build Cloud Services, taking out not only the complexity of integrating everything together but also taking out the automation and evolution complexity and cost.

I invite you to discuss all those aspect in regards of your particular context face2face on November 28th.

mercredi oct. 17, 2012

Understanding what's happening to your VMWare's VM I/O in real-time

Back in California to work for a week with our development teams, I met Art Licht, who pointed me to a very cool 7 minutes video showing how you see and analyze what's going on for each one of your VMWare's VM seating on your ZFS Storage Appliance. I invite you to see the real value this can bring to you and any Infrastructure Cloud Builder or Operator in this short video :

lundi oct. 01, 2012

#OOW 2012 : IaaS, Private Cloud, Multitenant Database, and X3H2M2

The title of this post is a summary of the 4 announcements made by Larry Ellison today, during the opening session of Oracle Open World 2012... To know what's behind X3H2M2, you will have to wait a little, as I will go in order, beginning with the IaaS - Infrastructure as a Service - announcement.

Oracle IaaS goes Public... and Private...

Starting in 2004 with Fusion development, Oracle Cloud was launch last year to provide not only SaaS Application, based on standard development, but also the underlying PaaS, required to build the specifics, and required interconnections between applications, in and outside of the Cloud. Still, to cover the end-to-end Cloud  Services spectrum, we had to provide an Infrastructure as a Service, leveraging our Servers, Storage, OS, and Virtualization Technologies, all "Engineered Together".

This Cloud Infrastructure, was already available for our customers to build rapidly their own Private Cloud either on SPARC/Solaris or x86/Linux... The second announcement made today bring that proposition a big step further : for cautious customers (like Banks, or sensible industries) who would like to benefits from the Cloud value of "as a Service", but don't want their Data out in the Cloud... We propose to them to operate the same systems, Exadata, Exalogic & SuperCluster, that are providing our Public Cloud Infrastructure, behind their firewall, in a Private Cloud model.

Oracle 12c Multitenant Database

This is also a major announcement made today, on what's coming with Oracle Database 12c : the ability to consolidate multiple databases with no extra additional  cost especially in terms of memory needed on the server node, which is often THE consolidation limiting factor. The principle could be compare to Solaris Zones, where, you will have a Database Container, who is "owning" the memory and Database background processes, and "Pluggable" Database in this Database Container. This particular feature is a strong compelling event to evaluate rapidly Oracle Database 12c once it will be available, as this is major step forward into true Database consolidation with Multitenancy on a shared (optimized) infrastructure.

X3H2M2, enabling the new Exadata X3 in-Memory Database

Here we are :  X3H2M2 stands for X3 (the new version of Exadata announced also today) Heuristic Hierarchical Mass Memory, providing the capability to keep most if not all the Data in the memory cache hierarchy. Of course, this is the major software enhancement of the new X3 Exadata machine, but as this is a software, our current customers would be able to benefit from it on their existing systems by upgrading to the new release. But that' not the only thing that we did with X3, at the same time we have upgraded everything :

  • the CPUs, adding more cores per server node (16 vs. 12, with the arrival of Intel E5 / Sandy Bridge),
  • the memory with 256GB memory as well per node,
  •  and the new Flash Fire card, bringing now up to 22 TB of Flash cache.

All of this 4TB of RAM + 22TB of Flash being use cleverly not only for read but also for write by the X3H2M2 algorithm... making a very big difference compare to traditional storage flash extension.

But what does those extra performances brings to you on an already very efficient system: double your performances compare to the fastest storage array on the market today (including flash) and divide you storage price x10 at the same time... Something to consider closely this days... Especially that we also announced the availability of a new Exadata X3-2 8th rack : a good starting point.

As you have seen a major opening for this year again with true innovation. But that was not the only thing that we saw today, as before Larry's talk, Fujitsu did introduce more in deep the up coming new SPARC processor, that they are co-developing with us. And as such Andrew Mendelsohn - Senior Vice President Database Server Technologies came on stage to explain that the next step after I/O optimization for Database with Exadata, was to accelerate the Database at execution level by bringing functions in the SPARC processor silicium. All in all, to process more and more Data... The big theme of the day... and of the Oracle User Groups Conferences that were also happening today and where I had the opportunity to attend some interesting sessions on practical use cases of Big Data one in Finances and Fraud profiling and the other one on practical deployment of Oracle Exalytics for Data Analytics.

In conclusion, one picture to try to size Oracle Open World

... and you can understand why, with such a rich content... and this is only the first day !

mardi avr. 03, 2012

Cloud Computing : publication du volet 3 du Syntec Numérique

Translate in English

Une vision client/fournisseur réunie autour d'une ébauche de cadre contractuel

Lors de la Cloud Computing World Expo qui se tenait au CNIT la semaine dernière, j'ai assisté à la présentation du nouveau volet du Syntec numérique sur le Cloud Computing et les "nouveaux modèles" induits : modèles économiques, contrats, relations clients-fournisseurs, organisation de la DSI. L'originalité de ce livre blanc vis à vis de ceux déjà existants dans le domaine est de s'être attaché à regrouper l'ensemble des acteurs clients (au travers du CRIP) et fournisseurs, autour d'un cadre de formalisation contractuel, en s'appuyant sur le modèle e-SCM.

Accélération du passage en fournisseur de Services et fin d'une IT en silos ?

Si le Cloud Computing permet d'accélérer le passage de l'IT en fournisseur de services (dans la suite d'ITIL v3), il met également en exergue le challenge pour les DSI d'un modèle en rupture nécessitant des compétences transverses permettant de garantir les qualités attendues d'un service de Cloud Computing :

  • déploiement en mode "self-service" à la demande,
  • accès standardisé au travers du réseau, 
  • gestion de groupes de ressources partagées, 
  • service "élastique" : que l'on peut faire croitre ou diminuer rapidement en fonction de la demande
  • mesurable

On comprendra bien ici, que le Cloud Computing va bien au delà de la simple virtualisation de serveurs. Comme le décrit fort justement Constantin Gonzales dans son blog ("Three Enterprise Principles for Building Clouds"), l'important réside dans le respect du standard de l'interface d'accès au service. Ensuite, la façon dont il est réalisé (dans le nuage), est de la charge et de la responsabilité du fournisseur. A lui d'optimiser au mieux pour être compétitif, tout en garantissant les niveaux de services attendus.

Pour le fournisseur de service, bien entendu, il faut maîtriser cette implémentation qui repose essentiellement sur l'intégration et l'automatisation des couches et composants nécessaires... dans la durée... avec la prise en charge des évolutions de chacun des éléments.

Pour le client, il faut toujours s'assurer de la réversibilité de la solution au travers du respect des standards... Point également abordé dans le livre blanc du Syntec, qui rappelle les points d'attention et fait un état des lieux de l'avancement des standards autour du Cloud Computing.

En vous souhaitant une bonne lecture...

Translate in English

lundi oct. 10, 2011

Oracle Open World 2011 : Very Big (again) !

Translate in English 

Oracle Open World continue a battre des records aussi bien en terme d'audience avec plus de 45000 personnes que de contenus, avec plus de 2000 sessions, sans parler des annonces majeures qui ont eu lieu cette année et sur lesquelles je vais revenir dans ce poste, jour par jour.

Premier jour : Engineered Systems

L'évènement a été lancé avec une "key notes" 100% matériel, autour des Engineered Systems, avec un rappel du succès d'Exadata et d'Exalogic, et du pourquoi : massivement parallèle à tous les niveaux, avec en plus la compression des données pour pouvoir bouger beaucoup de données, beaucoup plus vite qu'une architecture traditionnelle, le tout basé sur un coeur infiniband... Conception poussée jusqu'au processeur avec le T4 et Solaris côté système d'exploitation, qui aboutissent a un nouvel "Engineered Systems", le Supercluster, pour proposer la solution la plus adaptée (intégrée) sur le terrain des applications utiles à l'Entreprise (Java/Database). Pour le partie calcul géométrique, ce sera la prochaine étape...

""Cette première "key notes" s'est conclue toujours sur du "Hardware and Software Engineered to work together", pour délivrer des résultats "plus vite que la pensée" avec l'Exalytics, qui s'interface de préférence avec un Exadata, mais pas seulement... pourquoi pas votre SAP, pour en tirer des analyses très rapide sur une volumétrie de données importante, que l'on arrive à faire tenir dans 1 TB de RAM, grâce à des technologies de... [Read more][Read More]

lundi mai 30, 2011

DSI, Technologies Clés 2015 & Stratégie Oracle

Translate in English

Trois éléments m'ont poussé à écrire ces quelques lignes : (1) les préoccupations des DSI face au Cloud Computing, (2) la sortie du rapport sur les technologies clés 2015,  publié en ce début d'année par le Ministère de l'économie, des finances et de l'industrie, et (3) la venue la semaine dernière à Paris du responsable du développement des Solutions Optimisées au sein d'Oracle.

[Read More]

mercredi déc. 09, 2009

Etat des lieux du Cloud en France

Translate in English

Mardi dernier a eu lieu à Paris la 3ième édition du CloudStorm (après Bruxelles et Londres). Evénement destiné à présenter les solutions existantes aujourd'hui dans le Cloud Computing. Une occasion à ne pas manquer pour faire un état des lieux, 6 mois après le Cloud Camp de Paris.

Dans ce mouvement de remise en cause des modèles informatiques, il est clair que les solutions SaaS sont  maintenant bien présentes et matures, notamment pour ce qui est des offres d'outils de collaboration en ligne.

La problématique d'intégration reste toutefois une question fondamentale entre les applications SaaS (Software as a Service) et les applications internes de l'Entreprise, et a fortiori sur l'infrastructure supportant les services SaaS. Les critères de scalabilité qui s'appliquent aux SaaS, doivent s'appliquer à l'infrastructure qui les supporte.

De fait, des offres d'IaaS (Infrastructure as a Service) arrivent sur le marché. Elles permettent de résoudre entre autres la problématique d'intégration évoquée précédemment, en fournissant de blocs de construction incluant serveurs, stockages et réseaux, et l'outillage de management du Cloud. Une solution intégrée et intégrable dans un Datacenter existant.
C'est ce qu'a exposé la société Cloudsphere, en présentant la refonte de leur business de hosting vers une infrastructure hybride co-localisée.

Clouds public, privés, globaux, locaux ?

Même si les acteurs du Cloud Computing tels que Amazon et Google présentent un service globalisé, nous voyons également chez Sun une tendance vers une localisation des Clouds publics et privés. Et cela pour des raisons très pragmatiques et même légales.

Comme l'évoquait Patrick Crasson, Strategic Business Developer pour Sun et Business Angel, lors de son intervention: bien que "dans les nuages", les données sont malgré tout localisées dans un pays qui a sa législation propre et pas toujours en adéquation avec la vôtre. Cela peut vite devenir contraignant, voire rédhibitoire si vous êtes une administration et que le service soit destiné à stocker des données des citoyens.
C'est pour les mêmes raisons que les institutions financières étudient la faisabilité de mise en oeuvre de clouds privés, afin de garder un contrôle total sur leurs données.

La proposition de Cloudsphere permet à la fois de bénéficier des intérêts du Cloud Computing, en valorisant une architecture partagée pour soutenir des pics de charge,  tout en permettant de garder une connexion vers un système privé, dédié et co-localisé (un modèle hybride co-localisé). C'est une réponse intéressante face aux problèmes de sécurité, hébergement des données, bande passante et points d'accès réseau.
Le modèle hybride co-localisé répond donc aux 2 champs de contraintes évoqués:

  1. simplifier l'intégration,
  2. permettre aux entreprises de bénéficier des avantages du Cloud Computing sans avoir à subir ses inconvénients.

Et vous vous en doutez surement, tout cela étant basé sur de la technologie Sun, de l'infrastructure jusqu'à la brique de virtualization: VirtualBox.

Ce modèle est évidement applicable directement au sein de votre entreprise pour créer un Cloud Privé d'Infrastructure as a Service fournissant une solution "élastique" et permettant à l'informatique d'offrir de la flexibilité et de la réactivité accrue, en complément de votre existant.

Par ailleurs, il ne faut pas penser qu'ajouter une couche de virtualisation à votre infrastructure suffira à la transformer en Cloud
et la rendre "élastique". Il suffit pour cela de regarder les grands acteurs du Cloud comme Google, et vous constaterez que tout a été conçu de bout en bout en mode intégré et spécifique (voir GoogleFS, jusqu'à l'optimisation des couches d'inter-connexion réseaux [3.2 Data Flow]).

L'apport de Sun provient à la fois des technologies et de l'expérience acquises dans la fourniture de puissance informatique à la demande. Nous en sommes à la 5ième génération des blocs d'infrastructures extensibles ou "POD" (Point of Delivery). Et nous avons donc appris à les optimiser dans un modèle industriel, répétable et intégré (y compris avec les solutions logicielles, comme VirtualBox, OpenStorage ou VDI).

Si je peux me permettre une analogie, le POD est au Cloud ce qu'Exadata est à la base de données.

C'est pourquoi de grands acteurs comme AT&T nous ont fait confiance pour construire leur propre service de Cloud Public ou pour mettre en place des solutions de Desktop as a Service.

Translate in English

lundi juin 29, 2009

Behind the Clouds... follow up of Cloud Camp Paris

Translate in French

First, I apologize for the french natives, as this time, they will have to use the electronic translation to get it in french... But as all the Cloud Camp Paris was delivered in English and brought people from all over Europe and even from the US with the venue of Dave Nielsen, I though I should do this directly in English.

So, during this event, I had the opportunity to present, in 5 minutes - which was a challenge ! - what Sun is doing "Behind the Clouds". Due to the timing, I concentrate on few examples, in the different Cloud Computing categories : SaaS, PaaS and IaaS... on what Sun is/will provide from Storage/Compute resources, Developers Platforms Services to Software as a Service....

Sun Behind the CloudsLet's start with the Infrastructure as a Service layer...  We do provide all the optimized building blocs to provide Storage and Compute services : through optimized HW, optimized OS and FS with OpenSolaris and ZFS up to the management of  heterogeneous (Linux, Windows, Solaris, OpenSolaris...) Virtual Machines through VirtualBox.  Also through its very scalable design pattern, MySQL is a major component of Could Computing providers. You will find a lot's of MySQL nodes inside Google or even Yahoo!... There was an interesting discussion during the Clouds Architecture Workshop about the models and François did an interesting summary on his blog. I just would like to take the opportunity to balance the statement that he reported about MySQL... Actually in any type of architecture, you need to understand how the underlying building blocs scales do get it right, and unfortunately everything is not on . So if you want to scale with MySQL, you can, if you don't know how to do it, ask us...

So not only are we providing the building blocs for Cloud Computing providers, like A-Server, but we are also optimizing them with advance solutions like Hadoop, hosted on Cloud Providers Clouds. And in this regards, all knows the NYT example of using Clouds, but a less know fact is that they used the OpenSolaris Hadoop images on Amazon Web Services to do it.

Last but not least, those are the components on which we are building our own Public Cloud that will be early acces this Summer and already available to Sun Employees... And as it's in Sun DNA, we are Open, to avoid Cloud Vendor lock-in, and are already providing an Open API AND Open Sourced it  to manage Clouds. I invite you to have a look into Project Kanaï web site.
So, I think that Sun was  heavily  involved in the Infrastructure as a Service was of no surprise for you.
But what about Sun in the other layers of Cloud Computing...

So what are we doing and providing TODAY as Platform as a Service... I took 2 examples.
The first one is project DarkStar, which is an Online Gaming Massive Multiplayer Platform... on which Online Gamings are already develops and on which you as a developer can develop your own game, leveraging lot's of scalability directly out of this platform like sharding principle.

The second example is Zembly (which is an acronym that's stand for assembly), This Platform offers an Online IDE for developers to share components and built-out application that are accesible through Social Network Plaforms like Google, Facebook, Instant Messaging applications like MSN,... up to iPhones.  And this is Open !  If you do have an API to acces to your own network, you can upload your API inside Zembly, and suddenly you have acces to Developers and Social Network at the same time, connecting your own network into it... Just imagine if  a Telco Operator API was available inside Social Network Application - indeed, you may want to check Ericson Labs modules on Zembly. Suddenly you could send SMS to your friends, geo locate them from your desktop... Bringing the mobility into the social network.... This is a Cloud Social Application Platform...
Zembly is also a way for you  to acces Sun Open Cloud today, as it is running on it. 

Last friday, I was at The Aquarium session in Paris, where Emmanuel De La Gardette provided a deep dive into Zembly. Here are the links to  my presentation and the one from Emmanuel on Zembly . There is also a book on Zembly ( Assemble the Social Web with zembly) and you can also find some examples on YouTube ( Creating a Facebook Application Using zembly (Part 1) ,Bring Your Own API).

Last but not least, some example of Sun SaaS services in developments or already available...
Deploy to the Cloud function inside VirtualBox.
Save to / Open from the Cloud inside OpenOffice... already available for Sun Employees..
Identity Management for and from the Cloud with Sun IDM....
And of course, in the Sun Philosophy : No Vendor Lock-in ! That's why we open our API and Open Sourced it, but also why we are actively involved through the OpenGridForum in the Open Cloud Computing Interface definition... Which was covered by Sam Johnston and Solomon Hykes during one of the breakout session.

So this was a quick overview  of some real things that we are doing today « Behind the Clouds »...

Sun ExpertsI also want to take the opportunity to thanks all the participants and organizers of this first cloud camp in France, as well as the experts from Sun that participates to this event. We share and learn a lot... also in the organization process... We will improve for the next one, that we plan to held around september/october timeframe. If you want to participate and provide your ideas and passion please register into the cloudcampparis google group.

Eventually, I wanted to thanks François for having pushing me to release this blog...

Update : Constantin Gonzalez did also blog on Cloud Camp Paris with a lot's of details, notes - especially the Clouds Architectures session - and even audio recording of the lightning talks ! I invite you to visit his blog, it's a very interesting reading and listening.

Translate in French

samedi mai 16, 2009

Cloud Camp Paris, le 11 juin - 18h30 à Telecom Paris

Translate in English
Cloud Camp

Le Cloud Computing voit l'émergence d'une nouvelle façon de faire et de consommer l'IT.
Avec les nombreux changements intervenus dernièrement dans l'industrie, saisissez l'opportunité de partager votre expérience grâce aux nombreuses discussions organisées lors de ce premier évènement en France. Utilisateurs finals, professionnels de l'IT et vendeurs sont tous encouragés à y participer.

Cet évènement est fait pour et par les acteurs du Cloud Computing et se veut interactif.
Il est constitué de sessions informelles et de partages sur les thèmes comme :

  • Qu'est ce que le Cloud Computing, pourquoi et pourquoi pas ?
  • Open Cloud - au sujet de l'interopérabilité
  • Clouds Architecture - au sujet des "Design Pattern" pour faire et utiliser les Clouds
  • Clouds Security - nouveautés ? différences ?

La conférence sera introduite par Sam Johnston, qui participe activement à des projets d'utilisation du Cloud dans les entreprises, mais aussi au travers de groupes de travail, dont l'Open Grid Forum et l'initiative Open Cloud Computing Interface.

Si vous souhaitez vous même contribuer à cet évènement, pour présenter vos solutions pour le Cloud Computing ou contribuer à une des sessions, n'hésitez pas à me contacter.

Pour plus de détail sur l'agenda, et venir nous rejoindre le 11 juin à Telecom Paris, à partir de 18h30 :

Translate in English

vendredi avr. 17, 2009

Sur les pas du premier Cloud Camp à Paris...

Translate in English

Première réunion hier avec quelques acteurs du Cloud Computing, pour lancer l'organisation d'un Cloud Camp à Paris fin mai.
L'occasion de faire un état des lieux du Cloud Computing en France. En effet, terme très à la mode, il reste à aider les entreprises à identifier les cas d'usages et le modèle économique associé.

Le Cloud Computing : pourquoi ?
Wayne Horkan's Cloud Relationship model Premièrement, le Cloud Computing représente une évolution du modèle d'acquisition : l'informatique comme un service. Pour une part cela n'est pas nouveau et nous avons déjà une forte expérience sur ce point au travers des modèles ASP (ou SaaS), comme, où d'autres solutions bien connues comme PayPal. Là où l'on voit une évolution aujourd'hui, c'est dans l'extension du modèle d'acquisition de service qui ne s'arrête plus seulement à l'application mais qui couvre aujourd'hui la possibilité soit de développer directement sur une plate-forme externe (PaaS), soit d'acquérir de la puissance informatique en tant que service en fonction de ses besoins et cela de manière immédiate (IaaS). L'un des maître mot du Cloud Computing étant la flexibilité par le payement à l'usage : "je ne paie que ce dont j'ai besoin, quand j'en ai besoin".

Alors pourquoi seulement maintenant ? Une conjonction de plusieurs facteurs :

  • technologiques  : la bande passante réseau, la maturité du modèle et des logiciels open source couvrant tous les besoins d'un système d'information, les nouvelles technologies permettant de valoriser la capacité de traitement des serveurs et du stockage associé, tous ces facteurs contribuent à permettre la mise en place d'infrastructures matérielles et logicielles avec la connexion adéquate au meilleur coût.Comme le disait hier Sam Johnston : les technologies pour le "Cloud Operating Environnement"
  • sociaux : la société a évolué, internet est devenu un vecteur d'échange compris par tous, et tout le monde à l'habitude d'utiliser des services sur la toile.
Le Cloud Computing : pour qui ?
La réponse est simple : pour tous... Toutefois, les facteurs d'adoption et d'usage seront différents si l'on se trouve dans une entreprise du CAC40 ou dans une startup.
Les startups sont les premières à utiliser massivement le Cloud Computing, car pour les développeurs c'est un moyen à coût d'acquisition matériel nul, voir à coût d'administration nul -en fonction du modèle choisie (PaaS ou IaaS)-. Les startups partant d'une infrastructure vierge, peuvent adopter d'autant plus facilement le modèle. D'ailleurs, chez Sun, nous avons déjà mis à disposition des startups et ISV des environnements de type IaaS sur la toile, afin de leur permettre d'évaluer leurs solutions sur nos environnements. L'étape suivante arrivera cet été avec l'ouverture en Bêta du Sun's Open Cloud.
Pour les entreprises plus mature disposant d'un historique informatique, avec des applications plus complexe, l'adoption du modèle Cloud Computing se fait plus par fonction, et souvent en commençant en mode SaaS : l'extension de l'utilisation d'un sur d'autres applications comme la messagerie par exemple. Mais très rapidement, ce modèle se doit d'évoluer pour apporter la flexibilité attendue par les développeurs et donc le business, tout en répondant à certaines contraintes souvent évoquées, comme la sécurité des données... Et cela se fera de 2 façons :
  • la capacité pour les développeurs de valoriser le Cloud Computing "Public" (c'est à dire au travers d'un fournisseur externe), tout en pouvant déployer ensuite en interne (usage "Hybride")
  • la capacité de l'informatique interne à adopter un modèle Cloud Computing : "Privé", pour les cas d'usages les mieux adaptés, pour être plus agile tout en optimisant au mieux l'utilisation de l'infrastructure.

Qu'est-ce qui différencie ce modèle d'un modèle d'hébergement ou d'infogérance ?

2 points clés :

  • le mode d'acquisition, qui notamment pour l'IaaS consiste à l'auto-provisioning et la facturation à la demande.
  • l'adaptabilité en quasi-temps réel : la capacité d'ajouter ou de retirer de la ressource en fonction du besoin et de façon quasi-instantanée

La flexibilité, oui mais.... Attention, pour en tirer partie, il faut savoir s'adapter au Cloud Computing, comme Smugmug, et souvent concevoir "at design time" en pensant Cloud, pour que cela fonctionne de façon flexible (c'est à dire par un modèle de croissance horizontale, où "scale out") "at run time" (merci à Emmanuel De La Gardette pour la formulation). Le maître mot ici étant : la maîtrise de l'asynchronisme et... des capacités des fournisseurs de Cloud.

L'importance de l'interopérabilité  et des standards
Dans la même philosophie où pour des raisons de gouvernances vous disposez de plusieurs fournisseurs, et vous vous appuyez sur des standards pour pouvoir passer de l'un à l'autre facilement, il en va de même pour le Cloud Computing, surtout si vous appuiez une fonction critique de votre entreprise sur ce modèle. C'est le même principe de réversibilité dans l'infogérance, à ceci prêt que dans le cas du Cloud Computing "Public", vous ne récupérez pas le matériel, voir même pas l'application. C'est là où il faut faire très attention au format de stockage des données et au mode de réversibilité associé... C'est une des raisons pour laquelle le Sun Cloud arrive avec une API de management ouverte, comme l'explique Tim Bray, afin de simplifier l'interopérabilité.
Quant à vos données et à la gouvernance en générale dans le Cloud de Sun, Michelle Dennedy est notre Chief Gouvernance Officer à ce titre.

Vous voulez en savoir plus, vous êtes un acteur et désirez partager sur ce sujet passionnant, c'est l'occasion de venir nous rejoindre lors du prochain Cloud Camp, dont je ne manquerais pas de vous tenir informé dans un prochain post.

Sinon je vous invite à consulter également le white paper de Jim Baty et Jim Remmell pour situer le Cloud Computing dans la réalité : non seulement en terme de cas d'usages, mais aussi en terme de technologies sous-jacentes.

Mise à jour - 9 mai 2009 :  pour vous enregistrer au Cloud Camp qui aura lieu finalement le 11 juin.

Translate in English


Eric Bezille


« avril 2014