X

Neuste Trends, Tipps, Strategien &
Events rund um das Thema Cloud

Letzte Posts

Cloud Technik

Autonomous Database: Große Konzerne entdecken den Wert der Cloud

CIOs im Stress: Datensicherheit. IT-Verantwortliche, die Kosten senken und Services schneller ausrollen müssen. DBAs, die unter Überlastung ächzen. Und so weiter, und so weiter. Andy Mendelsohn, Executive Vice President für Datenbank-Server-Technologien bei Oracle, hört sich das von CIOs in seinem Arbeitsbereich tagtäglich an. Es ist sein Job. Was ihn dabei in Erstaunen versetzt: Wenn die Sprache auf Cloud-Lösungen kommt, die ein probates Mittel für die ganze Misere sein könnten, dann zögern dieselben Leute bisher immer. Offenbar kam vielen großen Unternehmen das Risiko, wesentliche IT-Bereich in die Cloud zu verlagern, immer noch zu gruselig vor, als dass die Vorteile erkannt würden. Das scheint sich in letzter Zeit grundlegend zu ändern. Und zwar werden Konzerne aufmerksam, seitdem Oracle im März Autonomous Database, die autonome Datenbanktechnologie herausgebracht hat. „Jetzt werden plötzlich viele Frage gestellt“, erzählte Mendelsohn bei der Oracle OpenWorld. „Alle Kunden, mit denen ich spreche, sagen mir, dass sie datengetrieben sein wollen und dass Daten das wichtigste Kapital für ihr Unternehmen sind. Wenn sie also ihre Infrastruktur modernisieren und Workloads in eine Cloud-Umgebung verlagern wollen, erinnere ich sie daran, dass sie sich bei Computing und Speicherung langsam aber sicher von Lösungen von der Stange verabschieden und etwas ehrgeiziger an Möglichkeiten der Cloud herangehen müssen."   Große Konzerne entdecken den Wert der Cloud   Autonomous Database, die neue Datenbank-Technologie für die Cloud finden jetzt auch große Unternehmen spannend, sagt Oracle VP Andy Mendelsohn.   Am Anfang der autonomen Datenbank von Oracle steht die zentrale Oracle-Datenbanktechnologie, die Hunderttausende von Unternehmen zur Verwaltung ihrer Daten verwenden. Das Feature „autonom“ macht solche Datenbanken bei Betrieb, Sicherung und Instandsetzung völlig selbsttätig. Sie sind so konzipiert, dass die fehleranfällige manuelle Datenverwaltung entfällt. Neue Datenbanken bereitzustellen oder bestehende Datenbanken für Transaktionsverarbeitung bzw. Data Warehouses in eine leistungsstarke und skalierbare Cloud zu verschieben, so dass Kunden beginnen können, mehr Wert aus ihren Daten zu ziehen – all das wird einfacher. "Wir haben etwas gefunden, das sich überall einfügt", sagt Mendelsohn.   Potential für alle Ebenen des Unternehmens Zum Beispiel? Mendelsohn registriert, dass CIOs es sehr schätzen, wie sie ihre Kosten und Risiken senken können. "Der selbsttätige Database Service übernimmt das Management der gesamten Infrastruktur, was flächendeckend Kosten senken kann." Auch die autonome Sicherungsfunktion macht sich hochgradig bezahlt, weil Autonomous Database kontinuierlich nach Bedrohungen und Anomalien sucht und außerdem Patches ohne Ausfallzeiten anwendet. "Kein CIO will schließlich seinem Vorstand Rechenschaft darüber ablegen müssen, warum es versäumt wurde, die neuesten Patches anzuwenden, so dass Hacker eingedrungen sind und Daten gestohlen haben", sagt Mendelsohn. Nicht zuletzt sorgt eine selbstreparierende autonome Datenbank dafür, dass kritische Systeme jederzeit betriebsbereit sind. "Dazu werden wir uns verpflichten und dem CIO echte SLAs (Service Level Agreements) anbieten – ohne die ganzen Einschränkungen, die bei anderen Cloud-Anbietern üblich sind.“ Spürbarer Vorteil für Entwickler und Datenanalysten: Sie können an einer leistungsfähigen Datenmanagement-Infrastruktur arbeiten und innerhalb von Minuten neue Kapazitäten bereitstellen, ohne Datenbankspezialisten wegen der Einrichtung hinzuziehen zu müssen. Und DBAs können sich jetzt stärker darauf konzentrieren, den Wert ihrer Daten auszuschöpfen, und weniger Zeit für Patches und Upgrades aufwenden – für Mendelsohn “die Chance des DBA, sich für sein Unternehmen noch besser zu rentieren".   Oracles Alleinstellungsmerkmal Als „major achievement“ bezeichnen die Analysten von IDC in einem aktuellen Bericht die autonomen Fähigkeiten der Datenbank anerkennend. "Solche Funktionen sind im Datenbankbereich schwer auf die Beine zu stellen", schreibt Carl Olofson, Research Vice President für Data Management Softwareforschung am IDC, "und zwar wegen der Komplexität von  Datenbanken mit ihren vielen Faktoren, die Betrieb und Leistung beeinflussen". Tatsächlich war die erfolgreiche Einführung der autonomen Datenbanktechnologie das Ergebnis jahrelanger Arbeit, sagt Mendelsohn: "Ein autonomer Datenbankdienst taucht nicht einfach aus dem Nichts auf wie etwa eine glanzvolle neue App. Es ist nicht so, dass wir ein bisschen herumprogrammieren und dann produzieren wir das Ding eben. Wir bauen auf Technologien auf, die wir teils seit über 20 Jahren entwickeln." Oracle Exadata ist eine diese Technologien: eine ausgereifte Infrastruktur, die speziell für den Betrieb von Oracle Databases entwickelt wurde. Gartner hat sie gerade erst als führend im Bereich des operativen Datenbankmanagements bezeichnet; sie überträfe alle untersuchten Datenbanken hinsichtlich entscheidender Funktionen bei operativen Datenbankmanagementsystemen. Mendelsohn erwähnte auch eine große Anzahl von Kunden, die Exadata bei sich nutzen. Viele der weltweit größten 100 Unternehmen ließen inzwischen Exadata in der Oracle-Cloud laufen! Die Kombination von Exadata auf Oracle Cloud und der neuesten Version von Oracle Database 18c bildet das Herzstück der beiden autonomen Datenbankdienste in der Oracle Cloud, dem Autonomous Data Warehouse und der Oracle Transaction Processing Database. Mit Autonomous Data Warehouse ist Oracle Database ideal für die Ausführung massiv paralleler Anfrage-Workloads ausgelegt und verfügt über eine vollständige Selbstoptimierung. "Dieses System ermöglicht echtes Load-and-Go", sagt Mendelsohn. „Sobald ein Datenplaner ein Datenmodell erstellt hat, laden Ihre Analysten einfach die Daten und beginnen mit der Abfrage der Datenbank". Die Administration und das Tuning übernimmt das System, es skaliert auch sofort nach oben oder unten, wenn Sie es wünschen. "Wenn Ihre Analysten über das Wochenende frei haben, können sie den Rechenaufwand auf Null reduzieren und uns bloß für die Speicherung der Daten bezahlen. Und wenn z. B. wegen des Quartalsabschlusses alles heißläuft, können Sie von 16 auf 32 CPUs aufstocken oder was immer Sie brauchen." Die autonome Datenbank verarbeitet bei Transaktionen gemischte Workloads aller Art, einschließlich Transaktionen und Analysen, Stapelverarbeitung, Reporting und dergleichen. Sie bietet alle Funktionen der Exadata-Infrastruktur und der Datenbankinfrastruktur, ohne dass man überhaupt etwas von der dahintersteckenden Komplexität mitbekommt. "Es gibt eine einfache Möglichkeit für Sie, vorhandene lokale Daten in Ihre Oracle-Datenbanken zu übernehmen und sie in eine moderne Cloud-Umgebung zu verlagern. Dort ist Ihre Datenbank autonom, selbstsichernd und selbstreparierend", sagt Mendelsohn. "Wenn Sie also heute Oracle-Datenbanken zur Verwaltung und zum Schutz Ihrer wichtigsten Daten verwenden, warum wählen Sie nicht Oracle als Ihren strategischen Partner für das Datenmanagement in der Cloud?" Sie können sich dann ganz entspannt zurücklehnen und Oracle den Job machen lassen:     Kontakt: Wenn Sie noch mehr darüber wissen möchten, spreche ich gerne mit Ihnen darüber, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

CIOs im Stress: Datensicherheit. IT-Verantwortliche, die Kosten senken und Services schneller ausrollen müssen. DBAs, die unter Überlastung ächzen. Und so weiter, und so weiter. Andy...

Cloud Technik

Security: So lernen Sie, Datenpannen zu vermeiden

Cybersecurity – das ist als Thema ungefähr so beliebt wie Kopfläuse im Kindergarten. Es kommt auch immer wieder. Die Frage, wer schuld ist, wird ebenfalls hier wie dort gerne aufgeworfen. Der Unterschied ist aber: Die Konsequenzen von Datenlecks, IT-Crashs, Verletzungen des Datenschutzes… allgemein von Datenpannen sind weitaus gravierender. Sie können die Produktion und andere Prozesse im Unternehmen lahmlegen, PR-Katastrophen herbeiführen und sehr viel Zeit und Geld kosten.. Auf einen Blick: So lernen Sie, Datenpannen zu vermeiden   Verkraftet Ihr Unternehmen eine Datenpanne? Kosten für Datensicherheit steigen stärker als erwartet Cybersecurity verbessern - aber wie?   Zunehmend gilt: Die nächste Datenpanne ist gleich um die Ecke. Ist Ihr Unternehmen vorbereitet? Sind Ihre Daten sicher? Und wenn die Antwort ein Ja ist: Woher wissen Sie das denn? Über 4,5 Milliarden Datensätze wurden weltweit im ersten Halbjahr 2018 weltweit kompromittiert – ein Anstieg von 133 % gegenüber dem gleichen Zeitraum im Vorjahr. Die Ziele: vor allem die Branchen Banken, Gesundheitswesen und soziale Netzwerke, und zwar bei Unternehmen, deren Kunden eigentlich am ehesten erwarten, dass ihre Daten dort optimal gesichert sind. In Europa lag die Zunahme betroffener Datensätze bei immerhin 28 %, wobei aber vor allem die Schwere der Cyberangriffe in allen Sektoren zunahm – was auch weltweit gilt. Am stärksten betroffen ist nach wie vor Nordamerika. Das Digital Security Unternehmen Gemalto berichtet, dass 72 % aller gestohlenen Daten aus den USA stammen. So wurden die persönlichen Daten von Hunderten von Millionen Amerikanern bei der Datenpanne der Marketinggesellschaft Exactis im Juni 2018 kompromittiert.   Verkraftet Ihr Unternehmen eine Datenpanne? Allein schon die direkten Kosten von Datenpannen zu berechnen, ist nicht einfach. Sie übersteigen insgesamt ja bei weitem die Kosten, die z. B. durch Ransomware entstehen. Das Datenleck bei Facebook (Stichwort Cambridge Analytica) im März 2018 etwa drückte den Aktienkurs des Unternehmens innerhalb weniger Tage um mehr als 100 Milliarden US-Dollar. Dazu kommen eventuell noch die von der US Federal Trade Commission verhängten Geldbußen in Billionenhöhe! Der Vertrauensverlust bei den Kunden ist aber vielleicht unterm Strich noch gravierender für betroffene Unternehmen. Im Einzelhandel – wo 80–90 % der Leute, die sich auf E-Commerce-Websites anmelden, gestohlene Daten verwenden – wechseln Kunden einfach die Marke, um ihre Daten zu schützen.Business Insider zitiert in diesem Zusammenhang eine aktuelle Studie von KPMG. Danach würden 19 % der Verbraucher nach einem Datenverstoß nicht mehr bei einem Einzelhändler einkaufen; bis zu 33 % würden mindestens eine längere Pause einlegen. Würde Ihr eigenes Unternehmen es verkraften, über Nacht ein Drittel seiner Kunden zu verlieren? Natürlich hängt die Kostensituation für Unternehmen insgesamt von sehr vielen Faktoren ab. Allerdings: Laut einer Studie aus 2018 werden Datenpannen weltweit jedes Jahr teurer – derzeit durchschnittlich pro Unternehmen 3,86 Millionen US-Dollar (plus 6,4 %). Einige Berichte prognostizieren die jährlichen Gesamtkosten von Problemen mit Cybersecurity im Jahr 2020 auf über 2 Billionen US-Dollar.   Kosten für Datensicherheit steigen stärker als erwartet Die ganze Misere bedeutet eine immense Herausforderung und zunehmende Risiken und Kosten. Nicht ohne Grund investieren Unternehmen also auch stärker in Maßnahmen gegen Bedrohungen der Datensicherheit. Ein Gartner-Report von 2017 schätzte das weltweit angesetzte Budget für Cyber Security für 2018 auf 96 Milliarden US-Dollar – eine Steigerung um 8 % gegenüber 2017. Auch ein früherer IDC-Bericht bezifferte die erwarteten Ausgaben für sicherheitsrelevante Hardware, Software und Dienstleistungen auf über 91 Milliarden US-Dollar, somit gut plus 10 %. Zwar hat man also für 2018 allein schon wegen schärferer Datenschutz-Bestimmungen (Stichwort DSGVO) einen deutlichen Anstieg der Sicherheitsausgaben durchaus erwartet. Doch die Zahlen dürften alle Erwartungen noch einmal übertreffen. Die noch aktuellere US-Studie „State of Cybercrime“ aus dem Jahr 2018 nennt einen Anstieg des durchschnittlichen IT-Sicherheitsbudgets um 27%.     Cybersecurity verbessern – aber wie? Datenpannen verwüsten nach wie vor große wie kleine Marken in Serie. Unternehmen aller Branchen suchen intensiv nach Maßnahmen, um die Sicherheit ihrer Daten zu erhöhen – und diejenigen, die das verschlafen, werden höchstwahrscheinlich einen hohen Preis dafür zahlen. Die gute Nachricht – endlich! – ist: Es gab kaum je einen besseren Moment als jetzt, um den Wert Ihres Unternehmens durch kompetentere IT-Sicherheitsfeatures bzw. das Fachwissen darüber zu steigern. Als Entwickler der weltweit führenden Datenbank hat Oracle ein großes Interesse an Ihrer Cybersicherheit und bietet die besten Trainings zum Schutz Ihrer Daten. •     Das Oracle Database Security Training zeigt Ihnen, wie Sie mit  Datensicherheit umgehen, sich vor Insider-Bedrohungen schützen und die Einhaltung von Vorschriften für Oracle- und  andere Datenbanken gewährleisten können. •     Das Training zu Oracle Security Cloud Services erklärt die geschäftlichen und technischen Grundlagen der Oracle Cloud Security-Lösungen, vermittelt Ihnen die neuesten Cloud-Sicherheitsstandards und hilft Ihnen, Cloud Security Administrator zu werden. Angesichts immer ausgefeilterer Angriffe müssen Sie Ihre Sicherheitskompetenzen unbedingt ständig auf dem neuesten Stand halten! Oracle University unterstützt Sie dabei durch ganzjährig angebotene Schulungen mit Oracle Learning Subscriptions, die ständig aktualisiert werden. So bleibt Ihr Wissen stets auf dem letzten Stand. •     Die Oracle Security Learning Subscription bietet IT-Profis rund um die Uhr Zugang zu hochwertigen digitalen Lerninhalten, die speziell für den Ausbau von Sicherheitsskills entwickelt wurden. Durch das Abonnementformat können Sie jederzeit und überall lernen – besonders nützlich, wenn Sicherheitsprobleme kritisch sind und Sie schnell auf bestimmte Themen reagieren müssen. •     Die Oracle Cloud Security Learning Subscription ist die ideale Wahl für Cloud Security Administratoren, die ihre Unternehmen beim Übergang in die Cloud unterstützen. Mit einem umfassenden Set von Lernpfaden erweitert dieses Abonnement Ihr bestehendes Know-how auf die Cloud, indem es Anwendungsfälle nutzt, die auf realen Beispielen und praktischen Anwendungen basieren. Verbessern Sie Ihre Sicherheitskompetenz mit Oracle University. Ihre Vorgesetzten, CEOs, Aktionäre und vor allem Ihre Kunden werden es Ihnen zu danken wissen!   Kontakt Gerne unterhalte ich mich auch mit Ihnen darüber, per E-Mail oder LinkedIn. Ottmar Kugelmann, Senior Director Oracle University - Cloud, EMEA

Cybersecurity – das ist als Thema ungefähr so beliebt wie Kopfläuse im Kindergarten. Es kommt auch immer wieder. Die Frage, wer schuld ist, wird ebenfalls hier wie dort gerne aufgeworfen....

Cloud Basics

Cloud Native Applications – die Zukunft in Sachen Softwareentwicklung

Cloud Native, heftig diskutiert in der Softwareentwicklung, steht bei einigen Entwicklern im Ruf eines Hypes, der sich schon bald wieder verziehen wird. Andere halten das Ganze für die Zukunft in Sachen Softwareentwicklung und eine unverzichtbare Strategie, um auch künftig wettbewerbsfähig zu bleiben.. Was bedeutet Cloud Native?   Native Cloud Anwendungen (NCA) sind Programme und Dienste, die speziell für eine Cloud-Computing-Architektur entwickelt wurden, um das reibungslose Funktionieren der Cloud zu ermöglichen. Dabei geht es vor allem um Microservices, daneben aber auch um selbsterhaltende Systeme oder Big-Data-Anwendungen.    Bei den Microservices werden Entwicklungsaufgaben in getrennte Dienste unterteilt und dann auf mehreren Servern an unterschiedlichen Standorten ausgeführt. Die Microservices konzentrieren sich häufig auf eine einzige spezifische Funktion, z. B. das Sammeln von Daten, der Versand von Nachrichten oder das Auslesen von Sensoren. Zusammengefasst: •       Cloud Native Anwendungen basieren auf diesen Microservices und nutzen konsequent die von der Cloud bereitgestellten Services. •       Sie werden als ein System von Microservices, die miteinander verbunden sind, aufgebaut. •       Jeder Microservice steht wie erwähnt für exakt eine Funktionalität mit einer klar definierten Grenze sowie einer API (Application Programming Interface). •       Das erleichtert die Reproduzierbarkeit, optimiert die Ressourcen und sorgt für Transparenz!    Eine Cloud Native Definition geht also von all jenen Anwendungen aus, die bereits bei ihrer Konzeption auf die Nutzung in der Cloud gestaltet wurden. Oberster Hüter dieses Programmierparadigmas ist die Cloud Native Computing Foundation (CNCF), eine Stiftung, die sich dafür einsetzt, Cloud Native Computing nachhaltig und universell zu machen.   Die Hauptvorteile des Cloud Native Ansatzes Grundlegend ist die Strategie, dass alle Anwendungen als System miteinander korrespondierender Microservices konzipiert sind. Die Microservices inklusive aller zur Ausführung erforderlicher Elemente packt man in einen Container. Das bringt Flexibilität: Die Container sind hochgradig portabel; Anwendungen lassen sich in jeder Umgebung ausführen. Wenn das Design der Anwendung eine horizontale Skalierung unterstützt, können mehrere Container-Instanzen gleichzeitig gestartet oder gestoppt werden. Um die Überwachung des Systems und die Balance der Last zwischen den Anwendungsinstanzen zu steuern, wurden Kubernetes, Apache Mesos und andere Orchestrierungslösungen konzipiert, da eine manuelle Steuerung zwar möglich, aber zeitraubend und aufwändig ist.  Großes Plus: Entwicklerteams werden mit Cloud Native Anwendungen agiler, da dieser Ansatz Anwendungen in kleinere Teile aufsplittet. Die wiederum werden nicht nur unabhängig erstellt, sondern auch automatisch getestet und bereitgestellt. Das Ganze wirkt sich also nicht auf andere Anwendungsteile aus. In einer monolithischen Anwendung dagegen lassen sich Teile des Codes meist nicht ändern, ohne dass auch andere Teile geändert werden müssen. Koppelt man Funktionen in einer einzigen Codebasis eng miteinander, führt das oft zu weniger und riskanteren Software-Releases.   Cloud Native Anwendungen interagieren intelligent Obwohl die Anwendungen aus mehreren Diensten zusammensetzt bereitgestellt werden, sehen etwa ein Streaming-Musikdienst oder eine SaaS-Personalanwendung für den Endbenutzer wie eine einzige Anwendung aus. Die Interaktion läuft über die Anwendung als Ganzes und in der Regel auch nur über eine einzige API. Dabei ist aber zugleich jeder Dienst elastisch und lässt sich unabhängig von anderen Diensten skalieren – im Idealfall automatisch auf der Basis definierter Trigger wie der Last. Das erlaubt eine kostenoptimierte und effiziente Nutzung der eingesetzten Ressourcen.  Zudem ist jeder Service hoch verfügbar, belastbar und in der Lage, Ausfälle der Infrastruktur zu überstehen. Fehler, die aus Hardware- oder Softwareproblemen resultieren, gibt es damit weniger. Und: Die Dienste sind so aufgebaut, dass sie als Teil einer anderen Anwendung fungieren können. Jeder Dienst besitzt zumindest eine API, die erkennbar und einheitlich ist und zudem über definierte Verhaltensweisen für die Erkennung, Registrierung und Anforderungsverwaltung verfügt.   Zuversicht auf dem Markt rund um das Thema Cloud Native Cloud Native Anwendungen werden immer beliebter. Laut einer Umfrage von Longitude Research im Auftrag von Capgemini soll ihr Potential noch zulegen: Bereits jetzt sind rund 15 Prozent sämtlicher neuer Anwendung Cloud Native. Capgemini erwartet nun mehr als eine Verdoppelung dieses Anteils bis 2020. Experten rechnen damit, dass Cloud Native bei Anwendungen für den Kundenkontakt bis 2020 Standard werden. Hintergrund dafür: die immer kürzeren Innovations- und Produktzyklen, auf die Unternehmen mit Hilfe der Cloud rasch und effektiv reagieren können.  Die Studie unterscheidet Unternehmen nach ihrem Entwicklungsgrad in Sachen Cloud Native: Für jene, die bereits intensiver auf Cloud Native Anwendungen setzen, ist laut den Studienautoren eine positive Entwicklung des Umsatzes doppelt so wahrscheinlich wie für Unternehmen, die in dieser Hinsicht weniger engagiert sind. Dabei zeigen sich zwischen den Branchen große Unterschiede. Etwa 25 Prozent der High-Tech-Unternehmen und annähernd ein Drittel der herstellenden Betriebe setzen stark auf Cloud Native, aber nur 11 Prozent der Bankdienstleister und 18 Prozent der Versicherer. Die Lücke dürfte sich jedoch bald schließen – alle diese Branchen wollen in den kommenden Jahren deutlich mehr in diesem Bereich investieren.   Cloud Native fordert heraus – wo sind die kritischen Punkte? Unternehmen müssen alte Muster und Gewohnheiten aufbrechen und viele neue Fähigkeiten erwerben. Die IT zum Beispiel rückt durch Cloud-Native plötzlich enger an die Produktentwicklung heran und kann einen essentiellen Teil zur Wettbewerbsdifferenzierung beitragen. Eine weitere Herausforderung ergibt sich auch aus den für den Kulturwandel anfallenden Kosten.  Sorgen bereitet den Verantwortlichen zudem der Mangel an Operatoren und Entwicklern mit dem nötigen Know-how, die ja durch moderne, cloud-native Anwendungen stark gefordert werden. Experten schätzen, dass sich die Zahl der unbesetzten Stellen in diesem Bereich innerhalb nur eines Jahres verdoppelt hat. Zudem herrscht in den Unternehmen selbst oft große Unsicherheit hinsichtlich der spezifischen Anforderungen bzw. der geforderten Ausbildung. Wer hier erfolgreich sein will, muss eine durchdachte Strategie zur Anwerbung von Cloud-Native-Talenten entwickeln. „Cloud First“ sollte dabei als Devise derzeit noch im Vordergrund stehen, längerfristig aber „Cloud Only“.   Ein Blick in die Zukunft Cloud Native Computing wird Mainstream werden, darauf deutet alles hin. Viele Unternehmen aus unterschiedlichsten Bereichen, auch kleine und mittlere Betriebe, setzen auf Technologien wie etwa Docker, K8s etc., und zwar häufig bereits in der Produktion. Der geschäftliche Nutzen ist offensichtlich; es ist also damit zu rechnen, dass Cloud Native Technologien für fast alle Anwendungen ohne Alternative sind. Noch ist allerdings viel im Fluss, und eine Flut von Begriffen und entsprechende Hypes sorgen bisweilen für Konfusion. Doch die Realität ist bereits cloud native: Das zeigt eindrucksvoll der Siegeszug von Docker und der umfangreiche Einsatz von Cloud Native Technologien bei zahlreichen Unternehmen – vom Start-up-Betrieb bis hin zum DAX-Konzern.  Die Nachfrage nach Instrumenten, die Stabilität, Skalierbarkeit und vor allem Geschwindigkeit sicherstellen, wird weiter wachsen. Hier spielen Cloud Native Technologien wie Docker ihr Können aus, besonders wenn es um maximale Flexibilität und Anpassungsfähigkeit durch eine kontinuierliche Skalierbarkeit der Software-Infrastruktur geht. Hinzu kommt: Andere, klassische Systeme profitieren ja ebenfalls von Cloud Native Prinzipien: Sie werden meist fehlertoleranter, wartungsfreundlicher und robuster – ein Vorteil, den sich viele nicht entgehen lassen werden, auch wenn sie gar nicht vorhaben, die Systeme jemals in die Cloud zu bringen.   Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Cloud Native, heftig diskutiert in der Softwareentwicklung, steht bei einigen Entwicklern im Ruf eines Hypes, der sich schon bald wieder verziehen wird. Andere halten das Ganze für die Zukunft in...

Cloud in der Praxis

Data Driven: Was tun, wenn Sie nicht das disruptive Big Data Business sind?

Wenn Sie beunruhigt sind, weil Sie immer häufiger hören, dass Ihr Geschäft nur „data driven“ überleben wird, dann liegen Sie erstmal richtig. Und wenn Sie unsicher sind, •     was genau jetzt die richtige Strategie für Sie ist, •     in welchem Umfang Sie in diesem Bereich investieren sollen, und •     wenn Sie hin- und hergerissen sind zwischen einem gut eingespielten Geschäftsmodell und eventuell aufregend innovativen, aber eben ganz anderen Produktions- und Vertriebswegen… dann gehören sie zu den zahllosen Unternehmen, die bisher ebenfalls keine echte datengetriebene Transformation umgesetzt haben oder Änderungen in dieser Richtung nur Stück für Stück schaffen. Die gibt es in verschiedensten Branchen – von Banken über Versicherungen, Bildungseinrichtungen, Immobilienmaklern, bis zu Forschung oder Pharma – in Europa und Nordamerika. Auf einen Blick: Der evolutionäre Weg für data driven   Fokus auf Anwendungen mit größtem Nutzen legen Nicht an Data Science Kompetenz sparen An den richtigen Stellen experiemntieren  Experimente schnell umsetzen Auswirkungen auf den Umsatz messen   Die schlechte Nachricht für Sie: Ihr Unternehmen wäre die große Ausnahme, wenn Sie es sich leisten könnten, datengetriebene Transformation komplett zu ignorieren. Die gute Nachricht: Unter Umständen brauchen Sie nicht unbedingt alles auf den Kopf zu stellen, um nicht morgen schon weg vom Fenster zu sein – also mit Big Data jonglieren, disruptiv ihren Markt aufmischen usw. Sondern: Es gibt einen evolutionären Weg für data driven Viele Unternehmen arbeiten auf Basis eines eingespielten Geschäftsmodells, das sie aus unterschiedlichen Gründen nicht ohne Weiteres aufgeben können oder wollen. Oft können aber solche Unternehmen Daten stärker als bisher nutzen, um dieses Geschäftsmodell zu optimieren. Dieser Weg ist sicherer als eine radikale, vielleicht sogar abrupte Umstellung. Allerdings kannes sein, dass Veränderungen auf diese Weise nicht ausreichend tiefgreifend vollzogen werden. Es kommt also stets darauf an, wie schlagkräftig Ihr Geschäftsmodell auf die Dauer noch ist. Wenn Sie sich aber in einer Situation befinden, wo der „evolutionäre Pfad“ für Ihr Unternehmen ausreichend erscheint, ist es wichtig, dass Sie die folgenden fünf Punkte beachten: 1. Setzen Sie den Fokus auf die Anwendung von Daten, die den größten Nutzen bringt. … Soll heißen: Verzetteln Sie sich nicht. Definieren Sie zunächst, wo Ihre dringendsten Geschäftsanforderungen mit der geringsten Komplexität erfüllt werden können. Dazu verwenden Sie ein geeignetes Datenstrategie-Tool. In den Bereichen Marketing oder Kundenorientierung liegt oft gut verfügbares Potential für den Einsatz des ersten Data-Science-Projekts in Ihrem Unternehmen. Vorteile ergeben sich in diesen Abteilungen schnell und offensichtlich. Das kann Ihnen für den Rest des Unternehmens nützliche Dynamik verschaffen. 2. Sparen Sie nicht an Kompetenz für Ihre Data Science! Sie brauchen am Anfang rasch eine „kritische Masse“ an Erkenntnissen aus Ihren Daten. Also müssen Sie entweder genügend Datenwissenschaftler einstellen oder sich kompetente externe Anbieter an Bord holen. Die wichtigste Position zu Beginn sind Business-Übersetzer für die Data Science, die in der Lage sind, Effekte in kurzer Zeit zu maximieren. Es ist durchaus eine Herausforderung, das erforderliche technische Know-how einzukreisen, das Sie einkaufen müssen, bevor Sie überhaupt das erste Projekt durchgeführt, geschweige denn geschäftlichen Erfolg damit erzielt haben. Und dann müssen Sie das geeignete technische Personal einstellen und das Ganze aus dem ersten Schwung heraus schnell aufbauen.  3. Scheitern lernen und an den richtigen Stellen experimentieren! Setzen Sie den Schwerpunkt auf Lerntempo – bei Erfolg wie Misserfolg. Investieren Sie nicht zu viel in langfristige Projekte, Systeme und Backend, bevor Sie sicher sind, was Wirkung zeigt. Wählen Sie also einen agilen Ansatz und sorgen Sie dafür, dass Sie sich damit kontinuierlich anpassen. 4. Bilden Sie ein Capture-Team, um Ergebnisse von Experimenten schnell umzusetzen. Setzen Sie die Ressourcen und die Kompetenzen, die sich aus Ihrer Datenstrategie ergeben, wirklich und tatsächlich ein – alles andere wäre Verschwendung. Es ist entscheidend, dass diese Strategie betriebsintern Anerkennung findet. Dazu müssen Sie Ergebnisse vorweisen. Ein Capture Team kann viel dazu beitragen, Ergebnisse nicht nur zu dokumentieren, sondern deren wirksame Umsetzung u. a. durch gute Sichtbarkeit abzusichern. 5. Messen Sie die Auswirkungen auf den Umsatz. Benutzen Sie Kontrollgruppen, um feststellen zu können, wo der datengesteuerte Ansatz den traditionellen Ansatz übertrifft. Es gibt dafür gute Beispiele im Bank- und Telekommunikationssektor. Wenn Sie wöchentlich so etwas zeigen können wie dass der datengesteuerte Ansatz den traditionellen um 186 % übertrifft, wird das seine Wirkung nicht verfehlen. Das Risiko? – Schritt für Schritt, also den evolutionären Weg zu gehen, birgt die Gefahr, sich allzu behaglich einzurichten und keine deutlichen Fortschritte zu erzielen. Unterschätzen Sie nicht, welche Beharrungskräfte ein traditionelles Geschäftsmodell haben kann, wenn Sie Ihre datengetriebene Strategie nicht zügig und nachhaltig umsetzen. Davon hängt fast alles ab.   Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Cesar Ortiz, Principal Solution Consultant.

Wenn Sie beunruhigt sind, weil Sie immer häufiger hören, dass Ihr Geschäft nur „data driven“ überleben wird, dann liegen Sie erstmal richtig. Und wenn Sie unsicher sind, •     was genau jetzt die...

Business Analytics

Analytics Cloud: Wird Business Analytics durch künstliche Intelligenz (KI) überflüssig?

Wird Business Analytics durch künstliche Intelligenz (KI) überflüssig? Oder zumindest nebensächlich? Immerhin, eine wachsende Anzahl von Unternehmen setzen künstliche Intelligenz und maschinelle Lernsysteme auf ihre Daten an. Das könnte ein Indiz dafür sein, dass Entscheider die Rolle von Business Analytics als Erfolgsfaktor niedriger einstufen als bisher. – Schauen wir mal, ob das überhaupt eine Frage von entweder/oder bei diesen Werkzeugen ist. Auf einen Blick: Business Analytics und künstliche Intelligenz (KI)   Business Analytics und künstliche Intelligenz (KI) sollten in Unternehmen kombiniert eingesetzt werden: so lassen sich Routineaufgaben automatisieren und höhere Wertschöpfung erreichen. In der Oracle Analytics Cloud ergänzen sich KI- und Machine-Learning-Implementierungen optimal.   Unbestreitbar ist zunächst: Künstliche Intelligenz ist eine richtig große Sache, und das nimmt noch zu. Eine kürzlich veröffentlichte globale Studie über KI und ihre verschiedenen Anwendungen prognostiziert einen Börsenwert von 191,60 Milliarden US-Dollar bis 2025. Das bedeutet jährliche Wachstumsraten von 37 Prozent auf Grundlage von den geschätzten 11,71 Milliarden US-Dollar, die KI-Projekte 2016 am Markt einsammeln konnten (Quelle: Xpodence Research). Die treibende Kraft hinter diesem Wachstum sind zum einen Investitionen in Anbieter von Big-Data-Analytics, zum anderen die steigende Nachfrage nach intelligenten virtuellen Assistenten und die zunehmende Akzeptanz cloud-basierter Anwendungen und Dienste. Eine erste interessante Frage in diesem Zusammenhang: Welche Vorteile bringt der Einsatz künstlicher Intelligenz für das Geschäftsergebnis? Um die Zusammenhänge zwischen KI und Business Analytics besser zu verstehen, haben wir Karl Dollard, Senior Manager bei Accenture, interviewt. Er ist auf die Oracle Analytics Cloud und verwandte Technologien spezialisiert. Und er hat eine klare Meinung zu der Frage, ob KI ohne Business Analytics (und umgekehrt: Analytics ohne KI) überhaupt existieren kann. Dollard sagt, am besten verwendet man sie gemeinsam: "Das sind in meinen Augen sehr kooperative Lösungen. Sie arbeiten zusammen, und sie bauen aufeinander auf. Ich würde zugleich auch Data Engineering, Datenaufbereitung und Datensammlung mit integrieren. Sie passen alle zusammen. Denn: Man kann zwar ein hochentwickeltes Analysemodell zusammenstellen; wir wissen, wie das funktioniert, und es kann hilfreich sein. Aber dann gibt es andere Bereiche, wo wir eben nicht unbedingt wissen, wie alles interagiert, und da müssen wir KI-Technologien einsetzen, damit wir die versteckten Muster identifizieren können. Es sind also definitiv kooperative Technologien, sie sind Teile eines Werkzeug-Sets, und sie werden weiterhin aufeinander aufbauen, um höhere Level und neue Fähigkeiten zu erreichen." – Also kein „oder“! Während die Möglichkeiten der Business Analytics für KI und maschinelles Lernen nach Science Fiction klingen mögen, sind die Anwendungsbereiche in Dollards Augen tatsächlich wesentlich handfester. KI + Analytics = mehr Wertschöpfung "Viele der alltäglichen Routineaufgaben sind ein guter Ansatzpunkt für Automatisierung und maschinelles Lernen", sagt Dollard. "Ich will nicht wie ein Nerd klingen; aber mit Sachen wie Data Warehouse und die Analytics Cloud können wir uns darauf konzentrieren, einen Haufen stupider Jobs zu automatisieren, und auf einmal habe wir wieder Zeit – für Aufgaben und Aktivitäten, die wesentlich mehr Werte produzieren, während maschinelles Lernen und KI die übrigen Arbeiten besser erledigen." Wohlgemerkt: Das Zusammenwirken von künstlicher Intelligenz und Business Analytics findet deswegen nicht komplett im Hintergrund statt. Dollard hebt hervor, dass bei Accenture gerade ein großes Regierungsprogramm läuft, bei dem Business Analytics sowie KI und maschinelles Lernen im Einsatz sind, um kritische Prozesse zu simulieren. In ähnlicher Weise berät das Accenture als globales Beratungsunternehmen eine andere Regierungsbehörde, die darauf abzielt, jeden Betrugsfall zu priorisieren und mögliche Verluste zu bewerten, so dass die Ermittler ihre Bemühungen in kürzester Zeit maximieren können. "Ich bin mir sicher, dass wir noch mehr neue Möglichkeiten entdecken werden – Dinge, die wir noch untersuchen könnten, die überhaupt erst beim Einsatz von Business Analytics für diese KI-Modelle herauskommen", sagt Dollard. Das gesamte Interview (englisch) hören Sie, wenn Sie das Foto anklicken:   Um mehr darüber zu erfahren, wie Oracle Analytics die KI- und Machine-Learning-Implementierungen Ihres Unternehmens am besten ergänzt, besuchen Sie unsere Website. Besuchen Sie unsere Oracle Cloud Analytics Website, um mehr zu erfahren.   Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Sabine Leitner, Sr. Marketing Manager.

Wird Business Analytics durch künstliche Intelligenz (KI) überflüssig? Oder zumindest nebensächlich? Immerhin, eine wachsende Anzahl von Unternehmen setzen künstliche Intelligenz und maschinelle...

Cloud Technik

AI-driven Enterprise vor Kurzem noch Zukunftsvision – jetzt schon Praxis

Wollen Sie beim kontinuierlichen Wandel, bei der digitalen Transformation vorne mit dabei sein? Dann müssen Sie sich idealerweise kontinuierlich selbst auf den Prüfstand stellen. Gartner nennt diesen Innovationsprozess "Continuous Next". Helfen sollen dabei die "Top 10 Strategic Technology Trends", die das Analystenhaus für 2019 identifiziert hat, darunter Empowered Edge Computing, Blockchain, Conversational Platforms, selbstlernende Analytics-Tools und autonom agierende Systeme. AI-driven Enterprise vor Kurzem noch Zukunftsvision – jetzt schon Praxis   Unternehmen profitieren von vielen neuen Cloud-Lösungen, oft mit künstlicher Intelligenz (KI). Solche spannende Cloud-Lösungen hat Oracle auf der diesjährigen Oracle Open World (OOW) im Oktober bereits gezeigt und ist damit anscheinend seiner Zeit voraus – oder? Lassen wir die Ereignisse für sich selbst sprechen.   Die Cloud der zweiten Generation („Gen 2 Cloud“) war für Larry Ellison Thema seiner Eröffnungsrede auf der OOW. Diese Cloud-Generation wird technologisch fortschrittlicher und sicherer sein als die heutigen Lösungen auf dem Markt. Das Spezielle daran: Sie bietet bietet höchste Sicherheit, Leistungsfähigkeit und viel Potential, Kosten zu senken. Das und die exklusive Eignung für den Betrieb der Oracle Autonomous Database macht die besondere Architektur und die weitreichenden Funktionen hochgradig interessant für Unternehmen, die regelmäßig mit anspruchsvollen Workloads zu tun haben.. Larry Ellison wäre nicht der Mann, der er ist, hätte er nicht auch ein Paar knackige Statements in Richtung AWS losgelassen. Aber er hat auch geliefert, z. B. zum Thema Oracle Autonomous Database: Hier entfallen die lästigen „planned Downtimes“, die woanders unweigerliche Begleiterscheinung bei Software-Updates sind. Diese Datenbank arbeitet während der Updates völlig unbeeindruckt weiter. Direkter Vorteil: die 99,995-prozentige Zuverlässigkeits- und Verfügbarkeits-SLA inklusive (!) Softwareaktualisierungen, im Vergleich zu bestenfalls 99,95 % bei anderen Anbietern.   Die nächste Generation der Oracle Enterprise Cloud Mit Neuerungen im Bereich der Oracle Cloud Infrastructure zielt Oracle vor allem darauf ab, Cloud-Kunden Core-to-Edge-Sicherheit bereitzustellen. Durch die Einführung neuer integrierter Sicherheitslösungen können künftig anspruchsvolle Cyber-Bedrohungen mit adäquaten Maßnahmen bekämpft werden. Zu diesen Cloud Services gehört ein Key Management Service (KMS), mit dem Kunden die Verschlüsselung ihrer Daten steuern können; der jetzt integrierte Cloud Access Security Broker (CASB), der die sichere Konfiguration überwacht; die Web Application Firewall (WAF) zum Schutz vor Angriffen auf den Webverkehr; der Distributed-Denial-of-Service (DDoS)-Schutz, der Cyber-Bedroher daran hindert, Kundenanwendungen zu unterbrechen. Diese Services wurden zudem auch der Oracle Autonomous Database hinzugefügt, zusätzlich zu den bereits vorhandenen automatischen Sicherheits- und Patching-Funktionen. Sehen Sie hier Larry Ellisons Eröffnungsrede zur OOW:   Die Cloud – unzweifelhaft eine der Schlüsseltechnologien der Zukunft Mark Hurd hatte sich schon im Vorjahr felsenfest überzeugt gezeigt, dass nur noch das Tempo, mit dem die Cloud sich flächendeckend durchsetzt, Diskussionsthema sein kann. In seiner Keynote am Dienstag ging es über die damals in den Raum gestellte Prognose noch hinaus. Er hatte auf etwa 85 % produktiver Anwendungen getippt, die bis 2025 in der Cloud laufen würden. Jetzt setzt er einen drauf: Bis 2025 würden alleCloud-Anwendungen Künstliche Intelligenz (KI) beinhalten und die Automatisierung der Kunden-Interaktionen würden sich bis dahin auf 85 % aller Interaktionen belaufen. „60 % aller zukünftigen Jobs im Bereich IT sind noch gar nicht erfunden. Aber sie kommen in den nächsten sieben Jahren“, gibt sich Hurd zuversichtlich. Dabei würden eher neue Arbeitsplätze entstehen als bisherige wegfallen, etwa durch KI Berufsbilder wie „Supervisor für Roboter“, „Smart-City-Technology-Designer“ und Experte für KI-gestützte Medizintechnik/Datenanalyse. Mit der Oracle Cloud Plattform und den Oracle Cloud Applications konnten Kunden ihre Produktentwicklung beschleunigen sowie ihre Produktivität und Flexibilität steigern. So sorgte Mitsubishi Electric auf der Oracle OpenWorld 2018 mit Produktivitätssteigerungen von 60 Prozent für Erstaunen. Die Herausforderung für Mitsubishi: Weltweit verteilte Kunden verlangen eine größere Produktauswahl bei Elektroartikeln in unzähligen Variationen – das zugleich aber in kleineren Mengen und mit erheblichen Qualitätsansprüchen. In der Produktion setzt Mitsubishi nun die Oracle ERP Cloud und Oracle SCM Cloud für den Produktionsprozess ein, nutzt aber außerdem die Internet-of-Things- (IoT), Java-, API- und Integrationsfunktionen der Oracle Cloud Platform. Damit kann das Unternehmen die Konnektivität zwischen Geräten in der Herstellung und über die ganze Wertschöpfungskette der Fertigung hinweg vereinfachen und beschleunigen. Das Monitoring läuft über ein System, das ebenfalls in der Cloud basiert ist. IoT-Daten lassen sich in kürzester Zeit über die Oracle Analytics sowie die Oracle Database Cloud analysieren, und Herstellungsfehler so auf ein Minimum reduzieren lassen, während die Produktion gesteigert wird.   Flächendeckende Innovationen für optimierte Produkte und Services Oracle setzt ganz gezielt neue Technologien in allen Bereichen des eigenen Cloud-Angebots ein und zwar auch integriert in die eigenen Geschäftsanwendungen. Das erleichtert es Kunden, von diesen Technologien bei der eigenen digitalen Transformation leichter davon zu profitieren. Und: Die eigene Cloud Infrastructure bietet zugleich eine Basis für die KI- und Autonomous-Funktionen, die Oracle zur verfügung stellt. Von Anfang an integriert in Oracle Cloud Services: Machine Learning und Künstliche Intelligenz, z. B. bei den Oracle CX-Anwendungen. Sie haben eingebaute KI-Tools, die umgehend Services bereitstellen, sobald der Bedarf sich ankündigt. Zudem automatisieren sie Antworten und liefern personalisierte Services. Im Blockchain-Serviceangebot erweitert Oracle die Palette um neue Geschäftsanwendungen auf Basis einer eigenen Blockchain-Entwicklungsplattform. Um das Vertrauen bei unterschiedlichsten Kunden hinsichtlich Blockchain zu stärken, hat Oracle seinen neuen Blockchain Applications Cloud Service eingerichtet. Er dient auch dazu Transaktionen in Geschäftsnetzwerken flexibler zu realisieren.   Digitale Assistenten – für das Unternehmen personalisiert Um Mitarbeiter dabei zu unterstützen, produktiver und intelligenter zu arbeiten, gibt es jetzt den Oracle Digital Assistant. Unternehmen sein damit in der Lage, personalisierte digitale Assistenten zu erstellen. Mit entsprechendem Training lernen diese Assistenten ihren Job, Mitarbeiter im Umgang mit Anwendungen wie HCM, ERP, CRM und CX zu helfen. Per KI kapiert der Assistent den Kontext, interpretiert, was die Absicht ist, und er identifiziert und lernt das Verhalten des Mitarbeiters, damit er Routinejobs, z. B. Spesengenehmigungen und Terminänderungen, automatisieren kann, so als würde der betreffende Mitarbeiter sie durchführen. Damit spielt dieser Assistent in einer komplett anderen Liga als etwa herkömmliche Chatbots, was die gesamte Funktionalität betrifft. Im Einsatz sind hier auf Basis der Oracle Cloud Infrastructure und mit KI  Natural Language Processing (NLP), Natural Language Understanding (NLU) und Machine Learning (ML). bietet Oracle einen einzigartigen Service an: Benutzer können sich mit dem exzeptionellen Service des Oracle Digital Assistant über die Sprachschnittstelle unterhalten. Er funktioniert plattformübergreifend und managt elegant die Unterstützung weit verbreiteter Messaging-Dienste wie Slack, Facebook Messenger, WeChat und Alexa. Schließlich gewinnen Unternehmen real-timeEinblicke in Nutzerverhalten und Performance – über die Analyse der Nutzung des Assistenten.   Zurück zur Eingangsfrage und zu Gartners Top 10-Themen für 2019: Inwieweit Oracle nun tatsächlicher seiner Zeit voraus ist, ist angesichts dieser digitalen Offensive unschwer zu entscheiden. Eines ist aber zumindest für mich klar: technologisch ist Oracle ganz vorne dabei!   Sie können sich aber auch einfach ganz entspannt zurücklehnen und Oracle den Job machen lassen:     Kontakt: Wenn Sie noch mehr darüber wissen möchten, spreche ich gerne mit Ihnen darüber, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Wollen Sie beim kontinuierlichen Wandel, bei der digitalen Transformation vorne mit dabei sein? Dann müssen Sie sich idealerweise kontinuierlich selbst auf den Prüfstand stellen. Gartner nennt diesen...

Cloud Basics

Hadoop heißt, Big Data endlich in den Griff zu kriegen

Warum bloß kommt das immer wie das Amen im Gebetbuch? Wenn IT-Verantwortliche über Business Intelligence (BI), Data Science und besonders über Big Data reden, landen sie irgendwann unweigerlich beim Thema Hadoop. Das Hadoop-Ökosystem scheint allgegenwärtig zu sein und jeden in der IT umzutreiben. Hier erfahren Sie, was es damit auf sich hat. Was ist Hadoop?   Hadoop kommt von der Apache Foundation und ist eine Open-Source-Lösung, mit der Sie auch wahnwitzig große Datenmengen auf einer komplexen verteilten Rechner-Infrastruktur verarbeiten können. Die Software baut dazu auf einem speziellen Dateisystem, dem Hadoop Distributed File System (HDFS) auf. Das Gesamtsystem ist in Java entwickelt, das verteilte Dateisystem wiederum enthält den MapReduce-Algorithmus, den Google in seinen Grundzügen entwickelt hat. MapReduce ist für die Verarbeitung großer Datenmengen optimiert, also ein Tool speziell für Big Data.    Das Besondere an der Hadoop Architektur: Sie braucht keine eigene Hardware. Hadoop-Datenbanken laufen auf gängigen Standard-Computern, Sie brauchen also nicht auf teure SAN-Lösungen zurückzugreifen.   Und warum heißt Hadoop nun Hadoop? HardwareDoomsdayProduct? – Nein, es ist der Name eines kleinen gelben Elefanten (daher auch das Logo), der das Lieblings-Stofftier des Kindes einer der Entwickler war.   Wie funktioniert Hadoop? Wenn Sie eine spezifische Aufgabe im Big-Data-Umfeld (Datenverarbeitung und/oder Datenanalyse) betrachten, dann kann Hadoop diese Aufgabe auf verschiedene Rechner in einem Cluster verteilen. Der verantwortliche Administrator braucht sich dabei nicht mehr darum zu kümmern, wie er die Daten verteilt. Ein großer Vorteil ist auch die stufenlose Skalierbarkeit: Cluster lassen sich innerhalb kürzester Zeit erweitern, vor allem in Cloud-Umgebungen wie AWS (Amazon), Azure (Microsoft) oder in Oracle-Cloudsystemen. Durch ein verteiltes Hadoop-System bekommen Sie somit praktisch grenzenlose Ressourcen zur Datenanalyse in die Hand. Vereinfacht erklärt, geht das so: MapReduce teilt die gesamte Datenverarbeitung in einzelne Teilaufgaben auf, die sich im Rechnerverbund parallel ausführen lassen. Die einzelnen Resultate werden dann wiederum zu einem Gesamtergebnis zusammengefügt. Ein Rechner des Clusters übernimmt die Aufgabe des Masters, alle anderen Computer fungieren als Slave. Oder etwas fachlicher: Das MapReduce-Framework übernimmt die Datenverarbeitung. Der Mapper erfasst die Daten, bereitet sie auf und leitet sie anschließend an den Reducer weiter, unterstützt von dem sogenannten Pipelining-Verfahren. Der Reducer wiederum bildet aus der Ausgangs-Datenmenge die erwünschte Schnittmenge, und aus diesem Datenmaterial lassen sich dann z. B. Analysegrafiken, Diagramme oder Statistiken gewinnen. Aufgabe des Dateisystems HDFS ist es, die Datenmengen auf die einzelnen Teilsysteme im Cluster zu verteilen.   Die Hadoop Tools     Die Hadoop-Architektur besteht aus einzelnen Komponenten und Tools. Die vier Hauptelemente des Frameworks sind •     Hadoop Common •     HDFS •     MapReduce •     YARN (Yet Another Resource Negotiator) Common bildet den Kern mit den Grundfunktionen und Tools für alle weiteren Elemente der Software. Hierin sind u. a. die Java-Files und -Scripts enthalten, die für den Software-Start zuständig sind. Die Interaktion zwischen dem Hadoop-Common und allen weiteren Komponenten wird über Schnittstellen abgewickelt. HDFS, das Hadoop Distributed File System, kann mehrere 100 Millionen Daten eines verteilten Dateisystems in einem Rechnerverbund verwalten. Das Dateisystem enthält Dupliziermechanismen für redundante Datenhaltung. Das beugt Datenverlusten bei einem Ausfall einzelner Rechnern vor. Der MapReduce-Algorithmus ist das Herzstück und die zentrale Engine des Hadoop-Frameworks. Mit den Funktionen dieses Algorithmus' lassen sich rechenintensive Aufgaben auf die Ressourcen eines Rechner-Clusters verteilen. Durch die synchrone Datenverarbeitung entsteht eine sehr hohe Performance des Gesamtsystems. Wenn die zu berechnenden Datenmengen in den TeraByte-Bereich anwachsen, benötigt der MapReduce-Prozess allerdings u. U. viel Rechenzeit. Hier spielt des Hadoop-System seinen großen Vorteil aus: Durch verteiltes Rechnen wertet jeder einzelne Computer nur eine kleine Teilmenge aller Daten aus. Die Teilergebnisse kommen erst kurz vor der Übergabe an den Reducer-Prozess wieder zusammen. Die Hadoop-Dienste TaskTracker und JobTracker ergänzen den MapReduce-Algorithmus. Durch die Aufteilung von Datenspeicher und Rechenleistung ist das Framework somit die optimale Lösung für nahezu alle Big-Data-Aufgaben. YARN ergänzt schließlich den MapReduce-Algorithmus, und zwar als Management-Tool, das die Ressourcen eines Rechnerverbundes verwalten und verschiedene Aufgaben dynamisch zuordnen kann. YARN legt über Queues die Kapazitäten der Systeme für die einzelnen Jobs fest.   Weitere Tools im Hadoop-Umfeld Eine Reihe weiterer Tools der Hadoop-Architektur bauen als Prozessanwendungen auf MapReduce auf. Hier die wichtigsten Tools und ihre Einsatzgebiete: Hive erweitert MapReduce um SQL-Funktionalitäten – die SQL-Statements sind identisch. Hierdurch ermöglicht Hive den Aufbau eines dezentralen Data Warehouse Systems, mit dem extrem große Datenmengen verarbeitet werden können. Pig ist eine Skriptsprache, mit der sich komplexe MapReduce-Transformationen verarbeiten lassen. Die einzelnen Sprachelemente basieren auf PigLatin und werden als MapReduce-Jobs ausgeführt. Pig kommt meistens bei ETL-Transformationen in HDFS zur Anwendung. Mahout wird für Predicitions und Clusteranalysen eingesetzt. Es handelt sich um eine Machine-Learning-Bibliothek für das Business-Intelligence-Umfeld. Spark ist eine Erweiterung des Hadoop-Ökosystems und ermöglicht dem Gesamtsystem eine Real-Time-Datenverarbeitung sowie Datastreaming-Funktionen. Flink ist, ähnlich wie Spark, eine speicherresidente Batch Processing Engine und umfasst auch ähnliche Funktionen wie Spark. Der Fokus liegt hier jedoch auf Complex Event Processing sowie auf Machine Learning. Flink beruht auf dem Forschungsprojekt Stratosphere. Das Tool wurde zwar erst nach Spark veröffentlicht, enthielt aber viel früher effektive Speicherverwaltungsmechanismen, die nicht auf den eher trägen Serialisierungsverfahren von Java basierten.   Hadoop und Big Data - Zwei die sich vestehen Das typische Einsatzgebiet des Hadoop-Ökosystems haben Sie, wenn ein "einfacher" Computer beim Erreichen eines bestimmten Umfangs der Datenanalyse seine Aufgaben nicht mehr in einer halbwegs erträglichen Zeit abarbeiten kann. Wann dieser Punkt erreicht ist, hängt mal von der Datenmenge, mal von der Komplexität der Jobs (oder beidem zusammen) ab – aber irgendwann wird es einfach unabdingbar, auf eine Clustercomputing-Lösung umzusteigen. Der Einsatz im Bereich Business Intelligence ist die Domäne des Hadoop-Systems. Hier kann das Framework seine Stärke ausspielen, umfangreiche und auch inhomogene Datenbestände in hohem Tempo zu verarbeiten. Hinzu kommt: Daten für BI-Reports und Analysen stammen häufig aus unterschiedlichen Datenquellen und sind meist sehr unterschiedlich strukturiert. Ein Hadoop-Cluster bewältigt schnell und ökonomisch riesige Datenmengen, selbst im PetaByte-Bereich. Die Ergebnisse der Datenverarbeitung mit dem Hadoop-System liefern Erkenntnisse, die bei der strategischen Ausrichtung eines Unternehmens wichtig sind und bei Entscheidungsfindungen außerordentlich hilfreich sein können. Nicht zuletzt wird mit der Big-Data-Verarbeitung das Berichtswesen durch Effizienzsteigerung wesentlich einfacher. Fazit Das Hadoop-Framework setzt Ansätze, die im Prinzip seit Jahrzehnten bekannt sind, in Aufsehen erregender Weise neu um. Zu diesen Ansätzen gehören sowohl das verteilte Rechnen als auch die Übergabe von Daten an weitere Programme. Ein wesentlicher Vorteil liegt zudem im kostengünstigen Einsatz: Da das Hadoop-System auf Java basiert, kann es auf nahezu jeder Hardware-Plattform eingesetzt werden. Dadurch wird es möglich, dass wirklich jedes Unternehmen mit Big Data arbeiten kann.   Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Warum bloß kommt das immer wie das Amen im Gebetbuch? Wenn IT-Verantwortliche über Business Intelligence (BI), Data Science und besonders über Big Data reden, landen sie irgendwann unweigerlich beim...

Business Analytics

Bienensterben: Oracle sorgt mit künstlicher Intelligenz und Datenvisualisierung für Rettung

Wie sollte Oracle Analytics dazu beitragen, eines der brennendsten ökologischen Probleme in den Griff zu bekommen? – Das Bienensterben ist nicht nur ein wichtiges Thema; die Ursachenforschung ist darüber hinaus ein Paradebeispiel, wie sich mit Cloud Computing hochgradig komplexe Sachverhalte aufschlüsseln lassen. Auf einen Blick: Bienenrettung mit künstlicher Intelligenz und Datenvisualisierung     Maßnahmen gegen das Bienensterben: Mit Oracle Analytics untersuchen das World Bee Project WBP und weitere Partner Ursachen des Bienensterbens und schützen die Bienen –mit künstlicher Intelligenz, Datenvisualisierung und dem kombinierten Fachwissen von Oracle, Naturschützern und Imkern.   Bienen, aber auch andere Insekten, die Blüten bestäuben, sind vom Aussterben bedroht, sagt – unter anderem – das World Bee Project (WBP). Deshalb wurde jetzt in Zusammenarbeit mit Oracle eine neue internationale Initiative gestartet, die mithilfe von Analytics den Rückgang der betroffenen Insektenarten verlangsamen soll. Beim Customer Event "Nature of Data" im Rahmen der Oracle OpenWorld schilderte WBP-Gründerin Sabiha Malik die immer unwirtlicheren Bedingungen für Bienen, bedingt durch den Verlust von Blumenhabitaten, intensivierte Anbaumethoden, den Klimawandel und den verstärkten Einsatz von Pestiziden. Gegenmaßnahmen setzen differenzierte Kenntnisse voraus, betonte Malik: "Je besser wir die Zusammenhänge zwischen Bestäubung, Nahrung und menschlichem Wohlstand verstehen, desto mehr können wir tun, um Bienen und andere Bestäuber zu erhalten – und so dazu beitragen, die Erde und uns selbst zu schützen. Stellen Sie sich einen Bauern vor, dessen Ernten um ein Drittel zurückgehen. Damit haben wir es zu tun, wenn die Bienenvölker weiter abnehmen." Drei Schlaglichter machen sichtbar, wie gravierend das Bienensterben sich auswirkt: •          Bienen sorgen für die Bestäubung von Pflanzen, ohne die ein Drittel der weltweiten Nahrungsmittelversorgung ausfiele. •          Von den 100 Pflanzenarten, die 90 Prozent der Weltbevölkerung ernähren, bestäuben die Bienen 70 Prozent. •          Englands Honigbienen etwa verschwinden schneller als anderswo in Europa, mit einem Rückgang von 54 Prozent zwischen 1985 und 2005. Ein Projekt-Netzwerk für den Bienenschutz "Das World-Bee-Project-Hive-Netzwerk wird Daten über ein Netzwerk von angeschlossenen Bienenstöcken rechnerfern sammeln", erläuterte Malik. Diese Daten werden dann in eine Oracle Analytics Cloud eingespeist. Die Cloud ermöglicht mit Analysetools einschließlich künstlicher Intelligenz (KI) und Datenvisualisierung neue Erkenntnisse über die Beziehungen zwischen Honigbienen und ihrer Umgebung. Im Rahmen der Partnerschaft von WBP mit Oracle und der University of Reading School of Agriculture, Policy, and Development (SAPD) können Forscher den Honigbienen „zuhören“ und die komplizierten akustischen Daten analysieren, die in den „intelligenten Bienenstöcken“ erfasst werden, einschließlich der Bewegung von Bienenflügeln und -füßen. Weitere Präzisionsmessungen wie Temperatur, Feuchtigkeit und Honigausbeute kommen hinzu und ergänzen die Beobachtungen der Forscher, lassen sie Muster erkennen und Verhaltensweisen vorhersagen. Naturschützer und Imker werden so in die Lage versetzt, Bienenvölker zu schützen, zum Beispiel das Schwärmen zur falschen Jahreszeit zu verhindern oder Räuber wie die invasive asiatische Hornisse zu fernzuhalten. Der Wert der Daten besteht darin, die Imker das ganze Jahr über kontinuierlich über den Zustand ihrer Völker zu informieren, um das Management der Bienenhaltung zu unterstützen. Das WBP Hive Network wurde in Großbritannien gestartet, eine Ausweitung auf die USA und Afrika wird erwartet. Im folgenden Video sehen Sie, wie das Projekt zustande kam:   Wie stehen Sie Im Vergleich zu Ihrer Konkurrenz da? Ihre Mitbewerber nutzen Analytics – und Sie? Mit dieser 2-Minuten-Bewertung erfahren Sie mehr über Ihre Position.   Oder besuchen Sie unsere Oracle Cloud Analytics Website, um mehr zu erfahren. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Cesar Ortiz, Principal Solution Consultant.

Wie sollte Oracle Analytics dazu beitragen, eines der brennendsten ökologischen Probleme in den Griff zu bekommen? – Das Bienensterben ist nicht nur ein wichtiges Thema; die Ursachenforschung ist...

Cloud Technik

Oracle University: Warum digitales Lernen eine Top-Priorität aller IT-Profis sein sollte

In keinem anderen Bereich erleben wir so viele und schnelle Entwicklungen und Veränderungen wie in der IT-Branche – und kein anderer Bereich hat so große Auswirkungen auf unser Privat- und Berufsleben. Mit Verbesserungen in anderen Stabsfunktionen wie Finanzen oder Human Resources steigern die Unternehmen ihre Effizienz. Fortschritte in der IT hingegen können die Unternehmen selbst verändern – und unseren Lebensstil gleich mit. AI, Big Data, Cloud-Computing, Blockchain, Datenbankautomatisierung – die Innovationen in der Informationstechnologie überschlagen sich über den gesamten Technology-Stack hinweg. Auf einen Blick: Warum digitales Lernen eine Top-Priorität aller IT-Profis sein sollte   Die beste Zeit zum Lernen ist immer jetzt Präsenztraining ist in der IT nicht mehr zeitgemäß Digitales Lernen für das digitale Zeitalter Schreiben Sie sich ein für ein neues Lernen   Wie können IT-Profis Schritt halten mit dem permanenten Fortschritt in der Informationstechnologie? Die beste Zeit zum Lernen ist immer jetzt IT-Profis müssen sich heute immer schneller mit zahlreichen Technologien vertraut machen. In unserem hektischen Geschäftsalltag wird es zudem schwieriger, ausreichend Zeit für die permanente Weiterentwicklung der eigenen Kenntnisse und Fähigkeiten aufzuwenden. Beschäftigte im IT-Bereich werden nahezu überrollt: Sie entwickeln und unterhalten existierende Systeme, übernehmen neue Projekte, planen die IT ihrer Organisation und zeichnen verantwortlich für Implementierungen, Upgrades und Optimierungen. Hinzu kommen die zahlreichen kleinen Aufgaben des Alltags. IT-Mitarbeiter haben keine Chance mehr, ihrer Weiterbildung ausreichend Zeit zu widmen.  Andererseits veralten das Wissen und die Fähigkeiten von IT-Profis mit jedem Tag, an dem sie sich nicht weiterbilden. Ob sie es schaffen, sich zu jeder Zeit zu aktuellen Technologien auf neuestem Stand zu halten, bestimmt unmittelbar ihren Marktwert und ihre Karriereaussichten. Beschäftigte im IT-Bereich sollten daher Ihre Kenntnisse kontinuierlich weiterentwickeln – unabhängig davon, woran sie in ihrem jeweiligen IT-Aufgabengebiet gerade arbeiten. Präsenztraining ist in der IT nicht mehr zeitgemäß Präsenztraining hat viele Vorteile, eignet sich aber nicht für kontinuierliches Lernen bei den vollen Aufgabenlisten der IT-Profis. Die Teilnahme an Präsenzkursen muss oft Monate im Voraus geplant werden – abhängig vom Kursangebot und den Prioritäten des Tagesgeschäfts. Zudem folgt die Weiterbildung in Gruppen einem vorgegebenen Lerntempo, das nicht für jeden Teilnehmer optimal ist. Und schließlich sind viele Kursinhalte möglicherweise nicht relevant für die spezifischen Aufgaben, die ein IT-Mitarbeiter in seinem Unternehmen zu erfüllen hat. Können Sie als IT-Profi sicherstellen, dass Sie ein Präsenztraining zu festen Terminen in vollem Umfang nutzen werden, während sich gleichzeitig die Anforderungen in Ihrem Unternehmen und Ihrer IT-Abteilung häufig und unvorhersehbar ändern? Oder müssen Sie vielleicht in naher Zukunft spezifische Kenntnisse auffrischen, beispielsweise im Vorfeld von Implementierungen oder Upgrades oder zur Lösung akuter Probleme? Unter den heutigen Bedingungen und mit den gegebenen Einschränkungen sind einmalig verfügbare Präsenzkurse für viele IT-Beschäftigte nicht praktikabel. Digitales Lernen für das digitale Zeitalter Digitales Lernen wird bei den unter ständigem Zeitdruck arbeitenden IT-Profis immer beliebter, weil es sich optimal für kontinuierliches Lernen eignet. Sie nutzen nur, was Sie benötigen, zu der für Sie passenden Zeit – keine Anwesenheitspflicht bei kompletten Kursen, keine An- und Abreisezeiten. Sie wählen Ihr optimales Lerntempo – legen Sie Pausen ein und wiederholen Sie Kursteile nach Ihrem spezifischen Bedarf. Sie erstellen Ihren individuellen Lernplan mit über mehrere Tage oder Wochen verteilten Blöcken – passend zu den sonstigen Terminen und Aufgaben in Ihrem Kalender. Ein weiterer, zunehmend wichtiger Vorteil des digitalen Lernens ist die Unabhängigkeit von einem festen Standort. Lernen Sie komfortabel an Ihrem Schreibtisch, im Trainingsraum Ihres Unternehmens oder im Home Office. Vielleicht sind Sie auch häufig unterwegs zwischen verschiedenen Standorten oder auf dem Weg zu Kunden? Oder Sie möchten die Zeit in Bus oder Bahn während Ihres täglichen Arbeitsweges nutzen? Wo auch immer Sie sind: Alles, was Sie für das digitale Lernen benötigen, können Sie ganz einfach mitnehmen.  Schreiben Sie sich ein für ein neues Lernen  Starten Sie Ihre Reise mit Oracle Launchpad. Dort finden Sie eine Vielzahl von Angeboten und Inhalten, die Sie gratis abrufen können oder an denen Sie kostenlos teilnehmen können. Zur weiteren Vertiefung und Spezialisierung auf Ihrem Weg zu Spitzenleistungen unterstützen Sie die Oracle University Learning Subscriptions mit aktuellem, digitalem Training, das Ihren gesamten Lernbedarf abdeckt. Sie erhalten für ein komplettes Jahr Zugang zu hochwertigen Lerninhalten, erstellt und vermittelt von Oracle Experten – eine überaus kostengünstige Möglichkeit zu lernen, wann immer und wo immer Sie möchten. Die Oracle Learning Subscriptions sind strukturierte, speziell für Ihr Aufgabengebiet oder Ihre IT-Funktion entwickelte Lernprogramme. Sie werden kontinuierlich aktualisiert und reflektieren stets den neuesten Stand der behandelten Technologien. So können Sie sicher sein, dass Sie als einer der ersten diese Informationen erhalten und jederzeit die neuesten Oracle Features und Funktionen einsetzen können. Darüber hinaus sind die allzeit verfügbaren und komfortabel durchsuchbaren HD-Videos die ideale Lösung, wenn Sie eine schnelle Auffrischung Ihrer Kenntnisse benötigen oder wenn Sie gezielt spezifische Inhalte ansteuern möchten, um ein akutes Problem in Ihrem Unternehmen zu lösen. Schauen Sie sich Oracle University doch einmal genauer an: Cloud Learning Subscriptions – alle Trainingsinhalte zu Oracle SaaS, PaaS und IaaS Technology Learning Subscriptions – das aktuelle Trainingsangebot zu Produkten, Lösungen und fachspezifischen Aufgabenstellungen  Bei immer kürzeren Innovationszyklen mit immer breiteren Auswirkungen ist digitales Lernen die einzig praktikable Möglichkeit, damit Sie als IT-Profis auf dem neuesten fachlichen Stand bleiben. Gönnen Sie sich Ihre kontinuierliche Weiterbildung mit den Oracle Learning Subscriptions!   Kontakt Gerne unterhalte ich mich auch mit Ihnen darüber, per E-Mail oder LinkedIn. Ottmar Kugelmann, Senior Director Oracle University - Cloud, EMEA

In keinem anderen Bereich erleben wir so viele und schnelle Entwicklungen und Veränderungen wie in der IT-Branche – und kein anderer Bereich hat so große Auswirkungen auf unser Privat-...

Cloud Technik

Modern Customer Experience: Was haben Oracle und die Höhle der Löwen gemeinsam?

Wer jetzt glaubt, es kommt irgendein flacher Vergleich, der irrt! Es ist in der Tat so, dass es eine reale Gemeinsamkeit gibt, die Sie live erleben können: Felix Thönessen, Deutschlands bekanntesten Gründer- und Startup-Coach. Modern Customer Experience Event: 13.11.2018/Frankfurt   Wie schaffen Unternehmen innovative Kundenerlebnisse mit neuen digitalen Strategien? Wie werden sie Trendsetter statt Nachläufer? Speaker aus Top-Unternehmen sowie Felix Thönessen („Die Höhle der Löwen“) über den Weg zum „Innovation Rockstar“.   Als Coach bei „Die Höhle der Löwen“ hat er viele Jahre die Kandidaten perfekt auf die Sendung vorbereitet. Mit seinem Bestseller „Erfolgreich Unternehmen gründen“ und seiner Tätigkeit als erfolgreicher Investor hat er das Thema „Startups“ auch zu seiner persönlichen Leidenschaft gemacht. Nach über 1000 begleiteten Gründungen weiß Felix Thönnessen, worauf es ankommt, wenn man als Unternehmer durchstarten will. Er sieht sich in der Rolle, Menschen als Unternehmer zu entwickeln und Innovationen ordnend zu unterstützen. Als unser „Special Guest“, dem so manches Startup aus der VOX-Sendung durch sein Coaching den entscheidenden Investoren-Zuschlag verdankt, erklärt er, wie Sie zum „Innovation Rockstar“ werden können.   Neugierig? Dann kommen Sie doch einfach am 13. November nach Frankfurt auf unseren „Modern Customer Experience Event“:   Dort finden Sie dann auch Antworten auf Fragen wie: Sind Sie ein Trendsetter oder laufen Sie der digitalen Transformation hinterher? Oder: Wie schaffen führende Unternehmen mit disruptiven Technologien wie künstliche Intelligenz (KI), Machine Learning, Sprachassistenten, Bots oder IoT innovative Kundenerlebnisse?   Noch nicht ganz überzeugt? OK, einen setzten wir noch drauf: Edgar K. Geffroy, Business Influencer, Unternehmer, Strategieberater, Coach,  Autor. Der Top Keynote Speaker mit über 3.800 Auftritten wurde 2007 in die German Speakers Hall of Fame® aufgenommen. Er hat 29 Bücher geschrieben, darunter mehrere Bestseller. „Das Einzige, was stört, ist der Kunde“ behauptete sich 100 Wochen in den Top-Ten-Listen. Sein Motto in Zeiten der digitalen Transformation: „ Die besten Gelegenheiten ergeben sich dann, wenn man die Grundregeln ändert“. Als Erfinder des Clienting®, einer moderne Kundenlehre, die die Beziehung zum Kunden in den Mittelpunkt stellt, revolutioniert er bis heute Verkauf, Vertrieb und Vermarktung. Aus den Erkenntnissen dieser Beziehungslehre heraus entwickelt er seine Kunden-Erfolgsgeschichten. Raus aus dem Denken in Produktwelten, Monopole schaffen, die brennenden Probleme des Kunden identifizieren und die Träume des Kunden erfüllen, starke Partner gewinnen und Netzwerke aufbauen. Im Rahmen seiner Keynote am Vormittag spricht er authentisch über die positiven Auswirkungen notwendiger Veränderung im Unternehmen. Seine Ideen und Impulse haben bis heute fast eine Million Menschen weltweit erreicht. Auch das belegt die Akzeptanz und Überzeugungskraft seiner Konzepte.   So, der Rahmen ist gesteckt! Die Hauptsache des Programmablaufs kommt aber zwischen den beiden Guest-Speakern: Unsere Kundenvorträge von der Parship ELITE Group, der PSA Group Deutschland, vom TÜV Rheinland und von der Fluggesellschaft Germania. Möchten Sie wissen, wie dort die Kundenbetreuung über digitale Kanäle optimiert, die „Hot Leads“ um das Vierfache gesteigert, das Marketing vom Kostenfaktor zum Werttreiber entwickelt wurde oder die Transformation von der klassischen zur digitalen Organisations- und Vertriebsstruktur vorangetrieben wird? Fragen Sie doch einfach die Sprecher von Parship ELITE Group, PSA Group Deutschland, TÜV Rheinland und von der Fluggesellschaft Germania nach ihren Erfolgsrezepten! Und in den spannenden Round-Table-Gesprächen können Sie mit unseren Kunden und Experten diskutieren. Alles rund um das Verschmelzen von Online- und Offline-Welten, wie das Internet der Dinge aus Produkten Services macht, Artificial Intelligence im Marketing, neue, relevante Wege, wenn der Kunde nicht mehr sprechen will. Kurz gesagt: vier spannende Kundenvorträge, in denen Erfolgsrezepte verraten werden, zwei hochklassige Gastredner – wer da jetzt nicht den Weg nach Frankfurt findet, ist selber schuld.   PS: Einen hab ich noch! Ich persönlich freue mich ganz besonders auf den Vortrag von Albert Klotz, Leiter Kundenservice, PARSHIP ELITE Group. Herr Klotz leitet den Kundenservice für die Marken Parship und ElitePartner in Hamburg. Seine Kollegen und er helfen Menschen, eine Liebesbeziehung fürs Leben zu finden. Ich habe Herrn Klotz schon an anderer Stelle sprechen gehört: Seine Anekdoten sind einfach köstlich; verpassen Sie sie nicht!   Kontakt: Wenn Sie noch mehr darüber wissen möchten, spreche ich gerne mit Ihnen darüber, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Wer jetzt glaubt, es kommt irgendein flacher Vergleich, der irrt! Es ist in der Tat so, dass es eine reale Gemeinsamkeit gibt, die Sie live erleben können: Felix Thönessen, Deutschlands bekanntesten...

Cloud in der Praxis

Oracle Impact für Unternehmen: Die Digitalisierung mit allen Sinnen begreifen

Menschen müssen alle ihre Sinne beisammenhaben, um das Leben mit seinen Herausforderungen zu meistern. Diese Metapher trifft auch für Unternehmen zu, die erfolgreich darin sein wollen, ihre Umgebung zu begreifen – also die Märkte sowie rasante wirtschaftliche und technologische Entwicklungen. Sie müssen optimal reagieren, um Kunden das zu liefern, was sie wollen. Denn diese Kunden erwarten, dass Unternehmen sie perfekt verstehen und ihnen ultra-personalisierte, ultrakomfortable und ultrasichere Erlebnisse über alle möglichen Kanäle und Plattformen bieten. Auf einen Blick: 5 Eigenschaften für Gewinner-Unternehmen   Orientierung am Menschen Vernetzung Insight-getrieben Autonome Prozesse Vertrauen Termine der Oracle Impact Roadshow   Damit das gelingt, bringen Unternehmen – ganz ähnlich wie der menschliche Körper – dazu die richtigen Systeme und Ressourcen innerhalb der Organisation zusammen, um Veränderungen zu managen und neue Möglichkeiten zu ergreifen. Die entscheidende Frage ist: Welche „Sinne“ helfen Unternehmen dabei, auf den Märkten der Zukunft erfolgreich zu sein? Wir haben mit mehr als 400.000 kleinen und großen Unternehmen zusammengearbeitet – darunter viele führende Organisationen, die sich immer wieder neu erfunden haben. Unsere Erfahrungen dabei haben uns eine klare Idee vermittelt, was im Zeitalter der digitalen Transformation am wichtigsten ist. 5 Eigenschaften für Gewinner-Unternehmen: 1. Orientierung am Menschen Ihre Kunden sind Menschen. Also muss ein kundenzentrierter Ansatz auch ein menschenzentrierter Ansatz sein. Was Kunden denken, was sie wollen, was sie brauchen und was ihre Herausforderungen sind, all das muss im Mittelpunkt jeder Entscheidung Ihres Unternehmens stehen. Dasselbe gilt für Ihre Mitarbeiter und Ihre Beschäftigungsmodelle. Wenn Sie Ihre Leute als Menschen ansprechen, werden diese wiederum auch die Kunden als Menschen behandeln. 2. Vernetzung Je vernetzter Ihr Unternehmen intern ist, desto schneller kann es Informationen vom Markt und von den Kunden aufnehmen; kann sicherstellen, dass diese Daten zu den richtigen Teams gelangen; und kann garantieren, dass die Daten in wichtige Entscheidungen einfließen. Je mehr Inputs und Datenquellen Sie haben, desto umfassender wird Ihr Marktverständnis und desto besser werden Ihre Strategien in der gesamten Organisation bekannt. 3. Insight-getrieben Alles fängt damit an, dass wertvolle Informationen aus allen verfügbaren Datenquellen in Ihr Unternehmen fließen. Doch dann ist entscheidend, dass Sie daraus Erkenntnisse formulieren und sie brauchbar zusammenfassen können. Das eine geht nicht ohne das andere. Ihre Mitarbeiter ebenso wie Ihre Systeme und Prozesse sollten alle von diesem Streben nach Erkenntnissen geleitet werden. Mit Technologien wie KI und IoT lassen sich dazu Rohdaten einfacher als je zuvor in wertvolle Erkenntnisse verwandeln 4. Auf autonome Prozesse gestützt Business ist ununterbrochene Bewegung. Und Kundenorientierung geht weit hinaus über bestehende Produkte oder Dienstleistungen. Es geht um kontinuierliche Innovation und immer neue Wege, den Menschen gute Erfahrungen zu vermitteln. Das alles geht nicht mehr mit herkömmlichen Systemen, die beim Verwalten, Schützen und Upgraden viel Zeit brauchen. Deshalb: autonome Systeme! – Technologien, die sich selbst steuern, reparieren und schützen; die mehr Zeit für innovatives Denken und Intrapreneurship- Initiativen freimachen. „Autonom“ ist viel mehr als ein System-Upgrade: Es ist eine grundlegend neue Art, über Aufgaben und Strukturen im Unternehmen nachzudenken. 5. Vertrauen Je mehr Prozesse automatisiert bzw. der KI überlassen werden, desto mehr müssen Kunden darauf vertrauen, dass diese Technologien tun, was sie, die Kunden, wollen. Vertrauen wird zu wertvollsten Unternehmens-Ressource. Sie darf keinesfalls in Gefahr geraten. Wenn Sie z. B. einem Dienst vertrauen, der personalisierte Grußkarten für Ihre Freunde erstellt, vertrauen Sie dann auch darauf, dass der Dienst den richtigen Ton findet? Oder dass Ihre persönlichen Nachrichten privat bleiben? – Menschen, die automatisierten Diensten vertrauen sollen oder die sich autonome Systeme aneignen sollen, müssen genau wissen, warum sie sich darauf verlassen können. Vertrauen und Sicherheit müssen bei der Einführung neuer Arbeitsmethoden bereits gewährleistet sein. Viele Unternehmen haben schon bei einem oder mehreren dieser Punkte große Fortschritte erzielt. Der nächste Schritt bei der digitalen Transformation besteht darin, alle fünf Punkte, quasi die zentralen „Sinne“ des Unternehmens, strategisch und integriert zu entwickeln. Erfahren Sie auf unseren kommenden Impact Events mehr über die Vision von Oracle für das Geschäft der kommenden Generation zukunftsorientierter Unternehmen. Oracle Impact – Wo die Technologie von morgen auf das Business von heute trifft Es geht darum, dass Ihre Arbeit positive Auswirkungen auf Ihr Unternehmen, Ihre Kunden und deren Endabnehmer hat. Das ist der angestrebte Impact. Technologie potenziert, was wir tun. Künstliche Intelligenz, Big Data Analytics, Plattform-Technologien: Innovationen sind der Motor für Wachstum und Veränderung. Wie können Unternehmen neue Technologien, Prozesse und Geschäftsmodelle für sich nutzen? In Zeiten von Fachkräftemangel und rasanten Veränderungen ist es für viele Unternehmen kaum leistbar, sich „nebenbei“ neu zu erfinden. Dasselbe gilt für jeden einzelnen Mitarbeiter, der das Konzept lebenslangen Lernens ernst nimmt.   Genau deshalb gibt es Oracle Impact: Experten stellen komprimiert an einem Tag die wichtigsten Informationen zur unternehmensinternen Digitalisierung kostenlos vor. Für Chief Digital Officer  Heads of Innovation / Transformation, Heads of (Digital) Strategy Intrapreneurs IT-Spezialisten, Technologists Data & Analytics Leaders Business Leader im Bereich Finance, HR und Supply Chain geht es um Intrapreneurship, Co-Innovation, die wichtigsten Trends in der Implementierung (KI & Blockchain) und Smart Analytics.       Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Menschen müssen alle ihre Sinne beisammenhaben, um das Leben mit seinen Herausforderungen zu meistern. Diese Metapher trifft auch für Unternehmen zu, die erfolgreich darin sein wollen, ihre Umgebung...

Business Analytics

Analytics Cloud: Inline-Datenaufbereitung entrümpelt die Analytics-Toolbox

Wenn das Management den Reports der eigenen Analysten nicht traut, ist das mitunter durchaus gerechtfertigt. Die Ursache sind z. B. inkonsistente Zahlen, die – und wer hat das noch nicht erlebt – leicht zu archaisch anmutenden Bauchentscheidungen führen. Dahinter steckt nicht unbedingt Schlamperei, sondern ein strukturelles Problem, das allerdings behebbar ist! Es geht um einen Wirrwarr an Tools, die Verzerrungen bei der Datenaufbereitung produzieren. Auf einen Blick: Inline-Datenaufbereitung entrümpelt die Analytics-Toolbox   Datenaufbereitung und Datenanreicherung mit nur einem einheitlichen Werkzeug – das kann die Inline Data Preparation mit der Oracle Analytics Cloud. Keine Fehler durch unterschiedliche Tools. Von Extraktion über Datenanreicherung bis zur Visualisierung: ein durchgehender Prozess!   Datenaufbereitung bzw. Datenanreicherung ist nichts Neues. Sie kommt so gut wie immer vor, wenn Sie bei der Bereitstellung von Analysen etwas brauchen, um überhaupt z. B. Visualisierungen bereitzustellen. Dazu verwenden Sie ein spezialisiertes Tool wie Alteryx oder einen selbst zusammengebastelten Prozess mit mehreren Tools, Microsoft Excel, Coding; manchmal sogar Microsoft Access. Das wesentliche Problem kommt aber erst – genauer gesagt: Es ist von Anfang an da, nämlich: Quelldatensysteme liefern die Informationen gar nicht in einer Form, die die Analysen unterstützt, die Sie brauchen. Außerdem muss man fast immer Daten aus mehreren Quellen zusammenführen, bevor man die Puzzlesteine für das Gesamtbild auch nur auf dem Tisch hat. Wenn ich aber nun eine meine zusammengewürfelte Toolbox auspacke und mit dem jeweiligen Werkzeug Daten extrahiere, dann transformiere, die Daten anreichere und visualisiere, dann gibt es bei jedem Schritt andere potenzielle Fehlerquellen, ganz zu schweigen vom stets einsatzbereiten „Faktor Mensch“. Das Ergebnis sind Zahlen, die je nach Benutzer oder Abteilung plötzlich schwanken, ungenau sind oder inkonsistent, veraltet… – was irgendwann natürlich auffliegt und zum erwähnten Effekt führt, dass Entscheidungen nach Gefühl – also letztlich im Blindflug – fallen. Das ist dann nicht mehr wirklich ein zeitgemäßer datengetriebener Management-Ansatz.   Die Alternative dazu ist gerade dabei, zum Trend zu werden: Datenaufbereitungsfunktionen werden inline integriert. Vereinfacht erklärt, handelt es sich dabei um ein einheitliches Werkzeug und eine einheitliche Oberfläche, um die Daten zu erheben, anzureichern und zu visualisieren. Das macht diese leidige Toolbox obsolet, reduziert massiv die Kosten und erhöht Produktivität, Effizienz und Genauigkeit. Man kriegt damit Zahlen in die Visualisierungen, die sich zu ihren Quellen zurückverfolgen lassen, statt in irgendeiner Excel-basierten Verarbeitung zu schlummern, die kaum ein Benutzer versteht oder entschlüsseln kann. Das ist dann endlich eine brauchbare Data Lineage. Jeder Analytics-Anbieter, der sein Geld wert ist, führt durchaus Inline-Datenaufbereitung. Qlik etwa hat das immerhin als Teil ihres teuersten Pakets Qlik Sense, wobei es den Preis nur auf Anfrage gibt – immer schon ein schlechtes Zeichen. Tableau hat kürzlich Tableau Prep herausgebracht; das ist ein ganz neues Tool von diesem Jahr, das auch wieder nur mit der teuersten Option Tableau Creator kommt. Microsoft mit Power BI gibt treuherzig zu, dass Inline-Datenaufbereitung die nächste große Sache ist und man aktiv in diesen Bereich investieren will (auf gut Deutsch: Sie haben noch nichts). Für die meisten Benutzer von Power BI war Excel das Datenaufbereitungswerkzeug der Wahl. Zugegeben: Excel ist ein ziemlich mächtiges Tool zur Datenanreicherung, aber da sind wir wieder genau bei den Problemen, die Excel aufwirft, sobald eigene maßgeschneiderte und schwer zu verwaltende Prozesse ins Spiel kommen. Und Werkzeuge wie Alteryx, die in ihrem Silo funktionieren mögen, können sich schon mal warmlaufen: Denn wenn alle Business-Intelligence-Tools integrierte Funktionen zur Datenaufbereitung haben, wird die Luft ja schnell ziemlich dünn. Worin liegt also der der richtige Ansatz zur Datenaufbereitung? Ihre Analytics brauchen ein einheitliches System – von der Extraktion über die Anreicherung bis zur Visualisierung. Sie wollen nicht das doppelte an Geld ausgeben, um etwas zu bekommen, das sie wahrscheinlich schon haben. Nur die Oracle Autonomous Analytics Cloud mit Embedded Machine Learning bietet Zugriff auf unterschiedliche Datenquellen, Erweiterung und Datenaufbereitung sowie Visualisierung und mobilen Zugriff im selben Produkt. Besuchen Sie unsere Oracle Cloud Analytics Website, um mehr zu erfahren.   Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Cesar Ortiz, Principal Solution Consultant.

Wenn das Management den Reports der eigenen Analysten nicht traut, ist das mitunter durchaus gerechtfertigt. Die Ursache sind z. B. inkonsistente Zahlen, die – und wer hat das noch nicht erlebt –...

Cloud Technik

Oracle und Open Source? – Eine Hochzeit, die in der Cloud geschlossen wird!

Es gibt Weltbilder, die schwer auszurotten sind (googeln Sie nur mal „flat earth“). Ähnlich abwegig wie die Erde als Scheibe, erscheint manchen Leuten die Vorstellung, dass ein großes Softwareunternehmen wie Oracle etwas mit Open Source am Hut haben soll: absurd; völlig andere Baustelle – stimmt aber nicht! Oracle ist einer der größten Förderer von Open Source Software weltweit. Auf einen Blick: Oracle und Open Source   Support der Open Source Communities Oracle Cloud Infrastructure basiert auf Open Source Chef und Ansible Das Fn Projekt GraphPipe Kubernetes Terraform   Als aktives und förderndes Mitglied in einer Vielzahl von Stiftungen hat sich Oracle dem Ziel verschrieben, das Open Source Ökosystem nachhaltig zu unterstützen und nimmt z. B. als Platin-Mitglied der Linux Foundation seit 2008 an einer ganzen Reihe von Projekten teil, u. a. der Cloud Native Computing Foundation (CNCF), der Open Container Initiative (OCI), am Xen Project, an Hyperledger, Automotive Grade Linux, dem R-Consortium… – noch Fragen? Die CNCF etwa ist Cloud-Native-Gurus und DevOps-Experten wohl bekannt und wird als bedeutende Größe auch geschätzt. Das Entwickler-Ecosystem wächst und gedeiht weltweit. Und Oracle hilft der Community aktiv auf verschiedenste Weise. Zugleich ist Oracle einer der größten Hersteller von Open Source Software. Abgesehen von Entwicklungen und Contributions, sponsort Oracle auch weitere Ressourcen für die Projekte Apache NetBeans, Berkeley DB, Eclipse Jakarta, GraalVM, Kubernetes, Linux, MySQL, OpenJDK, PHP, VirtualBox und Xen. Dieses Commitment schließt zudem Public Cloud Computing ein und zeigt unseren Cloud-Kunden, dass sie Ihre Workloads mit minimalen Auswirkungen auf ihr Geschäft, ihren Code und ihre Runtime in die Oracle Cloud migrieren können. Kern-Services der Oracle Cloud Infrastructure basieren auf Open Source-Technologien, um die Workloads für cloud-native Anwendungen, Data Streams, Eventing sowie Data Transformation und Processing gleichermaßen zu unterstützen. Darüber hinaus bietet OCI alles rund um API-Management, Persistenzmechanisment, Orchestrierung, Container-Frameworks und Serverless. Guter Support für Open Source Communities Eine Public Cloud schaffen, die Open Source Software (OSS) und die Communities umfasst, die das unterstützen – daran liegt Oracle etwas. Angesichts des starken Trends hin zu cloud-nativen Technologien und DevOps-Methoden suchen Unternehmen ja nach einem offenen, cloud-neutralen Technologie-Stack, mit dem sie Cloud-Lock-Ins vermeiden und den gleichen Stack in jeder beliebigen Cloud oder auch intern ausführen können. Die Oracle Cloud Infrastructure ist selbst Teil dieses wettbewerbsorientierten Public-Cloud-Ökosystems und respektiert dementsprechend solche Entscheidungsspielräume. Sie bietet außerdem die Flexibilität, dort zu arbeiten, wo es für das Unternehmen oder die Workloads optimal ist. Offenheit und OSS sind Eckpfeiler der Strategie für die Oracle Cloud Infrastructure. Dabei stehen Contributions, die Unterstützung von Open-Source-Stiftungen, Community-Engagement, Partnerschaften und OSS-basierte Services im Mittelpunkt. Seit dem Beitritt als Platin-Mitglied zur CNCF 2017 sitzt die Führungsspitze von Oracle Cloud Infrastructure im CNCF-Vorstand und widmet sich weiterhin einer Reihe von CNCF-Technologien, insbesondere Kubernetes. Die Container Engine der Oracle Cloud Infrastructure für Kubernetes nutzt zum Beispiel standardmäßiges Upstream-Kubernetes, das mit dem CNCF Kubernetes Software Conformance-Programm validiert wurde, um die Portabilität über Clouds hinweg, ebenso wie intern sicherzustellen. Oracle gehört zu den ersten Lieferanten, die im Rahmen des Certified Kubernetes Conformance Programms zertifiziert wurden, und arbeitet eng mit CNCF-Arbeitsgruppen und Komitees zusammen, um die Einführung von Kubernetes und damit verbundener OSS branchenweit voranzutreiben. Die Strategie von Oracle ist dabei, Open-Source-basierte Container-Orchestrierungsfunktionen bereitzustellen, indem ein vollständiger, integrierter und offener Service zur Verfügung gestellt wird. Zu diesem Zweck nutzt die Container Engine für Kubernetes Docker für Containerlaufzeiten, Helm für Package Management und Standard-Kubernetes für Container-Orchestrierung. Kubernetes ist aber noch nicht alles. Oracle arbeitet auch eng mit CNCF-Teams an vielen anderen Projekten bzw. in Arbeitsgruppen zusammen, darunter Prometheus, Envoy, OpenTracing, gRPC, Serverless, Service Mesh, Federation und die Open Container Initiative. Dieser Initiative trat Oracle bei, um deren Hauptziel zu fördern und zu helfen, nämlich "eine Open-Source-orientierte, technische Community zu hosten und eine herstellerneutrale, portable und offene Spezifikation und Laufzeit für containerbasierte Lösungen aufzubauen." Entsprechend dieser Zielsetzung entwickelte Oracle das Projekt Railcar, bei dem es um die Implementierung der Laufzeitspezifikation der Open Container Initiative geht. Zur weiteren Unterstützung des Container-Ökosystems arbeitet Oracle mit der Docker Inc. zusammen, um die wichtigsten Datenbanken, Middleware und Entwicklertools von Oracle über das Docker-Zertifizierungsprogramm im Docker Store-Marktplatz zu veröffentlichen. Offene, konforme Containertechnologien sind inzwischen normales Werkzeug für Entwickler, die agil sein und für die Cloud bauen müssen. Diese Entwickler setzen auf offene, cloud-neutrale, container-native Software-Stacks, mit denen sie Lock-Ins vermeiden und sich in alle Richtungen frei bewegen können. "Oracle unterstützt die cloud-native Community unter anderem durch höchstrangige Mitgliedschaft in der Cloud Native Computing Foundation (CNCF). Dieses Engagement für Offenheit und Interoperabilität zeigt sich in der Unterstützung des Certified Kubernetes-Konformitätsprogramms und der fortlaufenden Zertifizierung von Oracle Linux Container Services." -Dan Kohn, Geschäftsführer der Cloud Native Computing Foundation (CNCF)   Auf der Grundlage von Open Source Oracle Cloud Infrastructure basiert auf den fortschrittlichsten und führenden OSS-Technologien und ist damit stets kompatibel. Oracle Linux, das Betriebssystem, auf dem die Oracle Cloud Infrastructure läuft, ist ein Paradebeispiel dafür. Darüber hinaus versuchen wir überall, wo es geht, die Open-Source-Software möglichst unverändert zu verwenden. Allerdings zeigt die Praxis, dass die Einführung innovativer Produkte auf dem Markt manchmal Verbesserungen der zugrundeliegenden OSS-Codebasis erfordert. Wo das der Fall ist, bemüht Oracle Cloud Infrastructure sich, diese Änderungen an die Open-Source-Community zurückzugeben. Chef und Ansible Kunden, die Chef verwenden, können auch das Open Source Chef-Knife-Plugin für die Oracle Cloud Infrastructure verwenden. Und wer Ansible verwendet, für den hat Oracle Cloud Infrastructure kürzlich die Verfügbarkeit von Ansible-Modulen für Orchestrierungs-, Bereitstellungs- und Konfigurationsmanagement-Aufgaben angekündigt (verfügbar auf GitHub). Diese Module erleichtern das Verfassen von Ansible-Playbooks, um die Bereitstellung und Konfiguration von Oracle Cloud Infrastructure-Diensten und -Ressourcen wie Compute, Load Balancing und Database zu automatisieren. Das Fn Projekt Entwickler, die daran arbeiten, cloud-native Anwendungen zu bauen, finden mit Oracles kürzlich als Open Source zur Verfügung gestelltem Fn-Projekt eine portable, offene, container-native und serverlose Lösung für ihre Entwicklungsanforderungen. Das Fn-Projekt kann in jeder Cloud und genauso auf dem Laptop jedes Entwicklers ausgeführt werden. Diese Open-Source-Lösung bietet polyglotte Unterstützung für Programmiersprachen (einschließlich Java, Go, Ruby, Python, PHP, Rust, .NET, Core und Node.js mit AWS-Lambda-Kompatibilität) und wird als vollständig verwaltete Function as a Service (FaaS) in der Oracle Cloud Infrastructure angeboten. Darüber hinaus veröffentlicht Oracle Cloud Infrastructure einen Echtzeit-Event-Management-Service, der die CloudEvents-Spezifikation der CNCF in einem allgemeinen, herstellerunabhängigen Format für Ereignisdaten implementiert. Nach ihrer Veröffentlichung wird die Kombination aus dem Event-Management-Service und dem Fn-Projekt die einzige Open-Source- und standardbasierte Serverless- und Event-Plattform sein, die unter allen Public-Cloud-Anbietern verfügbar ist. GraphPipe Kürzlich gab Oracle die Verfügbarkeit von GraphPipe bekannt, einem neuen Open-Source-Projekt, das es Unternehmen erleichtert, Machine-Learning-Modelle aus beliebigen Frameworks zu implementieren und abzufragen. GraphPipe bietet ein standardmäßiges, leistungsstarkes Protokoll für die Übertragung von Tensordaten über das Netzwerk sowie einfache Implementierungen von Clients und Servern, die die Bereitstellung und Abfrage von Maschinenlernmodellen aus beliebigen Frameworks erleichtern. Die effizienten Server von GraphPipe können Modelle unterstützen, die in TensorFlow, PyTorch, mxnet, CNTK oder caffe2 erstellt worden sind. Der gesamte Quellcode, die Dokumentation sowie Beispiele von GraphPipe zum Einstieg sind jetzt auf GitHub verfügbar. Kubernetes Durch seine Arbeit in der CNCF und an anderen Stellen hat das Oracle-Cloud-Infrastructure-Team intensiv in Kubernetes investiert. Da die manuelle Verwaltung und Wartung eines produktiven Kubernetes-Clusters und der damit verbundenen Ressourcen erheblichen Aufwand verursachen, hat das Team die Oracle Container Engine für Kubernetes entwickelt. Mit dem standardmäßigen Upstream-Kubernetes-System erstellt und verwaltet es Cluster für sichere, hochperformante Hochverfügbarkeits-Containerbereitstellungen mithilfe der Netzwerk-, Rechen- und Speicherressourcen von Oracle Cloud Infrastructure, die Bare-Metal-Instanztypen umfassen. Das Oracle Cloud Infrastructure-Entwicklerteam hat auch viele seiner Kubernetes-Projekte in die Open-Source-Community eingebracht, etwa den von JenkinsX unterstützten Cloud-Provider (OKE), flexvolume-Treiber, Volume-Provisioner, Cloud-Controller-Manager, Terraform Kubernetes-Installer, Crashcart und Smith (mehr über diese Projekte hier). Terraform Terraform ist eine beliebte Infrastructure as Code (IaC)-Lösung, die einen konsistenten Workflow für die Bereitstellung von Infrastruktur von jedem beliebigen Anbieter und einen Self-Service-Workflow für die Veröffentlichung und den Einsatz von Modulen bereitstellen soll. Nach der Veröffentlichung seines Terraform Providers verstärkt Oracle Cloud Infrastructure seine Investitionen in Terraform. Mit der kommenden Version wird ein vollständig gemanagter Service angeboten, der Terraform zur Verwaltung von Infrastrukturressourcen nutzt. Diese Version wird von einer Gruppe von Open-Source-Terraform-Modulen zur einfachen Bereitstellung von Oracle Cloud Infrastructure-Diensten und vielen anderen gängigen OSS-Technologien auf Oracle Cloud Infrastructure begleitet. Das Engagement von Oracle für OSS hat eine lange Geschichte und weist erhebliche Dynamik auf. Oracle Cloud Infrastructure macht rasche Fortschritte beim Aufbau einer wirklich offenen Public-Cloud-Plattform. Erleben Sie jetzt selbst die Oracle Cloud Platform mit bis zu 3.500 kostenlosen Stunden über einen kostenlosen Acount.   Kontakt: Wenn Sie mehr über dieses spannende Thema wissen möchten, spreche ich gerne mit Ihnen darüber, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Es gibt Weltbilder, die schwer auszurotten sind (googeln Sie nur mal „flat earth“). Ähnlich abwegig wie die Erde als Scheibe, erscheint manchen Leuten die Vorstellung, dass ein...

Business Analytics

Wenn Ihre Analytics Anwendungen um Hilfe schreien…

Es gibt keine Branche ohne produktive Veränderungen, sobald maschinelles Lernen als Turbo die Analysen der Unternehmensdaten auf ein neues Level hebt. Das gilt für unterschiedlichste Geschäftsbereiche und Themen: von HR und Finanzen über Neukundengewinnung oder IT bis zum Marketing. Auf einen Blick: Analytics Cloud & Machine Learning   Datenanalysen für Unternehmen werden mit maschinellem Lernen (ML) erheblich schneller, intelligenter und produktiver. Die Einführung von Machine Learning in die Oracle Analytics Cloud verändert die Datenstrategie quer durch alle Branchen.   Außerdem gibt es da einen neuen Bedarf bei Entscheidern. Er entsteht einfach dadurch, dass Big Data, Analytics, Data Science und Cloud Technologie ziemlich aufregende Möglichkeiten schaffen. Es ist der Bedarf, Investitionen zu optimieren, indem auf eine umfassende Art der tatsächliche Wert vorhandener Daten nutzbar wird. Erfolgreiche Unternehmen zeichnet derzeit schwerpunktmäßig eines aus: Sie kennen Strategien, die mit Unterstützung von von maschinellem Lernen Prozesse so steuern, dass Automatisierungen greifen und Entscheidungszeiten beschleunigt werden. Einige Beispiele, wie Unternehmen maschinelles Lernen erfolgreich einsetzen: •      Eine große Bank nutzte maschinelles Lernen, um ihr Bankeinzugsverfahren zu analysieren. Heraus kam:  Über 40 Prozent der Kundenanrufe lassen sich mit besseren Ergebnissen vermeiden. •      Ein globales Einzelhandelsunternehmen nutzte hochentwickeltes maschinelles Lernen, um die Kundennachfrage zu prognostizieren – die Rate der Fehlprognosen sank um die Hälfte. •      Ein Telekommunikationsunternehmen hatte mit hohen "Fehlalarmen" für die Abwanderung von Kunden zu kämpfen. Nicht weniger als drei Viertel davon ließ sich mit maschinellem Lernen eliminieren. Stattdessen konnten die Ressourcen auf diejenigen konzentriert werden, die tatsächlich als Kunden abzuwandern drohten. Die Fälle, in denen maschinelles Lernen hochgradig produktive Effekte auf geschäftliche Vorgänge hat, sind aber noch vielfältiger. Um sie besser zu veranschaulichen, sponserte Oracle einen Webcast mit dem Titel: "Wo wird maschinelles Lernen Sie hinführen? Sehen Sie Ihre Zukunft mit Oracle Analytics." Die beiden Experten, die Ihnen hier die Vorteile illustrieren, sind Rich Clayton, VP für Produktstrategie bei Oracle Analytics und Mike Lehmann, VP für Produktmarketing bei Oracle Big Data und Maschinelles Lernen. Dabei erfahren Sie, wie Oracle Analytics maschinelles Lernen einsetzt, damit sie aus Ihren Daten schneller als bisher mehr verstehen und wie Sie sofort loslegen können. Zu den Branchen – und es sind wirklich so gut wie alle –, denen mit maschinellem Lernen im Rahmen ihrer Strategie der Data Analytics wesentliche Umstellungen gelungen sind, zählen Automotive, Gesundheitswesen, Medien, Energie, Kommunikation und Behörden. Außerdem kann wie schon angedeutet maschinelles Lernen in allen Geschäftsbereiche wie HR, Finanzen, Vertrieb, Marketing und IT angewandt werden – ob es sich nun um Kundenabwanderung, Analyse von Text-Tonality, Prognose und Modellierung, Datenerkennung und -prüfung oder Extrahierung und Transformation von Transaktionsdaten handelt: in allen Bereichen stellt Clayton fest, dass Geschäftsdaten durch maschinelles Lernen aussagekräftiger werden. "Oft war es bisher so, dass Menschen nicht richtig zusammenarbeiten können", sagt Clayton. "Wenn aber maschinelles Lernen zur Oracle Analytics Cloud hinzukommt, können sie letzten Endes ihre Arbeit besser organisieren, Datenmodelle erstellen, trainieren und bereitstellen. Es ist ein Werkzeug für die Zusammenarbeit, es beschleunigt Prozesse und ermöglicht die Zusammenarbeit verschiedener Bereiche des Unternehmens. Sie bekommen höhere Qualität und bessere Modelle zur Verfügung gestellt." Eine der Barrieren dabei waren bisher die verschiedenen Schichten, die Daten durchlaufen müssen, bevor sie verarbeitet werden und ihr Wert abgeleitet werden kann. Es gibt eine Extrahierungsschicht, dann kommt Daten mischen, modellieren, aggregieren und veröffentlichen – lange bevor es einen Erkenntnismodus gibt. Claytons Argument ist, dass das Automatisieren und Einbetten von maschinellem Lernen eine kürzere Entscheidungszeit ermöglicht. "Es liegt eine grundlegende Chance für Unternehmen darin, einige dieser Komponenten zu übernehmen und sie aus einer analytischen Perspektive in die Wertschöpfungskette einzubetten", sagt Clayton. Eine typische Finanzabteilung etwa wird immer wieder durch die Wiederholung eines Varianzanalyseprozesses belastet – also einem Vergleich zwischen tatsächlichen und prognostizierten Werten. Das ist eine im Grunde strohdumme Anwendung, die förmlich nach Unterstützung durch maschinelles Lernens schreit, stellt Clayton fest. "Durch das Einbetten von maschinellem Lernen kann das Finanzwesen schneller und intelligenter arbeiten und brauch nur dort Hand anzulegen, wo die Maschine am Ende ist", sagt Clayton. Um das gesamte Gespräch nachzuhören, registrieren Sie sich für den Webcast und erfahren Sie, wie Ihre Zukunft mit maschinellem Lernen als Teil Ihrer Datenanalysestrategie aussehen könnte. Weitere Informationen zur Oracle Analytics Cloud finden Sie auf unserer Website. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Cesar Ortiz, Principal Solution Consultant.

Es gibt keine Branche ohne produktive Veränderungen, sobald maschinelles Lernen als Turbo die Analysen der Unternehmensdaten auf ein neues Level hebt. Das gilt für unterschiedlichste Geschäftsbereiche...

Oracle Cloud

Oracle University: Verleihen Sie Ihrer Karriere als Java Entwickler neuen Schub

Seit seinen Anfängen vor mehr als 22 Jahren hat sich Java konstant weiterentwickelt, und bis heute behauptet es seine Position als die am weitesten verbreitete und nachgefragte Programmiersprache. Auf einen Blick: Verleihen Sie Ihrer Karriere als Java Entwickler neuen Schub   Java passt in jede Branche Spannende Karrierechancen entdecken Bei Karriere und Gehalt vorankommen Einstiegsgehalt für Java Entwickler Kenntnisse für Erfolg entwickeln   Nahezu die gesamte Entwickler-Community betrachtet Java als die zuverlässigste Programmiersprache überhaupt. Mit ihr können Entwickler zu verschiedenen Betriebssystemen kompatible Software erstellen. Zudem bevorzugen Unternehmen weltweit Java aufgrund seiner Stabilität, den umfangreichen Features, der Berechenbarkeit und der starken Community. Zurzeit arbeiten schätzungsweise mehr als 9 Millionen Java-Entwickler weltweit. Die Popularität und die Zahl der Anwendungen von Java nehmen weiter zu – deutliche Hinweise auf die Bedeutung der Programmiersprache in den kommenden Jahren und ebenso auf den wachsenden Bedarf an qualifizierten Java-Programmierern zur Unterstützung der Geschäftswelt von morgen. Java passt in jede Branche Verglichen mit anderen Programmiersprachen ist Java nicht nur einfach zu erlernen, auch die Anwendung, das Schreiben, das Kompilieren und das Debugging bereiten keine Schwierigkeiten. Diese Einfachheit hat die weltweite Verbreitung sehr unterstützt. So wurde Java zur führenden Programmiersprache sowohl für Android-basierte, mobile Anwendungen als auch für Back-End-Entwicklungen im Unternehmensumfeld. Damit eröffnen sich für Java-Experten berufliche Möglichkeiten in verschiedenen Positionen und Branchen. Sämtliche der 500 umsatzstärksten Unternehmen der Welt nutzen Java in großem Umfang: Sie erstellen damit Application Server oder Web-Anwendungen, führen Modultests durch und entwickeln mobile, Desktop- und Unternehmensanwendungen. Aber auch das umschreibt die unglaubliche Bandbreite von Einsatzmöglichkeiten für Java noch nicht einmal ansatzweise. So nutzen beispielsweise viele Entwickler Java für Spiele oder Tutorials. Und dank seiner Kompatibilität eignet es sich oft auch für Sprachen-übergreifende Entwicklungen. Selbst Entwickler, die keine reinen Java-Anwendungen programmieren, können daher enorm von ihren Java-Kenntnissen profitieren. Entdecken Sie spannende Karrierechancen mit Java Wie wäre es zum Beispiel mit Weltraumforschung bei der NASA? Die Agentur nutzt Java für verschiedene Weltraummissionen sowie für zahlreiche, interessante Anwendungen wie beispielsweise „WorldWind“, ein Software-Development-Kit (SDK), mit dem man aus dem Weltraum auf die Erde (oder andere Planeten und Himmelskörper) zoomen und dort jeden beliebigen Ort detailliert betrachten kann. Oder wollen Sie ins Filmgeschäft? Special Effects Unternehmen wie Industrial Light and Magic (ILM) erschaffen mit Java verschiedenste, Software-basierte Wunder, wie beispielsweise die Sequenzierung von Animationsszenen. Vielleicht wollen Sie aber eher Leben retten und die Gesundheitsversorgung verbessern? Projekte wie Doctor Online nutzen Java für medizinische Chatbots und Anwendungsmodule, die die Patient-Arzt-Interaktion schneller und reibungsloser gestalten und Ärzten virtuelle Hausbesuche ermöglichen. Auch bei Hochleistungsanwendungen wie selbstfahrenden Autos, bei vielen der weltweit beliebtesten Videospiele und bei Wearable Technology spielt Java eine Schlüsselrolle. In der Cloud dient Java nicht nur zum Aufbau neuer oder zur Migration existierender Applikationen. Weil es sich in nahezu jedem Umfeld bewährt hat und eingesetzt werden kann, eignet es sich perfekt auch für die modernen, universellen Anwendungen, die immer gleich und ohne Einschränkungen in Cloud-, mobilen und Desktop-Umgebungen funktionieren müssen. Und nicht zuletzt nutzt auch das Internet der Dinge Java in verschiedenen, intelligenten Geräten in der Industrie oder im Haus. Beispiele dafür sind die Überwachung von Lagerbeständen oder Temperatur- und Feuchtigkeitsmessungen. Java ist heute so populär und verbreitet, dass Sie ohne Schwierigkeiten inspirierende und faszinierende Arbeitsmöglichkeiten finden werden. Kommen Sie voran – bei Karriere und Gehalt In allen Bereichen und Branchen versuchen Unternehmen, die besten IT-Spezialisten für sich zu gewinnen – ganz besonders Java-Entwickler. Die Nachfrage nach fähigen und geschulten Profis hat die Gehälter für Positionen im Java-Umfeld spürbar nach oben getrieben. Laut ALPHAJUMP liegt in Deutschland das durchschnittliche Gehalt für Java-Entwickler mit Berufserfahrung mittlerweile zwischen 51.000 und 62.000 Euro pro Jahr, weiter steigend. Auf einen Blick: Welches Einstiegsgehalt haben Java Entwickler?   Java Entwickler: 41.000 bis 46.000 Euro Java Entwickler mit Berufserfahrung: 51.000 bis 62.000 Euro Senior Java Entwickler: 55.000 bis 93.000 Euro Quelle: ALPHAJUMP   Zudem binden Programmierkenntnisse in Java Sie keinesfalls an ein bestimmtes Aufgabengebiet. Ihre Fähigkeiten sind beispielsweise als Web-Entwickler, Datenbank-Administrator, Java-Architekt und IT- oder Projektmanager von größter Bedeutung für die Unternehmen. Als Java-Experte stehen Sie vor glänzenden Zukunftsperspektiven. Entwickeln Sie Kenntnisse und Fähigkeiten – für Ihren persönlichen und beruflichen Erfolg Obwohl Java-Coder fast ausnahmslos sofort eine neue Anstellung finden, gilt: Je besser Ihre Ausbildung, die Sie durch entsprechende Zertifikate nachweisen können, desto gefragter sind Sie bei Arbeitgebern. Sie verbessern damit nicht nur Ihre Gehaltsaussichten, es stehen Ihnen auch mehr attraktive Positionen und Arbeitsgebiete offen. Da Java-Entwickler nicht alle dieselbe Form des Lernens bevorzugen, bietet das Java Curriculum von Oracle University eine große Auswahl passender Schulungsformate. Nutzen Sie beispielsweise Präsenzkurse oder ein virtuelles Klassenzimmer im Internet, um sich von einem Dozenten schulen zu lassen und sich mit anderen Entwicklern auszutauschen. Falls Sie das Selbststudium bevorzugen, erhalten Sie mit Java Programming Learning Subscription für ein ganzes Jahr Zugang zu hochwertigen Lerninhalten, die laufend aktualisiert werden. Und mit Java certification können Sie erworbene Kenntnisse nachweisen und Ihre Berufs- und Karriereaussichten weiter verbessern. Die Zeit ist reif für Ihre Weiterbildung. Machen Sie das Beste aus Ihren beruflichen Möglichkeiten mit Java.   Kontakt Gerne unterhalte ich mich auch mit Ihnen darüber, per E-Mail oder LinkedIn. Ottmar Kugelmann, Senior Director Oracle University - Cloud, EMEA

Seit seinen Anfängen vor mehr als 22 Jahren hat sich Java konstant weiterentwickelt, und bis heute behauptet es seine Position als die am weitesten verbreitete und nachgefragte Programmiersprache. Auf...

Innovative Technologien

Der Turbo für die Lieferkette: IoT plus Blockchain in der Cloud

Bei der Effizienz des Supply Chain Managements die „Luft nach oben“ wegzubekommen, das ist eine hochgradig erfolgskritische Sache. Lieferketten – noch dazu vielleicht im internationalen Verkehr und/oder mit verderblichen bzw. sensiblen Gütern – können äußerst komplex im Handling sein. Hier Kosten zu senken, Transaktionen zu beschleunigen, Fehler und Ausfälle zu vermeiden … all das lässt sich durch digitale Automatisierung und autonome Prozesse deutlich besser und leichter erreichen. Auf einen Blick: IoT plus Blockchain in der Cloud - der Turbo für die Lieferkette   End-to-End-Transparenz in Echtzeit Vereinfachte Transaktionen durch "Smart Contracts" Zuverlässigkeit für regulierte Branchen Optimierte Entscheidungen mit Data-driven Insights   Mit der Kombination von IoT (Internet der Dinge) und der Distributed Ledger- bzw. Blockchain-Technologie (populär durch Bitcoin) steht eine Synergie von zwei der wichtigsten neuen Technologien bereit, um Effizienz, Zuverlässigkeit und Geschwindigkeit im Zusammenspiel von Herstellern, Lieferanten und Logistikern dramatisch zu erhöhen. Blockchain schüttelt zunehmend den Nimbus ab, nur für Kryptowährungs-Nerds interessant zu sein. Zwar konzentrierte sich der Blockchain-Hype längere Zeit auf Financial Services, doch inzwischen ist das große Potential der Anwendung auch für andere Industriesegmente klar erkennbar: Blockchain etabliert sich zunehmend als Plattform für die digitale Transformation und bietet Chancen für durchgreifende Neustarts, nämlich weg von den zentralisierten Mechanismen bei Transaktionen und Datensatzspeichern und hin zu disruptiven, digitalen Geschäftsmodellen für Startups ebenso wie für etablierte Unternehmen. Laut Gartner rankt Blockchain neben IoT unter den Top 10 der für Unternehmen strategisch wichtigen Technologietrends 2018. Und IDC prognostiziert, dass bis 2019 durch die zunehmende Verbreitung von IoT über verschiedene Branchen hinweg 20 % der IoT-Deployments zumindest durch ein Mindestmaß an Blockchain-Services befeuert werden. Für Einsatzzwecke, bei denen sichere Nachverfolgung, Auditierbarkeit und Kollaboration gewährleistet sein müssen, eignen sich auf Distributed Ledger basierende Blockchain-Anwendungen hervorragend. Auf den kürzesten Nenner gebracht, ist Distributed Ledger eine Datenbank, die sich gemeinsam nutzen, replizieren und über ein Netzwerk synchronisieren lässt, das auf verschiedene Standorte, Einrichtungen und Regionen verteilt ist. Das Internet of Things bildet ja ein Netzwerk intelligenter physischer Dinge mit der Fähigkeit, sich in und mit einem Netzwerk zu verbinden, um Daten zu senden und zu empfangen. Ersten IoT-Schlüsselanwendungen für Unternehmen waren z. B. Predictive Asset Maintenance, Plant Operations Monitoring und Fleet Monitoring. Wo liegen nun die besonderen Vorteile bei Liefer- bzw. Wertschöpfungsketten, die mit der Kombination von IoT und Blockchain erhebliche Vorteile für Hersteller, Lieferanten und Logistiker bringen sollen? End-to-End-Transparenz, und das in Echzeit Eine vollständige Lieferkette mit einer Vielzahl beteiligter Parteien und mit globalen Lieferwegen zu überschauen, kann sehr schnell sehr kompliziert werden. Allein schon um Störungen optimal vorzubeugen und sie zu managen, sammeln Unternehmen in Eigenregie Unmengen an Daten – was natürlich nur dann hilfreich ist, wenn sie auch in der Lage sind, diese Daten unternehmensübergreifend auszuwerten, um überhaupt auf Abweichungen reagieren können. IoT-Komponenten sind hier schon mal eine gute Investition. Sie überwachen selbsttätig den Status von Gütern auf ihrem Weg durch die Lieferkette. Sind sie mit einer Blockchain verbunden, schreiben sie die gesammelten Daten kontinuierlich dort ein. Auf die Daten der Blockchain können dann alle an der Lieferkette Beteiligten in Echtzeit zugreifen. "Wir nutzen den Blockchain-Cloud-Service von Oracle, um eine Anwendung für die Vereinfachung der komplexen Dokumentationsprozesse in der Schifffahrtsbranche zu entwickeln", sagt Steve Siu, CEO von CargoSmart. "Dass die Blockchain-Cloud-Plattform von Oracle derart umfassend ist, hat es uns ermöglicht, in mehreren 12-wöchigen Sprints schnell Prototypen für realisierbare Produkte zu bauen. Bis jetzt sehen wir nachweisbare Produktivitätszuwächse von über 30 % im Vergleich zu den anderen Blockchain-Plattformen, die wir ausprobiert haben. Weitere wichtige Anforderungen, die erfüllt werden, sind die integrierten Management- und Betriebstools, mit denen unsere Geschäftspartner ihre gesamten Blockchain-Aktivitäten und außerdem die Funktionsfähigkeit des Netzwerks überwachen können."So kann z. B. ein Hersteller in Europa eine Bestellung bei einem Zulieferer in China tätigen und gleichzeitig den Logistiker in Singapur mit dem Transport der Waren nach Europa beauftragen, sobald diese fertig produziert sind. Soweit noch vertrautes Gelände ... Wenn nun der chinesische Zulieferer die Information über den Produktionsstand der Waren mittels eines IoT-gestützten Production Monitorings in eine Blockchain-Anwendung gibt, ermöglicht er damit sowohl dem europäischen Kunden als auch dem Logistiker in Singapur, dieselben Informationen jederzeit einzusehen. Der Logistiker kann daraufhin die Container für die Abholung kurz vor Produktionsschluss disponieren und übermittelt den jeweiligen Status der Containerdisposition mittels des in die Container integrierten IoT-Moduls fortlaufend über die Blockchain an die anderen beiden. Dies erlaubt dann nicht nur den ursprünglich Beteiligten, die Container samt Inhalt zu verfolgen, sondern auch weiteren Instanzen entsprechende Aktionen – z. B. der Zollagentur, die so den Güterumschlag rechtzeitig vorbereiten und die Verzollung durchführen kann. Die technischen Voraussetzungen für gelebtes Just-in-Time stehen! Das alles funktioniert, weil Transparenz herrscht – durch die IoT-basierten und kontinuierlich in die Blockchain eingespeisten Statusinformationen. Noch einen Schritt weitergedacht, könnten zusätzliche Datenquellen einbezogen werden, z. B. Wetterdaten, um eventuelle wetterbedingte Verzögerungen berücksichtigen zu können. "Wir sind Erzeuger von nativem Olivenöl Extra aus Früchten von kleinen Familienbetrieben in Italien und verkaufen unser Produkt auf dem US-Markt unter der Markenbezeichnung Bellucci Evoo. Wir wollten das über die gesamte Lieferkette – vom Baum bis zum Regal – nachverfolgen." sagt Andrea Biagianti, CIO von Certified Origins. "Die Verfügbarkeit des Oracle-Blockchain-Dienstes vereinfacht die Implementierung und Zusammenarbeit aller beteiligten Parteien. Sie ist für uns ein echter Wettbewerbsvorteil. Die zusätzliche Transparenz und Information ist für Verbraucher, die nach Qualitätsprodukten suchen, wertvoll, und sie hilft, die Exzellenz der kleinen Betriebe zu fördern."Unternehmen können also besser und effektiver auf unvorhersehbare Ereignisse wie Zulieferunterbrechungen oder plötzliche Nachfrageeinbrüche reagieren, wenn ihre Lieferketten in Echtzeit in einer kontrollierten Blockchain mit automatisiert eingespeisten IoT-Daten abgebildet und allen Beteiligten zugänglich sind. Vereinfachte Transaktionen durch „Smart Contracts“ Internationale oder gar globale Lieferketten bringen mit jedem Grenzübertritt bürokratische Prozesse inklusive der entsprechenden Dokumentenberge mit sich. In Summe baut sich dabei ein erheblicher Faktor für die Transaktions- und Ausführungsdauer auf. Das gilt vor allem bei internationalen Zahlungen, zumal die beteiligten Parteien jeweils ihren Finanzmarktregularien unterliegen. Damit kann jede noch so kleine Diskrepanz zu erheblichen Verzögerungen in der Zahlungsabwicklung führen. Blockchain und IoT zusammen können den grenzüberschreitenden Güterverkehr signifikant beschleunigen. Schnellere, effizientere und kostengünstigere Abwicklung führt wiederum zu niedrigeren Transaktionskosten. Positiver Zusatznutzen: Betrugsversuche können durch ein manipulationssicheres, dezentrales Journal verhindert werden. Weiterer Trick bei der Senkung von Transaktionskosten sind in der Blockchain eingebettete sogenannte Smart Contracts: kleine Programme, die Verträge abbilden, überprüfen oder die Verhandlung bzw. Abwicklung eines Vertrags technisch unterstützen. Die schriftliche Fixierung des Vertrages auf Papier oder in einer Datei wird damit unter Umständen überflüssig. Smart Contracts können sicherstellen, dass eine Vielzahl von Vertragsklauseln teilweise oder vollständig selbst ausführbar werden. Dokumente brauchen also zwischen den unterschiedlichen Parteien nicht mehr abgeglichen und in Einklang gebracht zu werden. Auch für die beteiligten Finanzinstitute erhöht sich die Transparenz hinsichtlich des zugrundeliegenden Vertrags, des Auftrags und des Lieferstatus' durch IoT-Module, die den aktuellen Lieferstatus monitoren und die Ausführung von vertraglich vereinbarten Zahlungen bei Auslieferung triggern können. Damit vereinfacht sich die Validierung der Herkunft sowie der Authentizität radikal und ermöglicht beschleunigte Zahlungsläufe. "Die Blockchain-Plattform von Oracle hat uns dabei geholfen, den elektronischen Zahlungsverkehr wesentlich zu vereinfachen: Wir konnten Kosten senken, Effizienz und Sicherheit erhöhen und insgesamt die Kundenzufriedenheit steigern", sagt Ayman Qadoumi, Deputy General Manager für Informationstechnologie und Sicherheitbei der Arab Jordan Investmentbank. "Die integrierten Funktionen, z. B. Identitätsmanagement und Datenverschlüsselung, sind für uns ideal geeignet, um unsere Branchen- und Compliance-Anforderungen zu erfüllen. Darüber hinaus haben die REST-APIs uns und unseren Anbietern geholfen, Anwendungsentwicklungen und die Integration mit bestehenden wesentlichen Services zu beschleunigen."   Zuverlässigkeit für regulierte Branchen Stark regulierte Branchen wie die für Pharmazeutika oder Lebensmittel  müssen Gütertransporte oft z. B. unter strikter Temperaturkontrolle und innerhalb festgelegter Fristen durchführen. Für diese Hersteller und Distributoren ist es existenziell wichtig, Nachweise über die Einhaltung der zulässigen Grenzwerte führen zu können. Deren Nicht-Einhaltung oder andere Fehler können wertvolle Lieferungen verzögern deren Beschlagnahme nach sich ziehen. Der Stand der Technik ermöglichte es schon bisher, Temperaturdaten kontinuierlich mittels On-board-Sensoren zu erfassen und online an eine IoT-Plattform zu übermitteln. Was bisher fehlte, war die Option, die so erfassten Daten komplett mit nicht allzu komplexen Mechanismen abzusichern und manipulationssicher zu protokollieren. Ein IoT-basierter Daten-Feed, der in ein Blockchain-Framework integriert ist, kann jedoch die Zuverlässigkeit und Sicherheit erfasster und übermittelter Daten definitiv sicherstellen.Somit können Lieferanten die Einhaltung der vorgegebenen Grenzwerte in den o. g. Smart Contracts einbetten. In unserem Beispiel etwa werden die während der gesamten Transportdauer tatsächlich gemessenen Temperaturen mit den vertraglich definierten, zulässigen Soll-Werten abgeglichen, um deren Einhaltung bzw. mögliche Abweichungen zu belegen.   Manipulationssichere und vertrauenswürdige Datenreihen hinsichtlich der Transportkonditionen für medizinische Produkte und verderbliche Güter erleichtern natürlich den Herstellern und Lieferanten erheblich den Nachweis, dass sie die Vorschriften eingehalten haben. Gleichzeitig werden Verluste aufgrund von Verzögerungen durch Inspektionen oder Untersuchungen damit vermieden und der Anspruch der Konsumenten auf unversehrte Waren kann leichter erfüllt werden. Optimierte Entscheidungen mit Data-driven Insights Die Kombination Blockchain – IoT ermöglicht es allen Partnern der Lieferkette, Daten in einem Ökosystem sicher zu teilen. Kommen dann noch neueste Machine-Learning-Technologien mit hinzu, bekommen die verschiedenen Beteiligten, oft mit optionalen zusätzlichen Informationen aus Drittquellen, neue Einblicke und Erkenntnisse zur Lieferkette. Ein Hersteller kann z. B. auf einer Plattform Daten in Echtzeit von allen Partnern (Zulieferer, Logistikanbieter, Auftragnehmer…) beziehen, aber auch teilen und sie darüber hinaus mit weiteren Wirtschafts- oder Klimadaten anreichern. Damit können Unternehmen ihre Entscheidungen über die (Neu-)Ausrichtung ihrer Beschaffungs- und Vertriebsnetze optimieren. Gleichzeitig sind die Partner in der Lage, Daten zu nutzen, um ihre Rolle und die Wirkung auf die gesamte Lieferkette besser zu verstehen, zu visualisieren und anzupassen, um so ihre Wettbewerbsfähigkeit zu steigern. Blockchain und IoT erzeugen potentiell Synergien, die einige der Schlüsselprobleme lösen, mit denen Lieferketten heute zu kämpfen haben – und schaffen zusätzlich echten Mehrwert für Unternehmen. Sowohl IoT als auch Blockchain gewinnen schon für sich genommen weiterhin an Zugkraft, und dieser Trend wird sich aller Voraussicht nach im Zuge ihrer Weiterentwicklung beschleunigen. Oracle verfügt neben einem Blockchain Cloud Service über viele der benötigten Zusatzkomponenten zur besseren Abbildung und Unterstützung von Supply Chains, außerdem über eine leistungsstarke IoT Cloud Plattform und SaaS-Angebote, gestützt auf ein umfassendes und bewährtes Cloud-Infrastruktur-Portfolio. Mit diesen Features und Tools ist Oracle bestens gerüstet, seinen Kunden eine breite Palette von Vorteilen zu bieten: Minimierung von Komplexität und Kosten, die Verbesserung der Customer Experience, Beschleunigung von Anwendungsbereitstellung und -integration sowie die Erhöhung der Transparenz in der gesamten Lieferkette.   Laden Sie hier den Beitrag "WILL BLOCKCHAIN FOR SUPPLY CHAIN CHANGE EVERYTHING?" unserer Industry Group im PDF-Format kostenlos herunter: :     Kontakt: Wenn Sie mehr über dieses spannende Thema wissen möchten, spreche ich gerne mit Ihnen darüber, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Bei der Effizienz des Supply Chain Managements die „Luft nach oben“ wegzubekommen, das ist eine hochgradig erfolgskritische Sache. Lieferketten – noch dazu vielleicht im internationalen Verkehr...

Cloud Basics

Cloud Computing: Willkommen in der Cloud

Cloud ist ein Buzzword, und zwar verdientermaßen! Im Internet nutzen wir die Cloud schon längst in irgendeiner Form – oft ohne einen Gedanken daran zu verschwenden. „In der Cloud“ ist auch kein Platz, der etwa IT-Hightech-Unternehmen vorbehalten wäre. Denn jeder kann Cloud-Computing aktiv oder passiv nutzen. Und zwar vom simplen Google-Konto bis hin zu hoch entwickelten und komplexen Plattformen für unterschiedlichste IT-Zwecke. Wie das funktioniert und wie wir uns die Cloud nutzbar machen können, erläutern wir in diesem Beitrag. Was ist die Cloud?   Auf Skizzen oder Übersichtsplänen einer IT-Infrastruktur sieht man häufig, dass das Internet mit einer Wolke (eben der Cloud) symbolisiert ist. Die an diese Wolke angebundenen Komponenten gehören zur Gesamtheit der Cloud, früher oft "Datenwolke" genannt. Sie stellt Datenspeicher, Rechenleistung und Softwarelösungen zur Verfügung.   Schnelle Internetanbindungen ermöglichen es heute, auch extrem große Datenmengen zu verschiedensten Zwecken in die Cloud auszulagern. Eine typische und bekannte Cloud-Anwendung für private Anwender sind die Google Apps mit Anwendungen wie Textverarbeitung (Google Docs), Tabellenkalkulation und Kalender. Diese Applikationen werden ausschließlich über den jeweiligen Webbrowser des Nutzers dargestellt. Die eigentliche Software liegt dagegen in der Cloud: Dokumente und Daten, die Nutzer hochladen und bearbeiten, werden auf sogenannten virtuellen Laufwerken in der Cloud gespeichert. Sie stehen dann bei Bedarf in jedem Webbrowser der Welt zur Verfügung. Hier ist der erste große Vorteil von Cloudanwendungen: Der Nutzer braucht keinen eigenen Speicher mehr für diese Daten und Anwendungen. Sie stehen auf hochverfügbaren und sicheren Servern bereit. Virtuelle Laufwerke sind eine weitere häufige Anwendung von Cloudsystemen. Wie der Name schon sagt, ist ein virtuelles Laufwerk eine Art Software-Abbildung des jeweiligen realen Laufwerks (z. B. einer Festplatte), die sich für den Endnutzer auch so verhält. Bekannt sind sie z. B. als Microsoft OneDrive, Google Drive oder DropBox. Virtuelle Laufwerke dieser Art dienen zugleich oft als Backup-Medium in der Cloud: Bei einem Defekt lokaler Festplattenlaufwerkes stehen die gesicherten Daten weiterhin in der Cloud zur Verfügung. Wo sind meine Daten in der Cloud? „Die“ Datencloud ist tatsächlich eine internetbasierte Infrastruktur von vielen Servern. Um Lasten wie z. B. Speicher- und Rechenkapazitäten zu verteilen, können bzw. müssen sogar bei großen Cloudsystemen die Server weltweit verteilt sein. Denn globale Anbieter müssen pausenlos massive Datenströme von überallher verarbeiten, mit denen auch der größte einzelne Server schnell an das Limit seiner Ressourcen käme. Daher betreiben internationale IT-Konzerne wie z. B. Oracle Ihre Rechenzentren vernetzt auf der ganzen Welt. Es gibt aber auch unternehmenseigene Clouds für firmeninterne Daten und Anwendungen. Sie werden in der Regel in ganz konkreten angemieteten Rechenzentren gehostet, deren Standorte dem Unternehmen bekannt sind. Das ist insbesondere dann notwendig, wenn datenschutzrechtliche Vorgaben (z. B. EU-DSGVO) oder branchenspezifische Compliance-Regeln eingehalten werden müssen. Cloud-Computing geht aber auch noch kleiner, sozusagen als „Personal Cloud“. So gibt es die Möglichkeit, seine persönlichen Daten auf einem kleinen Server zu Hause abzulegen und per Internetanbindung verfügbar zu machen. Hierfür genügt bereits ein Kleinstcomputer wie der Raspberry Pi. Der Besitzer kann so weltweit und jederzeit auf alle Daten und Anwendungen seiner privaten Cloud zugreifen. Die Frage "Wo werden Daten in der Cloud gespeichert?" stellt sich in der Praxis also kaum. Wesentlich ist, dass Daten auf jedem Gerät, an jedem Ort und jederzeit zur Verfügung stehen. Neben ausschließlich cloudbasierten Anwendungen und Datenspeichern gibt es auch sogenannte hybride Cloudlösungen, die vornehmlich in Unternehmen eingesetzt werden. Hierunter versteht man eine Mischform aus unternehmenseigener IT-Landschaft und einer Cloudlösung. Backup in der Cloud – wie funktioniert das? Die zuletzt genannte Hybrid-Cloud wird besonders bei Backupsystemen verwendet: Ein Unternehmen lagert seine Datenquellen – dies können sowohl Datei- als auch Datenbankserver sein – im eigenen Haus und nutzt als Backup-Medium die Cloud eines geeigneten Anbieters, der sämtliche Datenbanken und Dateien des Unternehmens als Datensicherung in sicheren Rechenzentren speichert und im Notfall wieder zur Verfügung stellt. Für solche Backups bietet Oracle die Cloud-Dienste Oracle Database Backup Service sowie die Oracle Storage Cloud an. Diese Lösungen sind für größere Unternehmen gedacht, die eine Umstellung auf ein hybrides Cloud-Angebot planen. Der Datenbank-Backup-Service ist als ein Element einer mehrschichtigen Restore-Strategie für Notfälle nach einem Datenverlust. Dieser Service ist Teil eines Platform-as-a-Service-Angebotes (PaaS). Wie sicher sind die Daten in der Cloud? Die Frage nach der Sicherheit der Cloud ist durchaus zu Recht ein IT-Dauerbrenner, bei dem Begriffe wie VPN, Verschlüsselung und Hochverfügbarkeit ins Spiel kommen. Unternehmen lagern zunehmend digitale Prozesse in die Cloud aus und legen unternehmenskritische Daten bei Global Playern wie Oracle aus. Normalität? – Viele kleinere Unternehmen machen sich dennoch Sorgen um ihre Daten, wenn es um Cloud Computing geht. Eine sichere Cloudarchitektur basiert vor allem auf dem Bewusstsein um den Worst Case. Da Cloud-Technologie vornehmlich auf verteilte Ressourcen setzt, gibt es viele Angriffspunkte, die abgesichert sein müssen. Die Cloud stellt durchaus hohe Anforderungen an die IT-Sicherheit: Unternehmensinterne Sicherheitsrichtlinien können leicht umgangen werden, so dass der Ruf nach neuen Kontrollmechanismen immer lauter wird. Die meistgenannten Sicherheitsrisiken in der Cloud 1.    Datenverlust: Sobald Daten eines Kunden bei einem Cloudanbieter verlorengehen, drohen langwierige Gerichtsverfahren, Schadensersatzforderungen seitens des Kunden und mögliche Image- und Auftragsverluste. Allein deshalb setzen Cloudanbieter auf höchste Sicherheitsstandards. 2.    Gehackte Interfaces und APIs: Die Schnittstelle, über die das Unternehmen seine Daten in der Cloud erreicht, stellt hohe Anforderungen an Authentifizierungsmechanismen und Verschlüsselungstechniken. Sobald Drittanbieter ins Spiel kommen, die auf der Basis von APIs z. B. Benutzeroberflächen entwickeln sollen, wächst das Risiko, da hierüber einem weiteren Personenkreis Zugriffe auf Services und interne Daten gewährt werden müssen. 3.    Insider mit kriminellen Absichten: Die größten Gefahren lauern im internen Kreis des Unternehmens. Ein Angestellter, z. B. ein Systemadministrator, der das Unternehmen verlässt und Zugangsdaten zu Clouddiensten mitnimmt, kann nach seinem Ausscheiden unter Umständen eine komplette IT-Infrastruktur zerstören oder auch Daten manipulieren. Dies sind nur einige exemplarische Szenarien für Gefahrenquellen durch mangelhafte Cloud-Sicherheit. Aber: Wie bereits erwähnt, kann es sich kein renommierter Cloud-Anbieter leisten, Kunden durch Schwächen der IT-Sicherheit zu verlieren. Viel gefährlicher ist es unterm Strich, sich auf die Sicherheit firmeneigener IT-Strukturen zu verlassen. Denn Sicherheitsstandards, wie sie moderne Cloud-Anbieter zur Verfügung stellen, sind allein schon aus finanziellen Gründen für ein Unternehmen kaum tragbar. Zu derartigen Sicherheitsstrukturen gehört ja einiges: Personal, das kontinuierlich kostenintensiv auf neue Sicherheitsstandards geschult werden muss. Teure Hardware, die zwingend rund um die Uhr gewartet und überwacht wird. Hochpreisige Softwarelizenzen… Und die Datenmengen, die bereits ein mittelständisches Unternehmen heute erzeugt, verarbeitet und auch auswerten muss, können eine typische interne IT-Abteilung mit Serverraum und einer Handvoll Admins sehr schnell überfordern. Die Cloud – Visionen und Chancen Eine Zukunftsvision ist die Cloud für viele Unternehmen längst nicht mehr – sie sind schon drin. Chancen und Vorteile liegen ja auf der Hand. Wer sich der Cloud verweigert, behindert Wachstum, Flexibilität, die Eroberung neuer Geschäftsfelder usw. Denn die eigene IT-Infrastruktur vergeudet, wie Studien von Unternehmensberatungen gezeigt haben, rund 70 Prozent ihrer Arbeitszeit damit, sich selbst am Leben zu halten. Nur 30 Prozent des Aufwands fließen in Arbeiten, die dem Unternehmen helfen, Wettbewerbsvorteile zu erringen. Die Datensicherheit durch Eigenhosting erhöht sich auch nur in der Theorie – solange man vermeidet, Firmendaten nach außen zu geben. In der Praxis sind Geschäftsprozesse in der Cloud wesentlich sicherer aufgehoben. Fazit Entscheider im IT-Bereich müssen die Cloud als unumgängliche Realität mit zunehmend hohem Entwicklungspotential für alle Geschäftsbereiche begreifen. Und Oracle als kompetenten Ansprechpartner in diesem Bereich.   Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Cloud ist ein Buzzword, und zwar verdientermaßen! Im Internet nutzen wir die Cloud schon längst in irgendeiner Form – oft ohne einen Gedanken daran zu verschwenden. „In der Cloud“ ist auch kein Platz,...

Cloud Technik

Low Code Plattformen: Echte cloudbasierte Softwareentwicklung für jeden

Entwicklerplattform, DevOps, Unternehmensapps programmieren… Besonders Mittelständler und kleine Unternehmer geben oft schon den Löffel ab, wenn Sie solche Begriffe nur lesen: „Ja ja, sehr interessant, aber sowas können wir nicht.“ Ähnliche Reaktionen gibt es aber auch in größeren Betrieben in Bereichen, die eben nicht die IT-Abteilung sind. Was ist Low Code?   Anders als herkömmliche Programmiermethoden funktioniert Low Code Development mit einem visuell konzipierten Applikationsdesign und mit grafischen Modellierungsmethoden. Das heißt vereinfacht: Anwender können sich sehr anschaulich die gewünschte Software buchstäblich selbst „zusammenklicken“.   Doch „Kopf in den Sand“ gilt jetzt nicht mehr. Denn auch Mitarbeiter (fast) ohne Kenntnisse von Programmier- und Skriptsprachen könnten bald in Ihrem Unternehmen einfach mit einigen Datenmodellen und Frontend-Vorlagen Softwareapplikationen erstellen, um Ihre Geschäftsprozesse zu optimieren: selbst zusammengebaute Programme, die exakt auf die Bedürfnisse im Unternehmen zugeschnitten sind – und zwar, ohne dass Sie sich mit „flachen Lernkurven“ oder teuren Programmierern auseinandersetzen müssen. Low Code Plattformen heißen die zukünftigen cloudbasierten Lösungen der Softwareentwicklung, die all das und noch einiges mehr bieten. Hier erfahren Sie mehr über die Grundlagen des Low Code Developments, mit Vor- und Nachteilen. Low Code ist vor allem eins: einfach! Darin, daß sich Anwender sehr anschaulich die gewünschte Software buchstäblich selbst zusammenklicken können, liegt auch schon der Hauptvorteil von Low Code Development Platforms, nämlich, dass sich Kosten für Projektplanung und -entwicklung sowie Schulungsmaßnahmen für die Mitarbeiter z. T. drastisch senken lassen. Damit begegnet Low Code Development außerdem dem Mangel an IT-Fachkräften: Die Softwareentwickler in spe können als Quereinsteiger schnell in diese neue Technik der Softwareerstellung eingearbeitet werden. Sie brauchen dazu weder langwierig eine Programmiersprache erlernt geschweige denn ein Informatikstudium absolviert zu haben. In der Praxis kommen Low-Code-Plattformen mit grafischen Benutzeroberflächen, die bereits kleine vorgefertigte Applikationen bereitstellen. Die Applikationen lassen sich meist mit nur wenig Aufwand anpassen oder konfigurieren. Programmiercode ist dazu kaum oder gar nicht mehr erforderlich. Bereits vorhandene Applikationen und Funktionen stellen die Anbieter der Low Code Platform bereit und entwickeln sie in der Cloud weiter – also in Echtzeit verfügbar. Das Prinzip ist eigentlich schon lange z. B. von Content Management Systemen wie WordPress oder Drupal bekannt. Damit kann jeder eine komplette Website mit allen grafischen Elementen und Funktionen zusammenbauen, ohne eine einzige Zeile HTML-Code erstellen zu müssen. Die Definition von Low Code Development lautet in Kürze: Erstellung von individuell gestalteten Anwendungen, ohne selbst coden zu müssen. Wer bietet Low Code Plattformen an? – Und was Sie wissen müssen Neben einigen anderen Anbietern ist vor allem Oracle mit Oracle Application Express (APEX) Einer der Big Player auf dem Markt der Low Code Plattformen. Worauf Sie bei der Low-Code-Philosophie achten sollten: Diese Plattformen dienen nicht primär dazu, zwanghaft Kosten zu sparen! Sie sollen vielmehr Produktivität und Usability steigern. Das ist keine triviale Anforderung für ein Low-Code-Entwicklungssystem. Folgende Merkmale zeichnen gute Plattformen aus: Bereitstellung in der Cloud: Bei vielen Low-Code-Services können Sie fertiggestellte Low-Code-Anwendungen in einer Private Cloud oder in einer Public Cloud – also öffentlich zugänglich – zur Verfügung stellen, verwalten und weiter entwickeln. Die automatisierte Bereitstellung für alle Anwender in der Cloud gewährleistet die sofortige Verfügbarkeit. Das wiederum ist ein Vorteil beim Update-Management. Modellgetriebene Entwicklung: Mit Low Code können Sie Software viel intuitiver entwickeln als bei klassischer Programmierung mit abstraktem Code. Was dabei hilft, sind visualisierte Modelle von Geschäftslogiken, Datenmodellen und Userinterfaces. Sie tragen zu einer modellgetriebenen Softwareentwicklung bei. So können Power-User – eventuell noch von professionellen Anwendungsentwicklern unterstützt – auch komplexe Anwendungen einfach modellieren. Produktivitätssteigerung um den Faktor zehn herum im Vergleich zur herkömmlichen Programmierung sind dabei durchaus möglich. Wiederverwendbarkeit von Elementen und Komponenten: Die Produktivität lässt sich aber auch noch weiter erhöhen. Plattformanbieter stellen nämlich einsatzbereite Komponenten, Funktionen und Vorlagen bereit, die immer wieder verwendet werden können. Darüber hinaus lassen sich unternehmensinterne Application Stores einrichten, über die bereits fertiggestellte Programmteile abteilungsübergreifend zwecks Anpassung zu Entwicklerteams kommen. Mit nur wenigen Mausklicks entstehen dadurch neue Anwendungen. Das Pulver muss also nicht für jedes Teilprojekt neu erfunden werden. Low Code Anwendungen – zum Beispiel … Ein typischer Fall für eine Low-Code-Anwendung ist die Darstellung von Daten aus einer Oracle-Datenbank auf einer Weboberfläche. Oracle Application Express (APEX) liefert dazu alle erforderlichen Tools. Aber auch die Erstellung mobiler Apps mit Offline-Fähigkeit kann rein grafisch modelliert werden! Die Erstellung von Client-Anwendungen ist ein weiteres Leistungsmerkmal von Oracle APEX. Klassische Programmierer werden hier dennoch nicht arbeitslos. Sie können bei der Low-Code-Entwicklung weiterhin ihre Skills in entsprechende Projekte einbringen. Java- oder C++-Entwickler sind zum Beispiel in der Lage, spezifische Funktionen einer Low Code Anwendung auf Code-Ebene zu integrieren. Layouter und Forms-Entwickler sind mit ihren Erfahrungen weiterhin gefragt, wenn es darum geht, Benutzeroberflächen zu schaffen. Selbst ganz neue Apps und Funktionen können in eine Low-Code-Applikation durch herkömmliche Programmierung eingebracht werden, wenn gewünschte Funktionen noch nicht zur Verfügung stehen. Low Code vs No Code Low Code ist ja immerhin doch noch ein bisschen Code. Die konsequente Weiterführung dieses Weges ist mit "No Code" möglich. Hier gibt es gar keine manuelle Programmierung mehr. Das kann durchaus seine Berechtigung haben: Die meisten Low-Code-Plattformen richte sich ja an Endanwender. Das kann ein Vorteil sein. Denn Anwender aus der Welt der Tabellenkalkulationen mit  entsprechenden Makroentwicklungskenntnissen kommen mit der neuen Entwicklungsumgebung schnell zurecht. Mit "No Code" stößt man aber auch schnell an die Grenzen des Machbaren. Komplexe Systeme und die Integration mehrdimensionaler Datenbanken sowie vorhandener Skriptbausteine ist kaum noch möglich. Da muss man dann halt nehmen, was man kriegt. Bei etwas anspruchsvolleren Projekten ist im Entwicklungsverlauf irgendwann doch wieder der Programmierer gefragt. Sonst kann es passieren, dass man mit No Code lange nach Lösungen sucht, die ein Softwareentwickler mit wenig Code in kurzer Zeit im Kasten hat. Low Code vs High Code Die Frage "Low Code oder High Code" hingegen stellt sich eigentlich nicht mehr. Denn Anwendungsentwicklungen, die von Grund auf manuell ablaufen, sind zunehmend nicht einmal mehr old school. Zu komplex und individuell sind inzwischen die Anforderungen an Software, als dass man sie noch ökonomisch sinnvoll mit klassischem Coding entwickeln könnte. Low Code ist das Tool für Agilität auch bei der Softwareentwicklung. Wie geht es weiter mit der Software-Entwicklung? Der Markt der Softwareentwicklung braucht Low-Code-Ansätze! Für ihre digitale Transformation müssen Unternehmen ihre Geschäftsmodelle ständig anpassen und auf Anforderungen des Marktes reagieren. Anforderungen an Geschäftsprozesse werden immer komplexer. Das kann herkömmliche Softwareentwicklung kaum noch abbilden. Mittelständische Unternehmen mit kleinen Entwicklerteams schaffen schon seit geraumer Zeit die Anforderungen kaum noch. Wenn dann noch externe Dienstleister für die Softwareentwicklung beauftragt werden, wird es nicht unbedingt einfacher: Kommunikation, Umsetzung und ständige Software-Anpassungen stellen oft eine kaum lösbare Aufgabe dar. Für die erforderliche Flexibilität durch schnelle und einfach umsetzbare Anwendungen und Prozesse, die sich auch leicht anpassen lassen, ist Low Code die richtige Antwort.   Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Entwicklerplattform, DevOps, Unternehmensapps programmieren… Besonders Mittelständler und kleine Unternehmer geben oft schon den Löffel ab, wenn Sie solche Begriffe nur lesen: „Ja ja,...

Innovative Technologien

Oracle Autonomous Database: Wie selbstfahrende Datenbanken mit teurer DBA-Knochenarbeit radikal Schluss machen

Bis zu 75 % der Gesamtkosten des Datenbankmanagements (einschließlich der über fünf Jahre amortisierten Software- und Hardwarekosten) können auf Arbeitszeit entfallen. Das ist eigentlich vorsintflutlich – war bisher aber schwer zu vermeiden. Die Zahl stammt von der US-amerikanischen IDC. Auf einen Blick: Selbstsfahrende Datenbanken machen mit DBA-Knochenarbeit Schluss   Plötzlich sind Dinge einfach Was alles möglich wird IT-Talente kommen zu wertvoller kreativer Arbeit Die echt elastische Datenbank Automatisches Patchen bedeutet besseren Datenschutz Vorteile   Deren Research Vice President Carl W. Olofson sagt dazu: „Die größte Herausforderung eines Datenbankadministrators (DBA) ist das Tuning und der Betrieb einer unternehmenskritischen Transaktionsdatenbank“, und er weiß, dass neben der Untersuchung von Statistiken und Optimierungsanpassungen auch sehr häufig das Einspielen von Patches einschließlich Sicherheitspatches dazugehört. Das birgt die Gefahr von Bedienungsfehlern und bremst auch Betriebsabläufe aus. Was gehört zur Lösung dieses Problems? – Automatische Upgrades, Patches und Tuning während des Betriebs; auf 30 Minuten jährlich reduzierte Stehzeiten; weniger Rechen- und Speicherkapazitätsverbrauch, kein menschliches Versagen mehr – bei halbierten Kosten und hundertfach gesteigerter Zuverlässigkeit. Oracle Executive Chairman und CTO Larry Ellison erklärte bei seiner Präsentation diese Vorteile der Oracle Autonomous Database Cloud mit einem drastischen Vergleich: "Weißt du, was du lernen musst? Nichts. Es ist das Gleiche wie bei einem autonomen Fahrzeug. Wie schwierig ist es, damit zu fahren, wenn du einsteigst? Was musst du tun, um damit zu fahren? – Schlicht gesagt, du musst ihm sagen, wohin du willst." Und plötzlich sind die Dinge ganz einfach... Wie ein selbststeuerndes Auto kümmert sich die Oracle Autonomous Database jetzt automatisch um ein ganzes Konglomerat komplizierter Dinge, für die bisher ein Mensch zuständig war – und bei anderen Datenbanken auch noch immer ist! Dazu gehören das Einrichten der Datenbank, das Optimieren der Leistung, das Überwachen von Sicherheitsproblemen, das Patchen und das Entscheiden, wie viel Rechen-, Speicher- und Netzwerkkapazität benötigt wird. Zwar konnten schon bisher DBaaS-Dienste einen großen Teil der betrieblichen Arbeit (Ausführen von Backups, Anwenden von Patches usw.) eliminieren, aber DBaaS verwandelt derzeit „nur“ den Großteil der verbleibenden Arbeit von "Plackerei" in hochqualifizierte Aufgaben, die dem Unternehmen direkt zugute kommen. In der ersten Version dieser Funktion kümmert sich die Autonomous Database (Version 18c) mit analytischen – also nichttransaktionalen – Datenbanken. Der Plan ist nun, alle Oracle Database-Workloads im Laufe des nächsten Jahres zu unterstützen.   … auch bei den „harten Nüssen“ Eine besondere Herausforderung sind Datenbanken, die für lebenswichtige Unternehmensaktivitäten oder für die Analyse von Unternehmensdaten verwendet werden. Missionskritische Transaktionsdatenbanken müssen nicht nur immer verfügbar sein; sie müssen auch einen exzellenten Transaktionsdurchsatz bieten. Datenbanken, die Enterprise Data Warehouses unterstützen, können enorme Größenordnungen erreichen und sehr komplexe Abfragen mit vielen verschachtelten Verknüpfungen unterstützen. Dabei erwartet man aber Antwortzeiten von unter einer Sekunde auf diese Abfragen. Automatisierung allein reicht hier nicht mehr. Deshalb geht Oracle mit seinem neuesten Angebot weit darüber hinaus: Die autonome Datenbank ist so konzipiert, dass sie menschliche Administratoren überhaupt von der Prozesskontrolle ausblendet und somit den fehleranfälligen menschlichen Faktor vollständig aus dem Datenbankmanagement eliminiert. DBAs müssen nur noch einige Richtlinien definieren, der Rest geschieht automatisch – einschließlich Instanzenbereitstellung, Ressourcenskalierung, Patches und Updates, Backup und Recovery und sogar Leistungsoptimierung. Dieser Ansatz bietet potentiell ungeheuer große Vorteile, und zwar nicht allein, um Personalaufwand sowie Kosten für Kunden drastisch zu minimieren, sondern ebenso auch die Ursachen für Ausfälle durch menschliche Fehler und schädliche interne sowie externe Aktivitäten. Was alles möglich wird Ellisons Auftritt am 7. August im Oracle-Hauptquartier drehte sich um die Oracle Autonomous Transaction Processing Cloud, die zweite der Cloud-basierten autonomen Datenbanken von Oracle, die jetzt am Markt erhältlich ist. Das erste Oracle Autonomous Data Warehouse ist für Analysen gedacht. Oracle Autonomous Transaction Processing Cloud hingegen ist für eine komplexe Reihe von hochperformanten Transaktionen, sowie gemischte Workloads optimiert, sodass Batch-Verarbeitung, Reporting, Internet of Things-Daten und vieles mehr möglich sind. Diese autonomen Prozesse senken wie gesagt Betriebskosten, verbessern Sicherheit und Zuverlässigkeit, ermöglichen niedrigere IT-Arbeitskosten und verschaffen DBAs mehr Zeit, produktive Innovationen voranzutreiben, statt Datenbanken zu optimieren, Speicher zuzuordnen etc. Entwickler können jetzt alle Funktionen und die ganze Leistung der Oracle-Datenbank in einem Service nutzen, der sogar einfacher einzurichten und zu verwenden ist als NoSQL-Datenbanken mit deutlich geringeren Fähigkeiten. "Die echte Sensation für die herkömmlichen Entwickler mit ihren NoSQL-Datenbanken war, dass es kaum etwas zu lernen gab", berichtete Ellison. "Die Oracle-Datenbank war eine komplizierte Geschichte – wie man eine Datenbank erstellt, wie man die Datenbank verwaltet usw. usw. Das ist jetzt alles weg. Jetzt sind wir so einfach wie die einfachsten Datenbanken auf dem ganzen Planeten." IT-Talente kommen endlich zu wertvoller kreativer Arbeit "CIOs heißen Chief Information Officers, weil sie die Informationen des Unternehmens optimal nutzbar machen sollen. Und DBAs sollen sie dabei unterstützen", sagte Ellison. "Unsere Datenbankadministratoren sollen in genau diese Richtung gehen: den Wert der Daten maximieren und mehr Anwendungen erstellen, die Analysen und die Erkenntnisse verbessern, die dem Unternehmen zur Verfügung stehen. Sie sollten wirklich nicht mehr bloß das Betriebssystem patchen." Die echt elastische Datenbank Oracle Autonomous Database ist wirklich elastisch, weil hier ständig die verwendete Rechenkapazität angepasst wird – während zugleich die Anwendungen laufen. "Alles, was Sie bezahlen, ist die Infrastruktur, die Sie nutzen", sagte Ellison. "Und übrigens, wir sind sehr gut darin, auch die von Ihnen genutzte Infrastruktur zu minimieren." Oracle verspricht eine Verfügbarkeit von 99,995 %. Das entspricht einer Ausfallzeit von weniger als zweieinhalb Minuten pro Monat – maximal. Mit ein Grund dafür, warum Oracle dieses Versprechen (ohne Ausschlüsse für geplante Downtime bei Aufgaben wie Patching und Upgrades) machen kann, ist, dass die Autonomous Database das Patchen, Tuning und Failover durchführt, während das System weiterläuft, so Ellison. Automatisches Patchen bedeutet auch besseren Datenschutz "Es ist ziemlich peinlich und auch kostspielig, aber die meisten Datendiebstähle sind bisher passiert, lange nachdem die entsprechende Sicherheitslücke bekannt war – und ein Patch verfügbar war, um diese Lücke zu schließen", sagte Ellison. Mit Oracle Autonomous Database entfallen solche Zeitverzögerungen. IT- und Sicherheitsexperten müssen also nicht mehr das Risiko einer Schwachstelle einerseits und die Kosten und Unannehmlichkeiten beim Herunterfahren eines Systems andererseits abwägen. Noch wichtiger ist, dass keine Datenbank mehr übersehen werden kann, die dringend gepatcht werden muss. "Kaum vorstellbar, aber es gibt in großen Unternehmen tausende oder sogar zehntausende Datenbanken", so Ellison. "Es war bisher einfach sehr schwierig, die alle im Auge zu behalten, sie sich vorzunehmen und sicherzustellen, dass sie gepatcht sind. Wenn das manuell passierte, gab es eben Fehler, weil es ein risikoreicher Prozess war. Jetzt hingegen ist das komplett automatisiert – und sofort wieder verfügbar." Vorteile IT-Verantwortliche müssen gleichzeitig in Richtung Cloudtechnologie transformieren und mit weniger mehr erreichen. Die Oracle Autonomous Database ist die einzige Lösung, mit der Führungskräfte im IT-Bereich sowohl neue Anwendungen als auch ihre vorhandenen Bestände auf sichere und effektive Weise transformieren können. Der fehlertolerante Scale-Out-Cluster der Autonomous Database arbeitet transparent für OLTP- und Analytic-Workloads und ermöglicht eine einzigartige Ausführung von Mission Critical Workloads. Autonomous Database ist auch die sicherste Form, Datenbanken in der Cloud bereitzustellen, da die Daten automatisch verschlüsselt und Sicherheitsupdates automatisch angewendet werden, sobald sie verfügbar sind. Die autonome Datenbank bietet die einfachste, schnellste und sicherste Migration mit der schnellsten Amortisierungszeit, da Kunden ihre vorhandenen Datenbanken problemlos in die Autonomous Database migrieren können, ohne Änderungen an ihren Anwendungen vornehmen zu müssen – in der Public Cloud- oder Cloud at Customer-Umgebung. Dieses Konzept der autonomen Datenbank ist mit Sicherheit eine bahnbrechende Innovation, vergleichbar mit den jüngsten Entwicklungen in anderen Bereichen der Informationstechnologie wie maschinelles Lernen oder Serverless Computing. Oracle hat hier einiges kombiniert: •     jahrzehntelange Erfahrung in der Entwicklung von Unternehmensdatenbanklösungen, •     die neuesten AI-gestützten Innovationen in der Oracle Database 18c und •     die Skalierbarkeit und Leistung der dazugehörigen Exadata-Hardwareplattform … und so ein einzigartiges Angebot auch für die anspruchsvollsten Unternehmensdatenbank-Kunden geschaffen. Entwickler können Oracle Autonomous Database kostenlos als Cloud-Service mit 2 Terabyte Daten für 3.300 Stunden testen: Starten Sie jetzt Ihre kostenlose Testversion der Oracle Autonomous Transaction Processing Cloud Kontakt: Wenn Sie mehr über dieses spannende Thema wissen möchten, spreche ich gerne mit Ihnen darüber, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Bis zu 75 % der Gesamtkosten des Datenbankmanagements (einschließlich der über fünf Jahre amortisierten Software- und Hardwarekosten) können auf Arbeitszeit entfallen. Das ist eigentlich...

Personal

Autonomous Data Warehouse: Kann Ihr Datenbankadministrator die „eierlegende Wollmilchsau“ werden?

Schlüsselrollen im Unternehmen besetzen Sie sicher nicht mit unzureichend qualifiziertem Personal. Eine zentrale Funktion, für die das mit Sicherheit gilt, ist die Datenbankverwaltung. Denn für viele Unternehmen sind ihre Daten die einzig wirklich entscheidende Stärke und bieten das Potential, damit zum Gamechanger zu werden – besonders im Bereich Dienstleistungen.   Auf einen Blick: Welchen Wert hat der Datenbankadministrator (DBA)?   Herausforderung für DBAs: Zu viele Hüte, zu wenig Köpfe Lernender DBA: Artistik-Ausbildung nicht erforderlich Exzellenz in der Datenbank-Automatisierung Das Learning-Abo als effiziente und effektive Methode am Ball zu bleiben   Wie Entscheider und Analysten diese Daten verwenden, kann überlebenskritisch sein. Unternehmen, die potenzielle Geschäftschancen als erste aufspüren und selbst auf geringfügigste Marktveränderungen sofort reagieren, sind am erfolgreichsten. Daher die Schlüsselfrage für die Schlüsselfunktion: Welchen Wert hat Ihr Datenbankadministrator (DBA)? Herausforderung für DBAs: Zu viele Hüte, zu wenig Köpfe Daten bilden in der datengesteuerten Wirtschaft den Kern von allem, was ein modernes Unternehmen denkt und tut – von der strategischen Geschäftsentscheidung bis hin zu operativem Vertrieb, Marketing, Kundenservice, Finanzen und HR-Reporting. Daher werden effiziente Verwaltung und der Fluss von Geschäftsinformationen zu, von und in Ihrem Data Warehouse immer wichtiger. DBAs haben also sicher einen der einflussreichsten, aber auch schwierigsten Jobs in Unternehmen: Um den optimalen geschäftlichen Mehrwert zu erzielen, müssen sie sich auf strategische, geschäftsorientierte Aufgaben konzentrieren, z. B. Datenmodellierung, Optimierung des Zugriffs und allgemein die Suche nach Möglichkeiten, um mehr Wert aus Unternehmensdaten zu ziehen. Die Herausforderung ist allerdings, genau dafür Zeit zu finden, während Routineverantwortlichkeiten für Infrastruktur eher Vorrang haben: Sachen wie Erstellung von Speicherindizes, Bereitstellung, Patching, Upgrades, Backups, Sicherheit, Skalierung, Serverprozessornutzung; die Langweilerliste hat kein Ende. Klar sind Performance und Betriebsmanagement Ihres Data Warehouses auch wichtig. Denn wenn alles langsamer wird oder sich Crashs häufen, fragen Vorgesetzte sehr schnell nach, warum ihre operativen Dashboards und Berichte veraltet oder gleich gar nicht verfügbar sind. Wenn DBAs jedoch zu viel Zeit und Ressourcen für Routineaufgaben aufwenden, kommen dafür Geschäftsinnovationen, Agilität und Wettbewerbsfähigkeit unter die Räder. Wanted: Lernender DBA, Artistik-Ausbildung nicht erforderlich Müssen Datenbankadministratoren also jonglieren können, und das im Spagat, um dies alles unter einen Hut zu bekommen? Die eierlegende Wollmilchsau gibt es ja nicht, sehr wohl aber den Bedarf nach Eiern, Wolle usw. Wie soll der Mann oder die Frau das also hinzaubern? Innovationen wie die Oracle Autonomous Data Warehouse Cloud werden die Rolle des DBA radikal aufpolieren. Dieser vollständig gemanagte Cloud-Service macht Data Warehouse Management schnell, einfach und extrem flexibel. Er bietet Ihnen alles, was Sie brauchen, um Ihre Daten rasch und effizient in der Cloud zu designen, zu laden und zu analysieren. Dinge, die bisher umständlich bis hin zum Alptraum sein konnten – Leistung und operatives Management, Konfiguration, Tuning, Provisioning, Backups, Patching, Failover, Upgrades – ab sofort alles automatisiert! Bei Bedarf gibt es eine Compute- oder Storage-Skalierung. Speicherindizes werden basierend auf eingehenden Abfragen automatisch generiert. Kein manuelles Abstimmen oder Eingreifen erforderlich. Interessantere und wertvollere unternehmensspezifische Jobs wie die Integration neuer Datenquellen, die Optimierung von Anwendungen und das Management des Datenlebenszyklus bekommen auf einen Schlag die Aufmerksamkeit, die sie verdienen – weil Ihre DBAs von der Last befreit sind, mehrere arbeitsintensive Aufgaben synchron zu bewältigen. Die Zukunft der DBA-Rolle ist mehr Fokus, weniger Jonglieren; weniger Aufgaben, viel mehr Wert. Exzellenz in einer Welt der Datenbank-Automatisierung Eine Aufgabe allerdings wird DBAs bleiben, egal was kommt: Lernen! Wie immer sich Data Warehouses weiterentwickeln – Datenbankadministratoren, die mit den neuesten Trends und Technologien Schritt halten, können stets auch den größten geschäftlichen Nutzen erzielen und sind daher am meisten gefragt. Oracle University erstellt einen New-Features-Kurs für jedes umfangreichere Release der Oracle Database. Damit behalten Sie den Überblick. Der Kurs, der traditionell über Classroom Training, Live Virtual Classes und Training on Demand angeboten wird, ist jetzt als Learning Subscription verfügbar. Er bietet Ihnen den ganzjährigen Zugriff auf dutzende Stunden hochqualitativer Lerninhalte, die ständig aktualisiert werden.   Die Oracle Database New Features Learning Subscription ist die effizienteste und effektivste Methode, um bei den neuesten Oracle Database Releases auf dem letzen Stand zu bleiben.   Kontakt Gerne unterhalte ich mich auch mit Ihnen darüber, per E-Mail oder LinkedIn. Ottmar Kugelmann, Senior Director Oracle University - Cloud, EMEA

Schlüsselrollen im Unternehmen besetzen Sie sicher nicht mit unzureichend qualifiziertem Personal. Eine zentrale Funktion, für die das mit Sicherheit gilt, ist die Datenbankverwaltung. Denn für viele...

Cloud in der Praxis

Oracle Autonomous Cloud sorgt für den Höhenflug Ihrer Innovationen

Viele Details der Air Force One sind top secret. Aber dass die Maschine des amerikanischen Präsidenten mit exklusiver Hard- und Software und allen erdenklichen Utilities auf dem letzten Stand der Technik fliegt und außerdem VIP-Status im Luftraum genießt, weiß man. Ein für seine Zwecke besser ausgestattetes Gerät als die Air Force One ist nicht zu haben. Auf einen Blick: Autonomous Cloud sorgt für den Höhenflug   Unternehmen profitieren von digitalen Technologien Daten sind der Treibstoff innovativer Digitalisierung Die Autonomous Cloud spielt in einer neuen Liga Podcast: Wie AI-basierte Cloud-Lösung neue Einnahmequellen erschließt Artikel aus Harvard Business Review: Using Digital Platforms and Artificial Intelligence to Outpace Rivals   Unternehmen profitieren von digitalen Technologien Was hat das mit unternehmerischer Innovation und Cloud-Technologie zu tun? – Der Hauptunterschied vorweg: Die Präsidentenmaschine kriegen Sie nicht; modernste Cloud-Technologie aber schon. Und damit verfügen Sie im digitalen „Luftraum“ ebenfalls über äußerst machtvolle Features. Denn international und branchenübergreifend schafft künstliche Intelligenz (AI) für Unternehmen neue Wachstumschancen – indem sie personalisiertes Engagement vorantreibt, neue Geschäftsfelder eröffnet und die Kosten für Services und Infrastruktur senkt. Bahnbrechende Technologien wie Konversations-AI, Augmented Reality (AR), Virtual Reality (VR), Internet der Dinge (IoT), Blockchain und andere Benutzerschnittstellen auf Basis von Machine Learning (ML) ermöglichen Unternehmen jeder Größe neue Wege, Kunden, Partner und Mitarbeiter zu gewinnen, durch mobile, digitale und personalisierte – sogar vorausschauende – Erfahrungen. Ein Jet fliegt nicht mit Diesel Daten sind der Treibstoff innovativer Digitalisierung. Für der Einsatz künstlicher Intelligenz im Unternehmen heißt das: AI ist nur so gut wie die Daten, mit denen sie gefüttert wird. Und Daten liegen verstreut über verschiedene Apps, Data Warehouses, interne und externe Quellen. Ihr Unternehmen muss aber in der Lage sein, Informationen aus allen Daten quer durch diese ganzen Quellen hinweg zu generieren und dort überall reibungslos Prozesse auszuführen. Dann müssen Sie auch noch dieses zusammengeführte Wissen personalisiert über verschiedene Kanäle ausspielen können, gleich ob in Web- oder mobilen Apps, über Chatbots oder sogar auf Websites oder Microsites. Das Problem: Die herkömmlichen Methoden, um Daten und Erkenntnisse zu integrieren oder um neue Apps und Interaktionsmodelle zu erstellen, sind etwa so geeignet wie Diesel in einem Jet: Die gesammelten Informationen wären bereits veraltet, bis sie es überhaupt in die AI geschafft haben. Unternehmen, die mit begrenzten internen Ressourcen arbeiten, bemerken das, sobald sie versuchen, mit ständig neuen Informationen und Technologien Schritt zu halten. Das muss also deutlich schneller gehen, wenn Innovationen den Geschäftsgang vorantreiben sollen! Die Vorteile von Konversations-AI und ML entdecken schon heute viele Unternehmen in der Cloud. Denn sowohl übergreifende wie betriebsspezifische Anforderungen gilt es gleichermaßen effizient zu erfüllen. Nur mit neuen Technologien wie Blockchain, IoT, Chatbots, AI/ML, AR/VR (und was noch alles kommt) sind die entsprechenden Innovationen möglich. Die eingebaute Intelligenz ist es, die innovative Lösungen startklar macht (SaaS), ebenso wie Services, die Sie brauchen, um Innovation schließlich vorwärts zu bringen (PaaS). Hinzu kommt: Auch die Sicherheitsprobleme werden ja dauernd intelligenter. Eine immer größere Kavallerie von Sicherheitsexperten in die Schlacht zu werfen, ist da wenig sinnvoll. Auch hier müssen Sie AI einsetzen, um mit AI fertigzuwerden. Die Autonomous Cloud spielt in einer neuen Liga Oracle kann Unternehmen aller Größenordnungen aus einer einzigartigen Position heraus bei ihrem Weg in die Cloud und zur Innovation unterstützen. Wir sehen, wie wachstumsstarke Unternehmen ihre digitale Transformation mit Offenheit für SaaS beginnen und mit PaaS ausbauen. So schaffen sie es, •     ihre SaaS-Investitionen mit den On-Premise-Strukturen zu verbinden, •     ihre SaaS-Anwendungen zu erweitern oder neue zu erstellen, •     intelligente, ansprechende und personalisierte Erfahrungen zu generieren mit Chatbots, Mobile und Web, •     und so zu intelligenten Sicherheitsstandards und personalisierten Erkenntnissen zu kommen. Für KMUs, aber auch darüber hinaus ist das der schnellste Weg zu Innovationen, da die Komplexität und die Kosten für die Verwaltung einer optimalen Infrastruktureinrichtung entfallen. Außerdem ist dieser Ansatz zukunftsweisend für neue Investitionen, da neue Technologien jetzt ohne Verzug zur Verfügung stehen. Die Oracle Autonomous Cloud repräsentiert eine neue Kategorie der Softwareautomatisierung. Diese bahnbrechenden neuen PaaS-Services nutzen hochentwickelte AI/ML-Algorithmen, mit denen sich wichtige Aufgaben automatisieren bzw. zur Kostensenkung auch eliminieren lassen; Risiken werden reduziert, Innovationen beschleunigt und vorausschauende Erkenntnisse ermöglicht. Oracle hat die Autonomous Database Cloud erst kürzlich als neuen wesentlichen Meilenstein eingeführt. Darüber hinaus sind bereits mehrere neue autonome Cloud-Dienste verfügbar, einschließlich autonomer Anwendungsentwicklung, autonomer Integration und autonomer Analyse. Oracle Autonomous Cloud nutzt die Möglichkeiten von AI und maschinellem Lernen, um selbsttätige, selbstsichernde und selbstreparierende autonome Funktionen bereitzustellen. Die ganze Art und Weise, wie Unternehmen Innovationen voranbringen, indem sie Prozesse vereinfachen, effizienter werden und Ressourcen freisetzen, um sich auf Innovationen zu konzentrieren – all das wird revolutioniert. Die Oracle Cloud Platform ist auch für Hybrid- und Multi-Cloud-Umgebungen optimiert. Für Unternehmen mit strengen Anforderungen an Speicherort, Compliance oder Latenz steht die Oracle Cloud Platform auch innerhalb Ihres Rechenzentrums zur Verfügung, vollständig von Oracle verwaltet, so dass Sie Agilität, Innovation und Abonnementkosten der Oracle Cloud Platform sogar für On-Premise- und Private Cloud-Bereitstellungen nutzen können.   Egal, ob Sie Endnutzer oder Angestellter sind – künstliche Intelligenz wird schon bald Ihr Leben wesentlich beeinflussen. Auch für die meisten Unternehmen kommt die Einführung von künstlicher Intelligenz unweigerlich. Die gute Nachricht ist, dass AI kein akademisches Versuchsprojekt mehr ist. AI ist da. Als Oracle Autonomous Cloud. In diesem Podcast erfahren Sie, wie Sie mit einer AI-basierten Cloud-Lösung Ihr Unternehmen vernetzen und neue Einnahmequellen erschließen können. Erfahren Sie mehr in diesem Artikel aus der Harvard Business Review: Using Digital Platforms and Artificial Intelligence to Outpace Rivals.   Kontakt: Wenn Sie mehr über dieses spannende Thema wissen möchten, spreche ich gerne mit Ihnen darüber, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Viele Details der Air Force One sind top secret. Aber dass die Maschine des amerikanischen Präsidenten mit exklusiver Hard- und Software und allen erdenklichen Utilities auf dem letzten Stand...

Cloud Basics

Cloud Technologie: Definition, Möglichkeiten und Herausforderungen

Cloud Technologie ist allgegenwärtig – vom einfachen Googlekonto bis zur komplexen IT-Infrastruktur von globalen Konzernen. Sie verdankt ihre rasante Verbreitung einem ganzen Bündel drängender Bedürfnisse: •     Daten sollen mobil, geräte- und systemübergreifend verfügbar sein. •     Rechen- und Speicherkapazitäten sollen flexibel zur Verfügung stehen, ohne kostspielige Ressourcen zu binden. •     Softwareupdates und -upgrades, Systemumstellungen, Revisionen usw. sollen ohne Stehzeiten jederzeit durchführbar sein. •     Entwickler und Nutzer sollen vereinfachte Schnittstellen für ihre Aufgaben vorfinden, selbst wenn unterschiedlichste native Anwendungen “dahinter” stecken. … um nur einige der wesentlichen Zwecke der Cloud Technologie zu nennen. Was ist Cloud Technologie?   Cloud Technologie (die “Datenwolke”) dient dazu, Daten dezentral in einem Rechnernetzwerk zu speichern, zu verarbeiten und abzurufen. Das passiert meist in einer internetbasierten Struktur, die auf die gigantischen Ressourcen des World Wide Web zurückgreifen kann. Aber auch etwa im Intranet eines Unternehmens lässt sich eine Cloud einrichten und so vor Cyberattacken aus dem Internet abschirmen. Für den Zugriff auf die Cloud sind bestimmte Protokolle und technische Schnittstellen erforderlich, die bei webbasierten Clouds der Browser oder eine App bereitstellt.   Cloud Services: So kommt Cloud Technologie zum Kunden Die folgenden drei Servicemodelle, die auch in hybriden Formen angeboten werden, sind (neben einigen weiteren Spezialformen)die gängigsten: •     SaaS(Software as a Service): Hier kann der Nutzer auf Anwendungsprogramme und Software-Sammlungen zugreifen und damit arbeiten, die auf der Infrastruktur des Anbieters laufen. SaaS ist eine Software on demand, sie wird also bei Bedarf genutzt. •     PaaS(Platform as a Service): In diesem Fall bietet die Cloud den Zugang zu Programmierungs- und Laufzeitumgebungen. Die Daten- und Rechenkapazitäten lassen sich flexibel und dynamisch anpassen. Nutzer können mit PaaS eigene Software-Anwendungen entwickeln oder diese auf der Plattform innerhalb der vom Provider bereitgestellten Softwareumgebung ausführen lassen. •     IaaS(Infrastructure as a Service): Anwender können auf eine virtualisierte Computerhardware-Ressource zugreifen. Das kann ein Rechner, ein Netz oder ein Speicher  sein – oder auch eine Kombination dieser Bestandteile. Die Nutzer können damit eigene virtuelle Computer-Cluster gestalten. Damit übernehmen sie auch die Verantwortung für die Auswahl, den Betrieb und die Funktionstüchtigkeit der Software. Öffentliche, private und andere Cloud Services Eine Public Cloud ist öffentlich zugänglich und stellt abstrahierte IT-Infrastrukturen online bereit. Diensteanbieter von Public Clouds ermöglichen ihren Kunden das Mieten dieser IT-Infrastruktur. Dabei wird in der Regel nur die tatsächliche Nutzung bezahlt. Eine Private Cloudwird nur für ein Unternehmen oder eine sonstige Organisation betrieben. Unter Umständen hostet das Unternehmen diese Cloud selbst und betreibt sie im firmeneigenen Intranet, was aus Compliance- oderSicherheitsgründen vorteilhaft sein kann. Ein Internetzugang lässt sich bei Bedarf herstellen. Damit entstünde dann … eine Hybrid Cloud, in der Public und Private Cloud kombiniert sind. Dieses Modell setzt sich in sensiblen Bereichen immer häufiger durch. Die Cloud wird vom öffentlichen Netz getrennt, wenn besonders sicherheitskritische Daten zu übertragen sind. Eine Community Cloud ist der Sonderfall einer Public Cloud für einen bestimmten Nutzerkreis, z. B. in Universitäten, zusammengeschlossenen Behörden oder Firmen in einem Interessenverbund. Die Virtual Private Cloud ist für einen bestimmten Nutzerkreis bestimmt. Sie basiert auf prinzipiell öffentlichen IT-Infrastrukturen, wobei virtuell private Bereiche durch ein Virtual Private Network geschützt werden. Cloud Technologie vs Server? – Vor- und Nachteile der Cloud Technologie Unternehmen stehen vor einer folgenreichen Entscheidung: Sollen sie eigene Server oder die Cloud Technologie nutzen? Der große Vorteil der Cloud ist, dass die Daten prinzipiell im Sekundentakt gespeichert und redundant auf verschiedenen Servern vorgehalten werden. Ein Datenverlust ist damit nahezu unmöglich. Der Ausfall eines einzigen Servers in einem Unternehmen hat hingegen katastrophale Auswirkungen, weil ständig Daten geändert werden. Interne Sicherungen finden bestenfalls im Stunden- und oft nur im Tagestakt statt. Es ginge also bei einem Serverausfall mindestens die Arbeit von Stunden verloren. Darüber hinaus ist es stets sehr schwer, den genauen Datenbestand zum Zeitpunkt des Ausfalls zu evaluieren. In manchen Fällen existieren die Vorlagen für den Dateninput nicht mehr, weil sie unmittelbar nach dem Erfassen gelöscht wurden. Wer einen solchen Serverausfall und die damit verbundenen Auswirkungen schon einmal erlebt hat, ist buchstäblich digital traumatisiert – und wird sich strikt für die Cloud Technologie aussprechen. Dennoch wollen wir die Vor- und Nachteile beider Verfahren untersuchen.  Vorteile der Cloud Technologie: •     ständige automatisierte Datenspeicherung •     redundante Datensicherung schützt vor Datenverlust •     keine Investition in Hardware und nur bei Bedarf in Software •     Nutzung kann bedarfsgerecht bezahlt werden •     mobiler Zugang möglich Nachteile: •     kein absoluter Schutz vor Hackerangriffen •     mögliche Abhängigkeit von einem Diensteanbieter und dessen technischer Infrastruktur •     permanente Kosten Vorteile eines Inhouse-Servers: •     theoretisch absoluter Schutz vor Hacking (betrifft nicht internen Datenabgriff durch eigene Mitarbeiter!) •     keine laufenden Netzkosten (bis auf Strom und Wartung) •     Kontrolle über die Infrastruktur Nachteile: •     Datensicherung nur in größeren Zeitabständen •     Serverausfall kann existenziell gefährdende Kosten verursachen (Wiederherstellung der Daten, Produktionsausfall, Fehler durch mangelnde Evaluierung des tatsächlichen Datenverlusts, damit auch Gefahr von Doppelungen) •     hohe Investitionen in Hard- und Software erforderlich •     Expertise von eigenen Mitarbeitern nötig •     Gefahr des Datendiebstahls durch eigene Mitarbeiter, die aufgrund der gesicherten Insellösung besonders bestechlich werden •     in der Regel kein mobiler Zugang (oder nur mit sehr aufwendigen technischen Systemen) Wer also auf eigene Server setzt, muss sich zweifellos auf seine technischen und finanziellen Ressourcen ebenso wie auf seine eigenen Mitarbeiter absolut verlassen können. Bleibt das Problem der Versuchung von Mitarbeitern, vermeintlich “unhackbare” Daten an einen Konkurrenten zu verkaufen. Das könnten sie natürlich auch versuchen, wenn ihre Firma auf eine Cloud Lösung setzt. Doch in diesem Fall wird der Angreifer stets zuerst den Zugang über das öffentliche Netz suchen. Wenn die Cloud Technologie dann einen sicheren Schutz vor Fremdzugriffen bietet, hat der Hacker keine Chance. Für diesen Schutz gibt es heute schon sehr ausgefeilte Techniken. Der Charme der hybriden Cloud Technologie Selbst kleinere Unternehmen verarbeiten heute riesige Datenmengen. Hinzu kommen rasante technologische Weiterentwicklungen, die heute eine ständige Erneuerung eigener Server erfordern würde. In dieser dynamischen Situation setzen immer mehr Firmen auf die Cloud Technologie. Wenn sie dabei Hackerangriffe als realistisches Risiko einstufen, sollten sie sich für eine hybride Lösung entscheiden. Mit hybrider Cloud Technologie nutzen sie eine Cloud in ihrem eigenen Intranet und zusätzlich die Public Cloud, damit ihre Mitarbeiter überwiegend auf öffentlich zugängliche Informationen über das Internet zugreifen können. Nur im Bedarfsfall werden die Netze getrennt, damit sensible Daten nicht nach außen gelangen. Typischer Anwendungsfall: Ein Mitarbeiter arbeitet offline nur auf seinem eigenen Rechner an einem Projekt. Wenn er gelegentlich Daten an einen Kollegen übertragen muss, geschieht das über das Intranet, das hierzu vorübergehend von der Public Cloud getrennt wird. Der Kollege verwaltet die Daten anschließend wieder offline. Hierfür gibt es hervorragende technische Lösungen. Für die Anpassung der Cloud Technologie bzw. der geeigneten Servicemodelle an individuelle betriebliche Anforderungen im Einzelfall stehen anbieterseitig erfahrene Berater bereit.   Lesen Sie in der Studie „Was beim Wechsel in die Cloud zu erwarten ist“ warum sich der Wechsel in die Cloud auszahlt und laden Sie sich unseren kostenlosen Ratgeber "Der Intelligentere Weg Daten zu managen" herunter: Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Cloud Technologie ist allgegenwärtig – vom einfachen Googlekonto bis zur komplexen IT-Infrastruktur von globalen Konzernen. Sie verdankt ihre rasante Verbreitung einem ganzen Bündel...

Cloud Technik

Wie Kubernetes den Einsatz von Containern automatisiert

Nach der Veröffentlichung von Docker im Jahr 2013 wurde sehr schnell klar, welches Potenzial die Containerisierung von Anwendungen besitzt. Vor allem die Betreiber von Rechenzentren und die Cloud-Anbieter hatten auf eine solche Technik gewartet, die es ihnen ermöglichen würde, die Wünsche ihrer Kunden bei der Bereitstellung von Applikationen schnell und flexibel zu erfüllen. Für den Einsatz von Docker im industriellen Maßstab fehlte jedoch zunächst noch ein Werkzeug, mit dem sich auch eine größere Zahl von Containern bereitstellen, skalieren und verwalten lässt. Das erschien dann 2014 mit Kubernetes, kurz K8s oder K8, auf dem Markt. Was ist Kubernetes?   Kubernetes ermöglicht den Einsatz von Docker im industriellen Maßstab und ist insbesondere für Cloud-Provider ein unentbehrliches Werkzeug. Die zahlreichen Möglichkeiten zur Automatisierung etwa bei der Zuweisung von Ressourcen haben das System zu einer der erfolgreichsten Anwendungen der letzten Jahre gemacht.   Die ursprünglichen Entwickler der Software sitzen bei Google, der Konzern spendete die Software jedoch schon bald als Open Source an die Cloud Native Computing Foundation. Zu ihren Mitgliedern gehören heute praktisch alle wichtigen Cloud-Anbieter, darunter Alibaba, AWS, Microsoft, IBM und natürlich Oracle. Bei Kubernetes werden aus Containern Pods Kubernetes fasst Container zu Pods zusammen. Ein Pod ist die Basiseinheit des Systems und beinhaltet einen oder mehrere Container, die sich die vorhandenen Ressourcen teilen und auf der gleichen physischen oder virtuellen Maschine ausgeführt werden. Diese Maschinen werden im Kubernetes-Umfeld als Nodes bezeichnet, früher wurde auch der Name Minions benutzt. Mehrere Nodes lassen sich zu einem Cluster verbinden. Kubernetes ist in der Lage, selbstständig für jeden Pod einen Node mit ausreichend Kapazität zu finden und die enthaltenen Container automatisiert zu starten. Mehr noch: Ändert sich der Ressourcenbedarf eines Pods, so kann Kubernetes automatisch einen anderen, besser passenden Node suchen und das System auf diese Weise horizontal skalieren. Der Anwender kann dabei Höchst- und Mindestgrenzen definieren und muss ansonsten lediglich die benötigten Ressourcen bereitstellen, Änderungen an den Anwendungen sind nicht erforderlich. Den Rest erledigt Kubernetes. Das System ist darüber hinaus in der Lage, ein automatisiertes Load-Balancing durchzuführen. Registriert es etwa, dass ein Pod eine Netzwerkverbindung ins Internet oder zu einem anderen Container benötigt, stellt Kubernetes diese Verbindung nicht nur her, sondern verteilt bei Bedarf auch den Datenverkehr automatisch auf mehrere Container. Kubernetes verteilt Ressourcen automatisch Das zentrale Element von Kubernetes ist der Kubernetes Master. Er empfängt die Vorgaben des Administrators und setzt sie in den zur Verfügung stehenden Nodes um. Er entscheidet mithilfe mehrerer Dienste, welcher Node am besten für eine Aufgabe geeignet ist, reserviert die erforderlichen Ressourcen und legt fest, welche Pods auf diesem Node die geforderte Aufgabe erfüllen sollen. Dann weist der Master Docker an, die jeweiligen Container zu starten. Das geschieht über Kubelet, einen Agent, der auf jedem Node läuft. In der Folge überwacht Kubelet kontinuierlich den Status der Container und übergibt diese Informationen wiederum an den Kubernetes Master. Stellt dieser fest, dass einzelne Container nicht wie gewünscht funktionieren oder überhaupt nicht reagieren, kann Kubernetes diese Images selbstständig stoppen und neu starten oder ersetzen. Das System besitzt daher gewissermaßen Selbstheilungskräfte. Kubernetes trägt aktuell stark dazu bei, die bisherigen monolithischen Systeme durch Container-Cluster zu ersetzen. Es gibt Entwicklern, Administratoren und Cloud-Betreibern eine neue Flexibilität und sorgt dafür, dass Funktionen, Services und Fixes schneller ausgerollt und Anwendungen automatisiert bereitgestellt werden können. Nicht zuletzt deshalb hat Kubernetes bei der jährlichen Open Source Conference (OSCON) von O’Reilly vor wenigen Wochen den Preis in der Kategorie „Größte Auswirkung“ auf die Software-Entwicklung gewonnen.   Weitere Infos zu Docker und Kubernetes: Blogbeitrag: Wie Docker die Bereitstellung von Anwendungen vereinfacht​ Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.   Bilder/Grafiken: Oracle, freecodecamp.org, Wikipedia, mesos.apache.org

Nach der Veröffentlichung von Docker im Jahr 2013 wurde sehr schnell klar, welches Potenzial die Containerisierung von Anwendungen besitzt. Vor allem die Betreiber von Rechenzentren und die...

Cloud Basics

Database as a Service (DBaaS): Der smarte Service einer Cloud-Datenbank

Datenbanken sind das digitale Rückgrat eines Unternehmens. Vom E-Mail-Server bis zum Big-Data-Speicher greifen unzählige Anwendungen immer wieder auf Datenbanken zurück. Cloudbasierte Softwarelösungen – zu denen auch Datenbanken gehören – nutzt heute schon etwa jedes zweite Unternehmen. IT-Verantwortliche müssen bedarfsgerecht entscheiden, welche Bestandteile der IT-Landschaft in die Cloud ausgelagert werden sollen. Das gilt wiederum besonders für Datenbanken. Wir zeigen Ihnen in diesem Beitrag, warum Datenbanken sinnvollerweise in der Cloud betrieben werden und was es dabei zu beachten gilt. Was ist Database as a Service (DBaaS)?   Bei Database as a Service als einem der Services der Cloud Technologie geht es um die Speicherung und das Management von strukturierten Daten. DBaaS ist also ein sogenannter gemanagter Service. Dieser Service stellt den Zugang zu einer oder mehreren Datenbanken über ein Netzwerk zur Verfügung. Außerdem stellt DBaaS meist noch weitere Funktionen bereit, z. B. zum Datenbank-Monitoring, zur Datensicherung sowie zur Datenanalyse. Zum Einsatz kommen in aller Regel relationale Datenbanksysteme wie MySQL von Oracle.   Die Vorteile: Warum Datenbanken in der Cloud? Was ist, wenn Datenbankverwaltung und -speicherung zum Problem werden? WennIT-Manager eines Unternehmens rätseln, worunter die Zuverlässigkeit und Sicherheit des Gesamtsystems leidet? Überforderung wird im laufenden Betrieb oft erst spät entdeckt. Datenbankserver zu administrieren, zu warten und abzusichern, ist anspruchsvoll und zeitraubend. Das dafür erforderliche Know-How muss durch entsprechende Schulungsmaßnahmen zugekauft werden. Hinzu kommen Sicherheitsfragen: Daten, die verloren gehen oder in die falschen Hände geraten, können die Existenz eines Unternehmens bedrohen. Hier bietet DBaaS eine große Unterstützung. Liegt das gesamte Datenbank-Management in der Hand erfahrener DBaaS-Provider, bedeutet das hohe Sicherheit und qualitativ hochwertiges Datenmanagement. Der große Vorteil dabei: Die datenverarbeitenden Anwendungen bleiben dieselben – nur greifen sie nicht mehr auf firmeneigene Datenbankserver zu, sondern auf gehostete Datenquellen in der Cloud, wo sie über passende Schnittstellen in einem oder mehreren gut abgesicherten Rechenzentren zur Verfügung gestellt werden. Database as a Service verändert Märkte und schafft Chancen Von 1 Milliarde US-Dollar im Jahr 2014 auf bald 14 Milliarden: DBaaS ist ein Zukunftsmarkt mit großem Potenzial. Der weltweite Jahresumsatz mit Produkten und Services rund um DBaaS geht laut "MarketsandMarkets" im kommenden Jahr durch die Decke. Die Zahlen des renommierten Marktforschungsunternehmens machen plausibel, dass immer mehr Softwareanbieter auf DBaaS setzen: Oracle bietet bereits seit Herbst 2013 sein bewährtes Datenbanksystem auch als Cloudservice an. Zwar hegen skeptische oder besorgte IT-Administratoren Zweifel, ob die komplette Auslagerung aller Datenbestände in die Cloud Sinn hat. Hier schaffen allerdings Hybrid-Lösungen Vertrauen. Dabei betreibt das Unternehmen weiterhin eigene MySQL-Server, nutzt aber parallel dazu eine cloudbasierte SQL-Implementierung. Auch bei diesem Modell wird die IT-Infrastruktur bereits zum Teil entlastet. Doch eigentlich gibt es keine plausiblen Gründe mehr, die komplexen Datenspeicher im eigenen Haus zu betreiben und zu unterhalten. Zum Beispiel DSGVO-Compliance: Bei der Auswahl des Cloudanbieters kann selbstverständlich berücksichtigt werden, dass sich die Cloudserver auf deutschem oder zumindest auf europäischem Boden befinden. Damit ist der EU-weit geltenden Datenschutz-Grundverordnung Genüge getan, weil dann gewährleistet sein sollte, dass der Provider die gesetzlichen Vorgaben einhält und erfüllt. 5 Vorteile von Database as a Service Insbesondere größeren Unternehmen bietet Cloud Computing die Möglichkeit der Storage-Konsolidierung, da die Datenbanken aus mehreren Abteilungen auf einem einzigen cloudbasierten Datenbanksystem zusammengefasst werden können. Weitere wesentliche Vorteile: Kostenersparnis– Durch die Bereitstellung des DBaaS-Providers entfallen die Betriebskosten von Servern und Speichersystemen. Der Zugriff auf die Speicherkapazitäten erfolgt über verschlüsselte Internetanbindungen; berechnet werden nur tatsächlich erbrachte Leistungen im Pay-per-Use-Verfahren. Niedriger Administrationsaufwand– Der DBaaS-Dienstleister sorgt für das Patch- und Update-Management sowie für die Datensicherungen an mehreren redundanten Speicherorten. Der Kunde muss sich nicht mehr um Pflege, Wartung und Aktualisierung der Datenbank-Infrastruktur kümmern. Skalierbarkeit– Die DBaaS-Provider bieten Datenbankserver in unterschiedlichen Größen für alle erdenklichen Leistungsanforderungen an. Der Kunde kann auswählen zwischen günstigen Standard-Speichersystemen oder hochperformanten SSD-Datenträgern für leistungsfähige Datenbank-Anwendungen. Prozessorleistung und Speicherressourcen sind mit wenigen Arbeitsschritten frei skalierbar und können schnell an höhere Anforderungen angepasst werden. Erhöhte Agilität– DBaaS-Systeme lassen sich mit einfachen Mitteln mit PaaS-Lösungen kombinieren. So können neu entwickelte Business-Anwendungen einfach getestet und umgehend bereitgestellt werden. Zuverlässigkeit– Kontinuierliche Verfügbarkeit der Datenbanksysteme ist die Grundvoraussetzung für zufriedene DBaaS-Kunden. Schon allein deshalb legen DBaaS-Anbieter hohen Wert auf proaktives Monitoring mit automatisierter Ausfallserkennung sowie ständige Datenbank-Backups – bei Bedarf findet sofort ein Austausch von defekter Datenträger-Hardware statt. Außerdem achten DBaaS-Provider auf höchste Zuverlässigkeit der Internet-Anbindung. Risiken – worauf bei DBaaS zu achten ist Trotz aller Hochverfügbarkeits- und Sicherheitsaspekte, für die DBaaS-Anbieter sich verbürgen, lassen sich Restrisiken für den Kunden nie ganz ausschließen – jedoch auf weitaus niedrigerem Niveau als beim Eigenbetrieb von Datenbankspeicher- und Managementsystemen. Einige Nachteile sollen jedoch auch nicht übersehen werden. So kannder webbasierte Datenbankzugriff auf ein entfernt liegendes Rechenzentrum zu erhöhten Latenzzeiten führen. Dadurch verlieren die Anwender eventuell an Performance im Vergleich zu eigengehosteten Datenbanksystemen. Und dass unternehmenskritische Daten nicht mehr im eigenen Haus, sondern auf fremder Infrastruktur gelagert sind, ist auch eine Quelle gewisser Bedenken. Providerabhängig können sich die Daten auch in Rechenzentren im Ausland befinden. Hier gilt es, beim Vertragsabschluss Wert auf die Einhaltung strenger Datenschutzrichtlinien und Compliance-Vorgaben zu achten. Fazit Inhouse-Datenbanksysteme zu betreiben, ist ökonomisch kaum noch sinnvoll. Insbesondere im Business-Umfeld überwiegen die Vorteile eines ausgelagerten Managements von SQL-Datenbanken. Es ist in jedem Falle eine Überlegung wert, den Umgang mit großen Datenmengen echten DBaaS-Profis zu überlassen. Hier zählt die Erfahrung, die auch zu einem hohen Sicherheitsstandard beiträgt. Datenbank-Services für jeden nur denkbaren Einsatzzweck stehen in der Oracle-Cloud zur Verfügung – angefangen von günstigen "Einsteigerlösungen" wie dem Schema-Service oder dem Exadata-Express-Service über flexibel einsetzbare und anpassbare Standard-DBaaS-Services mit unterschiedlichen Datenbank-Optionen bis hin zur exklusiv nutzbaren Lösung, die auf einer Oracle Exadata basiert und deren Ressourcen sich der Kunde nicht mit anderen Nutzern teilen muss.   Testen Sie Cloud-Computing doch einfach einmal selbst: Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Datenbanken sind das digitale Rückgrat eines Unternehmens. Vom E-Mail-Server bis zum Big-Data-Speicher greifen unzählige Anwendungen immer wieder auf Datenbanken zurück. Cloudbasierte Softwarelösungen...

Business Analytics

Analytics Cloud & Data Visualization: Schaffen Sie die Golfmeisterschaft mit Ihren Daten?

Sind die 18 Löcher Ihr Ein und Alles? Oder ist Ihnen Golf egal? Das ist in diesem Fall, genau: egal! Es geht nur um ein spannendes Experiment am Beispiel Golf, das Sie am Schluss sinngemäß auf Ihr Business übertragen können. Auf das Marketing, die Produktentwicklung, Ihr ERP… – alles, wo es darauf ankommt, vorhandene Daten richtig zu analysieren undso zu präsentieren, dass Entscheider in allen Bereichen rasch und überzeugend handlungsleitende Erkenntnisse daraus gewinnen können. Überall gibt es Fragen von der Art: Wie sind meine Verkäufe? Hat dieser Marketingplan funktioniert? Werde ich mehr Leute einstellen können? All das kann durch Analysen beantwortet werden. Auf einen Blick: Analytics Cloud & Data Visualization   Ein Spannendes Beispiel für Cloud Services: Analytics und Datenvisualisierung im Test für komplexe Entscheidungen in Unternehmen – am Beispiel der Golfmeisterschaft „British Open“. Daten aus 10 Jahren filtern die aussichtsreichsten Spieler hinaus.   Wir machen also Analytics und Visualisierung mit Golfdaten, und zwar von den legendären British Open. Lassen Sie sich überraschen! Wir lassen die Daten über die Oracle Analytics Cloud laufen, um wertvolle Erkenntnisse zu gewinnen und mit herausgeforderten Business-Managern einige Übungsschwünge mit unserem Analysetool zu machen. Schauplatz: Carnoustie Golf Links im schottischen Angus. Die British Open sind in der Tat der Ort, wo alles begann. Das Original. Und die Trophäe, der Claret Jug, dürfte die kultigste von allen sein. Die Finalrunde zu sehen, ist für mich und die ganze Familie Tradition. Außerdem macht es mir ein großes Vergnügen, mir mein Phantasie-Team für dieses Event auszudenken und zuzusehen, wie meine Favoriten sich quasi die Seele aus dem Leib spielen! Aber wen soll ich auswählen? Wer war bisher bei den British Open am erfolgreichsten? Und wer macht's diesmal? Handicaps … und noch ganz andere Zahlen Als Zahlenfreak halte ich mich natürlich an Statistiken, Metriken und Daten, um zu tragfähigen Entscheidungen zu kommen. Diesmal habe ich frühere Ranglisten im Fokus. Davon ausgehend erstelle ich eine Tabelle der Spieler, die in Carnoustie erwartet werden. Diese ersten Informationen habe ich in die Oracle Analytics Cloud hochgeladen und mit der Erstellung einiger Datenvisualisierungen begonnen. Als erstes möchte ich wissen, welche Spieler in den letzten zehn Jahren den größten Erfolg hatten. Das ist wichtig, denn wenn ein Spieler an diesem Wochenende nicht dabei ist, kann er natürlich auch nichts zum Score meines Phantasie-Teams beitragen. Nachdem ich meine Tabelle in die Oracle Analytics Cloud hochgeladen habe, verwende ich die Filterfunktion, um nur die erste und zweite Spalte anzuzeigen. Ein wichtiger Punkt dabei: Da meine Tabelle Rohdaten von der Website der British Open verwendet, musste ich die Bezeichnungen für Situationen wie eine Disqualifikation durch einen numerischen Wert ersetzen. Zum Beispiel habe ich "M/C" (missed cut) durch die Zahl 73 ersetzt, da nur die besten 72 sowie Unentschieden-Ergebnisse den „Cut“, also den Sprung in die Endrunden, schaffen. Als nächstes möchte ich sehen, wer im Durchschnitt der letzten zehn Jahre die besten Ergebnisse erzielt hat. Das ist deshalb entscheidend, weil Punkte für mein Phantasie-Team direkt damit zusammenhängen, wie gut ein Golfer spielt. Mit demselben Datensatz in der Oracle Analytics Cloud konzentriere ich mich einfach auf die besten Finisher. Abschließend möchte ich einkreisen, wer die Besten unter den Besten sind. Das heißt also, die Spieler, die in jeder Runde durchschnittlich 72 oder weniger schaffen, zusammen mit der Gesamtzahl der in den letzten zehn Jahren erreichten Strokes. Diese Daten sind in Tabellenkalkulationen nicht ohne weiteres herauszufischen, weil sie auf mehreren Filterungen und dann noch auf einer Aggregierung aus mehreren Datenpunkten beruhen. Sicher ist, dass solche Spieler die sprichwörtliche Nadel im Heuhaufen darstellen. Ein klarer Kandidat für die Oracle Analytics Cloud also … Diese kleine exemplarische Vorführung lässt deutlich erahnen, dass Sie mit der Datenvisualisierung schnell fundierte Entscheidungen treffen können! Genau darin besteht der Wert der Oracle Analytics Cloud: tiefgreifende Erkenntnisse, die Sie sehr einfach und schnell erhalten. Probieren Sie die oben angeführte Tabelle aus, um zu merken, wie einfach Datenvisualisierung sein kann. Hier ein Link zum Herunterladen der Software. Oder melden Sie sich für eine Testversion der Oracle Autonomous Analytics Cloud an. Oracle Analytics-Kunden, die Data Visualization verwenden, sollten die Oracle Analytics-Bibliothek besuchen und Beispieldateien herunterladen, um ihre Analysen auf ein neues Level zu heben. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Cesar Ortiz, Principal Solution Consultant.

Sind die 18 Löcher Ihr Ein und Alles? Oder ist Ihnen Golf egal? Das ist in diesem Fall, genau: egal! Es geht nur um ein spannendes Experiment am Beispiel Golf, das Sie am Schluss sinngemäß auf...

Cloud Technik

Wie Docker die Bereitstellung von Anwendungen vereinfacht

Sowohl bei Public wie auch bei Private Clouds, und insbesondere bei Hybrid Clouds, kommt es darauf an, Anwendungen möglichst schnell und flexibel bereitstellen zu können. Die traditionelle Software-Installation ist jedoch zu schwerfällig, um diese Anforderung zu erfüllen, denn der Wechsel von einer Installation zur anderen muss innerhalb weniger Minuten oder sogar Sekunden möglich sein. Idealerweise sollten sich Applikationen ebenso wie einzelne Dateien duplizieren, verschieben, öffnen beziehungsweise starten und auch wieder löschen lassen. Was ist Docker?   Docker hat sich in den vergangenen Jahren zu einer der wichtigsten Technologien im Cloud-Umfeld entwickelt. Die Software ermöglicht das Verpacken von einzelnen Anwendungen inklusive aller ihrer Abhängigkeiten in Containern, die sich in beliebiger Zahl starten und in Form von Images einfach kopieren lassen.   Genau das ermöglicht die Open-Source-Software Docker des gleichnamigen, in Kalifornien beheimateten Unternehmens. Mit ihr lassen sich Images von Anwendungen mitsamt allen Abhängigkeiten wie Bibliotheken, Hilfsprogrammen, statischen Daten, Laufzeitumgebungen und eigener Code in einen Container verpacken. Die Container-Technik ermöglicht es, Applikationen problemlos von einem Host zum anderen zu bewegen. Das erleichtert vor allem Rechenzentren und Cloud-Providern die Arbeit, da sie ihre Anwender und Kunden schnell und unkompliziert mit der Laufzeitumgebung versorgen können. Aber auch Entwickler greifen gern zu Docker, um Anwendungen in verschiedenen Umgebungen früher zu entwicklen, testen und betreiben. Einfache Bereitstellung von Anwendungen Docker-Container liegen als Image-Dateien vor, die sich ruckzuck kopieren lassen. Diese lassen sich ohne zeitraubende Installation starten. Aus einem Image können beliebig viele Container entstehen, da Schreibzugriffe sich nicht auf das Image selbst, sondern auf ein eigenes Dateisystem auswirken. Docker ist hochgradig skalierbar, was ebenfalls die Datacenter und Provider freut. Wird eine bestimmte Applikation plötzlich verstärkt nachgefragt, lassen sie aus dem vorhandenen Image einfach weitere Container erzeugen. Und sobald sie nicht mehr benötigt werden, können die Container einfach gestoppt oder wieder gelöscht werden. Unterschied zwischen Docker und Virtualisierung Wie lässt sich Docker nun von der Virtualisierung etwa mit VMware oder Hyper-V abgrenzen? Der Unterschied zwischen einem Docker-Container und einer virtuellen Maschine ist, dass der Container lediglich die Anwendung und die von ihr benötigten Module enthält, während die virtuelle Maschine auch ein Betriebssystem umfasst. Container sind daher kleiner und leichtgewichtiger, man könnte die Containerisierung auch als "Virtualisierung lite" bezeichnen. Der Nachteil: Wenn mehrere Container auf dem gleichen Betriebssystem-Host laufen, sind sie nicht so stark voneinander abgeschirmt wie virtuelle Maschinen. Docker basiert auf verschiedenen Linux-Funktionen wie Cgroups und Namespaces und wird üblicherweise auf der Kommandozeile ausgeführt. Linux ist auch die am häufigsten genutzte Betriebssystem-Plattform für Docker. Die Software kann allerdings mittels Hyper-V auch auf Windows und mit Oracle VirtualBox zusätzlich auch auf Mac OS X ausgeführt werden. In der Community Edition ist die Software als Open Source kostenlos und läuft unter einer Apache-Lizenz. Daneben bietet der Hersteller eine kostenpflichtige Enterprise Edition an, die zusätzlich Support und Zertifizierungen umfasst. Der Bau eines Docker-Images ist eine anspruchsvolle Aufgabe und erfordert eine intensive Beschäftigung mit der Software. Docker hat daher einen Hub eingerichtet, wo man sich aus zigtausenden von vorgefertigten Images bedienen kann.   Weitere Infos zu Docker und Kubernetes: Blogbeitrag: Wie Kubernetes den Einsatz von Containern automatisiert   Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.   Bilder/Grafiken: Oracle, freecodecamp.org, Wikipedia, mesos.apache.org

Sowohl bei Public wie auch bei Private Clouds, und insbesondere bei Hybrid Clouds, kommt es darauf an, Anwendungen möglichst schnell und flexibel bereitstellen zu können. Die...

Cloud Technik

Trend-Check: Sind Ihre Skills als IT-Entwickler noch up-to-date?

Eine ganze Reihe heißer Softwaretrends wurden zum Jahreswechsel für 2018 prognostiziert. Eine besonders interessante Liste mit 10 aktuellen Trends hatte im Januar Siddhartha Agarwal, Vice President bei Oracle Cloud Plattform für Product Management und Strategie, zusammengestellt, speziell für Entwicklung und Einsatz von Software in diesem Jahr.   Auf einen Blick: Trend-Check IT-Entwickler Skills   Blockchain jetzt auch in der Produktion Chatbots kommunizieren ganz selbstverständlich Künstliche Intelligenz statt Button anklicken Maschinelles Lernen übernimmt fachspezifische Aufgaben Aus DevOps wird NoOps Open source as a service (OpenSaaS) beschleunigt Innovationen Serverless-Architekturen sind im Kommen Container werden Standard Software und Systeme reparieren, tunen und managen sich selbst Automatisierte Sicherheits- und Compliance-Mechanismen   Sie als IT-Entwickler müssen wissen, wie Sie ihre Kenntnisse erweitern und Ihre Karriere ausbauen können – und das angesichts  stetig wachsenden Drucks, Anwendungen immer schneller und effizienter zu entwickeln, zugleich aber ohne Abstriche bei Sicherheit und Performance. Für Sie bieten diese 10 Trends heute, in der Mitte des Jahres, wertvolle Benchmarks: Sie können anhand aktueller Daten prüfen, was auf Sie als Entwickler zukommt, wenn Sie innovative Technologie einsetzen möchten, um neue Geschäftsprozesse zu realisieren. B2B Transaktionen, die die Blockchain nutzen, jetzt auch im Bereich Produktion! Im Finanzsektor und in Produktions-Lieferketten haben Entwickler 2018 zahlreiche Blockchain-Anwendungen implementiert. Die bekanntesten sind noch immer die Kryptowährungen. Die gesamte Finanzdienstleistungsbranche setzt mittlerweile auf die Blockchain-Technologie – und das, obwohl Bitcoin seit Jahresbeginn Verluste hinnehmen musste. Aber immerhin beträgt sein aktueller Wert noch immer mehr als das Dreifache des Vergleichswertes aus dem Vorjahr. Die neuesten Anwendungen aus dem Finanzbereich werden pausenlos auf Konferenzen weltweit diskutiert und analysiert. Diese Anwendungen treiben voll funktionsfähige Blockchain-Projekte voran, die die Finanzdienstleistungsbranche wirklich grundlegend verändern. Das Potenzial der Blockchain-Technologie als universelles Betriebssystem zeigt sich auch im Bereich des Supply Chain Managements immer deutlicher. Anderes Beispiel, gleiche Dynamik: ImTourismus wurden bereits erste Blockchain-Anwendungen getestet, so von SITA, Amadeus und Lufthansa. Es fehlt – wie häufig bei neuen Technologien – nur noch am erforderlichen Know-how, um das volle Potenzial dieser Technologie zu erschließen. Chatbots kommunizieren ganz selbstverständlich mit Kunden und Personal. Chatbots tummeln sich in immer mehr Bereichen. Bis 2025 wird ein durchschnittliches jährliches Wachstum dieses Marktes um 27 % prognostiziert. Zwar leiden Chatbots noch immer unter dem schlechten Ruf, Antworten von der Stange auf jede Frage auszuspucken, und die meisten Kunden ziehen die Interaktion mit einem Menschen vor – obwohl die Fähigkeiten dieser Apps längst die holprigen Anfänge hinter sich gelassen haben. Aber jedenfalls wird weiter in ihr Potenzial investiert, personalisierte Interaktionen mit Menschen zu bewältigen. Heute erteilen sie zum Beispiel bereits Auskünfte im Erstkontakt mit Bewerbern auf Stellenausschreibungen und führen Interviews. Künstliche Intelligenz statt Button anklicken: AI wird Schnittstelle zwischen App und Benutzer. Das synchrone Request-/Response-Modell zur Bedienung von Apps und Services geht unweigerlich seinem Ende entgegen. Stattdessen wissen intelligente Apps, was, wann, warum, wo und wie der Mensch am Bildschirm will. Dementsprechend legen sie mit den entsprechenden Interaktionen los. User Experience Communities erwarten übereinstimmend, dass herkömmliche Benutzerschnittstellen irgendwann vollständig von der Bild(schirm)fläche verschwinden. Sie sind darauf eingestellt, dass Texteingaben und Klicks durch künstliche Intelligenz aus dem User-Repertoire verschwinden und dass sich Computer organisch und nahtlos in unser Leben integrieren werden. Beim derzeitigen Stand der Entwicklung gilt allerdings noch die frühere Empfehlung von Oracle: Sie als Entwickler müssen verstehen, welche Daten wirklich wichtig für Ihre Business-Anwendungen sind und welche geschäftlichen Entscheidungen am meisten von proaktiver künstlicher Intelligenz profitieren würden. – Und dann müssen Sie beginnen, damit zu experimentieren. Maschinelles Lernen übernimmt praktische fachspezifische Aufgaben. Bei maschinellem Lernen (ML) kommt es immer auf den Kontext an. Für die Effizienz ist bei ML daher Abstimmung und Training in einer fachspezifischen Umgebung ausschlaggebend. Sie als Entwickler müssen also mehr über fachspezifische Use Cases wissen, um zu entscheiden, welche Daten Sie brauchen, welche ML-Algorithmen Sie nutzen können und welche Fragen Sie stellen müssen. Dass diese Prognose zutrifft, zeigt sich schon jetzt immer deutlicher. ML wird bereits in Dutzenden, überraschend unterschiedlichen Anwendungsfeldern genutzt, Tendenz steigend. Alles deutet darauf hin, dass sich 2018 die Zahl der ML-Installationen im Vergleich zum Vorjahr verdoppelt. Aus DevOps wird NoOps. IT-Verantwortliche machen Druck. Sie als Entwickler sollen Innovationen immer schneller liefern. Konsequenz: Das DevOps-Modell muss mehr Zeit für Entwickler bereitstellen, die heute 60 % ihrer Zeit in den Systembetrieb stecken. Daher fordern Entwickler 2018 zunehmend Cloud-Services. Denn die ermöglichen es ihnen, den Schwerpunkt ihrer Arbeit wieder auf ihre eigentliche Domäne, die Entwicklung zu legen. Das Pendel schwingt offensichtlich zurück: Ein aktueller Gartner-Report prognostiziert für 2018, dass der weltweite Markt für Cloud Application Infrastruktur Services (PaaS) von 26% auf 15 Milliarden Dollar steigt, bis 2021 sogar auf über 27 Milliarden. Beschleunigte Innovationen im Open Source Bereich durch Open source as a service (OpenSaaS). Die Implementierung und Pflege ist bei innovativen Open Source Systemen wie Kafka, Kubernetes oder Cassandra oft zu komplex. Entwickler bevorzugen daher Cloud Services, die die kurzen Innovationszyklen von Open Source bieten und zusätzlich die Systeme betreiben und managen. Mittlerweile entwickelt sich Open Source sehr schnell zum Standard bei Enterprise-Software. Gartner erwartet, dass 2018 70 % aller neuen Anwendungen auf Open Source laufen werden. Und immer mehr OpenSaaS-Anbieter können die Nachfrage nach schnellen, problemlosen Innovationen zu minimierten Kosten befriedigen. Der Bedarf entsteht zunehmend auch im öffentlichen Sektor. Für Andrew Hoppin, früherer CIO des Senats des US-Bundesstaates New York, ist OpenSaaS „die Zukunft der Innovation in der öffentlichen Verwaltung“. Großes Kino in der Produktion mit Serverless-Architekturen Das Aneinanderreihen von Serverless-Funktionen zur Durchführung komplexer Transaktionen schafft für Sie als Entwickler rasant neue Herausforderungen. Cloud Services und Open Source Tools helfen Ihnen wirkungsvoll, etwa bei der einfachen Programmierung und Verbindung, beim Debugging, beim Lifecycle Management von Serverless Funktionen und bei Installationen und Tests in beliebigen Umgebungen. Entscheidend ist dabei die Wahl einer Serverless-Plattform mit maximaler Portabilität. Es hat wichtige Neuerungen in der Serverless Landschaft gegeben, z. B. das Fn Project. Serverless Services und unser Verständnis, wie wir sie einsetzen können, sind eindeutig den Kinderschuhen entwachsen. Einige Experten sehen sie jetzt im Teenager-Alter– das heißt, die spannendsten Fortschritte liegen vor uns. Die einzig offene Frage zu Containern wird sein: „Warum nicht?“ Container als Entwicklungs- und Testumgebung werden Standard und alltägliche Lösung für produktive Anwendungen. Eine aktuelle Untersuchung legt nahe, dass sich dieser Trend mit deutlich mehr Know-how bei den IT-Serviceprovidern fortsetzt – und von denen sagt die Hälfte, dass treibende Kraft für die Einführung von Containern die Nachfrage von Endkunden ist. Zugleich bleibt der Erwerb ausreichender Kenntnisse und Fähigkeiten eine Herausforderung: 74 % der befragten Provider orten Qualifikationsdefizite als Hindernis. Und trotzdem explodiert der Markt für Container-Anwendungen! Das Technologie-Marktforschungsunternehmen 451 Research schätzt, dass „2018 1,6 Milliarden USD für Container ausgegeben werden und der Markt bis 2022 um durchschnittlich 31 % pro Jahr wächst.“ Software und Systeme werden sich selbst reparieren, tunen und managen. Cloud-basierte Systemmanagement-Services werden große Datenmengen miteinander verbinden (Logs, Performance-Metriken, User Experience, Konfiguration etc.), sie werden viel Rechenkapazität aufwenden und maschinelles Lernen nutzen. Damit wird das Monitoring von Systemen einfacher, Entwickler werden bei Anomalien automatisch alarmiert, und die Ursachen von Problemen bei spezifischen Transaktionen lassen sich genau lokalisieren. Bei der Programmierung ihrer Anwendungen müssen Sie sich als Entwickler überlegen, wie Sie diese Automatisierung nutzen können. Das Interesse an diesem Bereich wächst ebenso wie die diesbezügliche Expertise. Das zeigten jüngst das 13th International Symposium on Software Engineering for Adaptive and Self-Managing Systems und die 40th International Conference on Software Engineering in Schweden. Hochautomatisierte Sicherheits- und Compliance-Mechanismen unterstützen Entwickler bei der Arbeit. Die Einführung umfassender, ML-basierter und als SaaS bereitgestellter Sicherheits- und Compliance-Systeme flankiert das hohe Entwicklungstempo. Die kontinuierliche Überwachung der Compliance entsprechend den Vorgaben der DSGVO und vergleichbarer Regelungen wird solche automatischen Sicherungseinrichtungen in einigen Fällen auch zwingend vorschreiben. Die DSGVO, die seit dem 25. Mai des Jahres in Kraft ist, verursacht Kopfschmerzen bei vielen Entwicklern, Datenschutzverantwortlichen und Compliance-Experten in allen Branchen – nicht zuletzt auch in der IT Security. Entwickler müssen deshalb ihren Teil der Verantwortung übernehmen und weiterhin automatisierte Sicherheits-Technologien nutzen. Fazit: Es gibt seit Jahresbeginn alles in allem zahlreiche spannende Fortschritte in der Softwareentwicklung. Sie vorauszusehen, war eigentlich keine Hexerei. Jedenfalls: Wenn Sie als Implementierer von Oracle Technologien die aktuellen Software-Trends weiter beobachten und auf regelmäßige Updates Ihrer Oracle Development Skills achten, sind Sie auch zukünftig stets umfassend auf neue Herausforderungen vorbereitet.   Kontakt Gerne unterhalte ich mich auch mit Ihnen darüber, per E-Mail oder LinkedIn. Ottmar Kugelmann, Senior Director Oracle University - Cloud, EMEA

Eine ganze Reihe heißer Softwaretrends wurden zum Jahreswechsel für 2018 prognostiziert. Eine besonders interessante Liste mit 10 aktuellen Trends hatte im Januar Siddhartha Agarwal, Vice President...

Cloud Basics

Cloud Integration im Unternehmen - die Checkliste für Ihre IT-Zukunft

Worauf kommt es an, wenn Ihre Unternehmens-IT mit Cloud-Technologie fit für die Zukunft werden soll? Die richtige Integration von Cloud-Lösungen ist eine erfolgskritische Entscheidung. Denn Cloud-Lösungen, die mehr Effizienz, Flexibilität, Schnelligkeit, Kostensenkungen und weitere zentrale Anforderungen bringen, müssen dazu auf die Anforderungen Ihres Unternehmens abgestimmt sein – und sich mit Ihnen weiter entwickeln können. Hier finden Sie Kriterien für die Auswahl, mit denen Ihre Cloud Integration gezielt gelingen kann. Was ist Cloud Integration?   Bei Cloud Integration geht es um die durchdachte Eingliederung von Cloud-Technologie in die IT-Architektur einer Organisation. Cloud Integration bedeutet sowohl den Prozess  von der Einbeziehung von Cloud-Services in die IT-Strategie über Planungen und Entscheidungen hinsichtlich der Umsetzung dieser Strategie bis hin zur Implementierung. Integration ist dabei als mehr oder weniger wechselseitiger Vorgang zu verstehen: On-Premise-Lösungen und Cloud-Lösungen werden oft eher miteinander verflochten, als dass „die Cloud“ einfach in die Unternehmens-IT integriert würde. Art und Umfang der Cloud Integration richten sich idealerweise nach den Anforderungen, die sich aus den Unternehmenszielen ergeben.   Ziele und Wege für Ihre Cloud-Integration Die rasanten Fortschritte bei der Entwicklung des State of the Art Cloud Computings motiviert immer mehr Unternehmen, die optimale Strategie zu suchen. Während einige IT-Entscheider die Cloud zunächst firmenintern einsetzen, verlagern andere zum Beispiel ihre Speichersysteme in die Public Cloud oder geben ihre Services in die Hand von SaaS-Anbietern (Software as a Service). Softwareentwickler wiederum setzen auf frei skalierbare Public PaaS Dienste, mit denen sie neue Produkte entwickeln und ausführen können – und zwar ohne dass sie dabei entsprechende Entwicklungssysteme im eigenen Haus betreiben und administrieren müssen. Welche Bereitstellungsmodelle auch immer Sie für Ihre Cloud Integration wählen (IaaS, PaaS oder SaaS) – Überlegungen zur IT-Architektur müssen Sie bei der Einrichtung von cloudbasierten Umgebungen als erstes berücksichtigen. Im Detail sorgt dann der Austausch von Daten mit Cloud-Systemen bei vielen IT-Verantwortlichen grundsätzlich erst einmal für Kopfzerbrechen. Deshalb ist Cloud Computing Vertrauenssache. Die folgende Checkliste soll Ihnen bei den konkreten Entscheidungen Kriterien an die Hand geben, damit Ihre neue Cloud-Lösung stabil läuft und für zukünftige Bedarfe skalierbar und interoperabel ist. 6 ultimative Kriterien für die Cloud Integration Sicherheit: Auf Ebenen wie Verschlüsselungstechniken oder Abwehr von Hackerangriffen steht Sicherheit bei der Cloud Integration ganz oben auf der To-do-Liste. Denn persönliche Daten oder sensible Unternehmensinformationen dürfen ja keinesfalls in falsche Hände geraten. Inzwischen können Sie aber davon ausgehen, dass nahezu alle Cloud-Anbieter hochsichere Daten- und Hostingzentren unterhalten, in denen ein weitaus höheres Sicherheitslevel als bei firmeneigenen On-Premise-Servern gewährleistet ist. Die Furcht vor möglichem Datenverlust verliert durch qualifizierte Schulungen der IT-Mitarbeiter seitens des Cloud-Anbieters ebenfalls ihre Berechtigung. Achten Sie jedenfalls bei der Auswahl Ihres Cloud-Providers auf folgende Sicherheitsstandards: •      Hohe Systemverfügbarkeit: Die Ausfallzeiten des Cloud-Rechenzentrums sollten so niedrig wie möglich liegen. •      Verschlüsselungstechnologien wie SSL (Socket Secure Layers), SAML (Security Assertion Markup Language), Authentifizierungssysteme und Single-Sign-On (SSO) sollten Standard sein. ​•      Qualifizierte Zugriffssteuerungssysteme sind insbesondere dann wichtig, wenn Sie Ihre Cloud-Ressourcen mit anderen Anwendern teilen müssen.   Interoperabilität: Hier geht es um die Reibungslosigkeit der Prozesse beim Informationsaustausch mit der Cloud. Bei der Integration in die Cloud gilt es zu beachten, dass Unternehmensdaten geschäfts-, daten- oder prozessorientiert sein können. Damit zusammenhängende Vorgänge laufen in der Regel automatisiert ab. Wenn diese Daten auf unterschiedlichen Cloud-Systemen miteinander interagieren sollen (Multi-Cloud), so müssen passende Schnittstellen, sogenannte APIs (Application Programming Interfaces), vorhanden sein. Solche APIs stellen die Informationskanäle bereit – sowohl innerhalb verschiedener Cloud-Datenquellen als auch bei der Informationsbeschaffung und -verarbeitung beim Endanwender. Hier kommen häufig so genannte Web Services zum Einsatz, die dem User die Darstellung der Daten im Browser ermöglichen. Des Weiteren ist SOA (Service Oriented Architecture) ein weiterer gängiger Industriestandard zum technologie- und plattformübergreifenden Austausch von Daten.   Presentation Layer: Gerade beim Einsatz von mehreren Cloud-Anbietern in Multi-Cloud-Umgebungen steht der Endanwender vor dem Problem, sich mit unterschiedlichen Benutzeroberflächen auseinandersetzen zu müssen. Vor allem gilt das beim Einsatz verschiedener SaaS-Provider. Das kann schnell einmal zeit- und somit kostenintensiv für das Unternehmen werden. Hier sind User Interfaces (UI) hilfreich, die dem Benutzer ein einheitliches "Look & Feel" bieten, das heißt: Alle relevanten Daten aus verschiedenen Quellen werden in einerOberfläche dargestellt. Entscheidende Vorteile solcher Uis sind Vereinfachung der Arbeitsumgebungen, Steigerung der Arbeitseffizienz des Users und nicht zuletzt die Vermeidung von Bedienungsfehlern. Eine solche Architektur ist jedoch nicht immer einfach umzusetzen. Passende APIs sind auch hier der zentrale Schlüssel zu optimalen Presentation Layers.   Suchfunktionen: Unternehmensweit verteilte Daten und Informationen zu katalogisieren, indizieren und freizugeben, ist immer wieder ein zentrales Thema bei der Cloud Integration. Doch was geschieht, wenn ein Cloud Service mal nicht verfügbar ist? Eine gute Lösung besteht darin, indizierte und durchsuchbare Inhalte über einen Remote-WebService anzubieten. Damit lässt sich über eine unternehmenseigene Suchmaschine der gesamte Cloud Content auf einer standardisierten Web-Oberfläche abrufbar machen. Umständliche Suchvorgänge des Anwenders in unterschiedlichen Datenquellen gibt es dann nicht mehr. Dieses Konzept wird auch als "Federated Search" (Verbundsuche) bezeichnet. Der User "sieht" nur eine einzige Such-Oberfläche und muss sich nicht mehr um die Herkunft der Datenquellen kümmern. Benutzerfreundlichkeit und Funktionalität: Bei der Zusammenarbeit mit mehreren Cloud Services gibt es weitere Herausforderung an die Cloud Integration. Hier spielen die Funktionalität der eingesetzten Software, Workflow-Funktionen und die Performance des Gesamtsystems eine wichtige Rolle. Die Frage ist: Wie können möglichst kurze System-Antwortzeiten gewährleistet werden – besonders wenn jedes Teilsystem der Cloud über eigene proprietäre Datenstandards verfügt? Ein systemübergreifender Workflow-Prozess kann sich für den End-User durchaus in unangenehmen Wartezeiten bemerkbar machen; also weg damit! Dazu sollte so etwas wie eine Master-Workflow-Engine im Angebot sein, die komplexe Arbeitsabläufe zentral steuert. Die Gesamtleistung und deren mögliche Engpässe sollten identifiziert und analysiert werden. Datenpakete, die im Ping-Pong-Prinzip zwischen Public Cloud, Private Cloud und internen On-Premise-Systemen hin und her springen, können nämlich zu ineffizienten Datenströmen und somit zu Wartezeiten führen. Auch Sicherheitssysteme wie Firewalls können unter Umständen dazu beitragen, dass cloud-übergreifende Datenflüsse ausgebremst oder sogar unterbunden werden.   Standards sind eine wichtige Voraussetzung für konsistente Datenflüsse. Dies ist vor allem dann wichtig, wenn unterschiedliche Technologien, Ansätze und Cloud-Provider in ein Gesamtsystem eingebunden sind. Es sollten gängige Standards wie WSRP (Web Services for Remote Portlets), SAML (Security Assertion Markup Language) und W3-webServices genutzt werden, um den problemlosen Datenaustausch zu vereinfachen. Standards sind ein essenzieller Bestandteil der Cloud Integration – gerade wenn Sie ein größeres Portfolio von Cloud-Anbietern im Einsatz haben werden. Fazit Bei der Cloud Integration sollten Sie sich unbedingt mit folgenden Herausforderungen auseinandersetzen: Off-Premise-Hosting, verteilte Standorte von Cloudanbietern, providerabhängige Standards und Technologien, Cross-Firewall-Integration sowie mögliche Performance-Probleme. Wenn Sie folgende Punkte beherzigen, dann sind Sie mit Ihrer geplanten Cloud Integration bereits auf einem guten Weg: •      Verfolgen Sie bei der Cloud Integration einen serviceorientierten Ansatz! •      Schließen Sie mit Ihren Cloudprovidern jeweils eigene Verträge für Management und Monitoring ab! •      Nutzen Sie Standards, wo immer es nur geht! •      Reduzieren Sie die Anzahl der Network-Hops auf ein notwendiges Maß! •      Verwenden Sie WebServices und Remote-APIs! •      Nutzen Sie die Workflow-Tools eines nativen Cloud-Anbieters und binden Sie bei Bedarf technologieübergreifende Prozesse ein!   Lesen Sie in der Studie „Was beim Wechsel in die Cloud zu erwarten ist“ warum sich der Wechsel in die Cloud auszahlt und laden Sie sich unseren kostenlosen Ratgeber "Der Intelligentere Weg Daten zu managen" herunter:   Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Worauf kommt es an, wenn Ihre Unternehmens-IT mit Cloud-Technologie fit für die Zukunft werden soll? Die richtige Integration von Cloud-Lösungen ist eine erfolgskritische Entscheidung. Denn...

Cloud Basics

FaaS - Function as a Service - Was Sie wissen sollten

Cloud Computing bietet für Großunternehmen inzwischen ebenso wie für Startups oder kleinere Organisationen interessante Möglichkeiten, um Services, Applikationen und Kapazitäten auszulagern. Damit lassen sich Entwicklungszeiten für Produkte (auch Apps) und Dienstleistungen verkürzen, Kosten sparen, umfangreichere Daten analysieren – kurz: Viele Bereiche der IT werden effizienter, schneller und kostengünstiger. Was ist Function as a Service (FaaS)?   Function as a Service ist eine Kategorie der Cloud Computing Services und liefert eine Plattform, auf der sich bestimmte Funktionalitäten von Anwendungen entwickeln, ausführen und verwalten lassen. Dabei entfällt der komplexe Aufwand, die Infrastruktur von Grund auf zu errichten und längerfristig zu betreiben. Wie andere Cloud Services wird auch FaaS angemietet; abgerechnet wird exakt nach Verbrauch und nach genutzter Infrastruktur.   Die bekanntesten Cloud Services beziehen sich auf Software (SaaS), Infrastruktur (IaaS) und Plattformen (PaaS). Eine weitere clevere Möglichkeit des Cloud Computings ist Function as a Service (FaaS). Bei dieser Kategorie des Cloud Computing erfolgt die Abrechnung exakt nach Verbrauch und genutzter Infrastruktur. Bei Nichtnutzung heruntergefahren werden und es entstehen keine Kosten mehr. Außerdem entfallen Aufwände für Instanziierung und Instandhaltung von Infrastruktur inklusive Räume, und das Personal wird entlastet. Die Wirtschaftlichkeit sollte jedoch stets je nach tatsächlichem Nutzen des FaaS-Systems beurteilt werden. Erwähnenswert ist, dass Applikations-Entwicklungen auf einer FaaS-Plattform nur eine der Möglichkeiten einer “Serverless”-Architektur darstellen. Function as a service vs platform as a service Anwendungshosting ist mit FaaS oder PaaS möglich. Hier sind die Unterschiede: Bei Platform as a Service (PaaS) ist der Nutzer, wie bei FaaS auch, von der Verantwortung befreit, sich um das Managen der Ressourcen zu kümmern. PaaS und FaaS unterscheiden sich jedoch grundlegend in ihrer Architektur, was wiederum die Skalierung beeinflusst. Bei den meisten PaaS-Systemen laufen auf dem System stets mindestens ein Serverprozess und (selbst bei Autoskalierung) eine Vielzahl länger laufender Prozesse. Diese werden auf derselben Maschine hinzugefügt oder wieder entfernt. Für den Entwickler bedeutet dies ein recht offensichtliches Problem hinsichtlich der Skalierung. Bei FaaS starten die Funktionen innerhalb von Millisekunden, um so das Handling individueller Requests zu ermöglichen. Bei PaaS-Systemen hingegen gibt es typischerweise einen Application Thread, der über einen längeren Zeitraum hinweg läuft und verschiedene Requests abhandelt. Das macht sich nicht zuletzt auch finanziell bemerkbar. Denn wo FaaS-Services pro Ausführungszeit der Funktion abrechnen, tun PaaS-Services das für die Laufzeit des Threads, in dem die Serverapplikation läuft. Anders ausgedrückt: Ein FaaS-Service kostet, wenn er aufgerufen wird, pro Funktionsaufruf – ein PaaS-Service dagegen berechnet nach den auf der Plattform in Anspruch genommenen Ressourcen. Eine FaaS-Plattform ist in diesem Sinne eine Serverless-Laufzeitumgebung, die Applikationslogiken ausführt, aber keine Daten speichert. Function as a service vs serverless Serverless-Computing ist Betrieb bei Bedarf. Der Cloud-Provider teilt dabei die Maschinenressourcen dynamisch auf. Der Begriff “serverless” lässt vermuten, dass keine Server mehr benötigt werden, sie sind aber natürlich auch weiterhin unerlässlich. “Serverless” bedeutet lediglich, dass das Server-Management und die Kapazitätsplanung für Entwickler oder Anwender gar nicht wahrnehmbar sind. Die Abrechnung von Serverless-Systemen erfolgt anhand der tatsächlich verwendeten Ressourcen, die eine Applikation benötigt. Hier geht der Trend weg von bereits im Voraus erworbenen Kapazitätseinheiten. Serverless-Code kann in Verbindung mit traditionell "deploytem" Code angewandt werden, etwa wie bei Microservices. Alternativ können Applikationen auch komplett serverfrei entwickelt werden und keinerlei provisionierte Server mehr ansprechen. Den Begriff FaaS hat Iron.IO bereits im Jahre 2011 verwendet. Das hauseigene Produkt von Oracle trägt den Namen Project Fn. Bei Project Fn handelt es sich um eine container-native und Apache-2.0-lizenzierte Serverless-Computing-Plattform. Sie kann vom Nutzer in der Cloud ebenso wie im eigenen Datacenter betrieben werden. Der Unterschied zu Produkten der zahlreichen konkurrierenden Hersteller ist, dass deren FaaS-Systeme sich nur in der jeweils zugehörigen Cloud-Umgebung betreiben lassen. FaaS und Cloud Computing in der Zukunft Wer hätte gedacht, dass Cloud Computing ein so großes Thema wird? Der Fokus wandert immer weiter ab von innerbetrieblichen Serverräumen und Infrastruktur, während Cloud-Produkte und -Services immer weiter ausgebaut und angepasst werden. Mittlerweile gibt es sowohl für Kleinbetriebe als auch internationale Großkonzerne passende Leistungs- und Preisangebote. Je nach Anwendungsfall lassen sich die Services anpassen, und bezahlt wird nur noch, was tatsächlich benötigt und (je nach Modell) auch genutzt wird. Hochentwickelte Produkte wie Projekt Fn erlauben dem Nutzer außerdem zunehmend Eingriffe in die Funktionen. Produkte bzw. Services werden also zunehmend maßgeschneidert und effizienter. Automatisierte Tests, die mit Versionierung, Staging und Aliasing arbeiten, ermöglichen Integrationstests direkt in der Cloud – ein ganz anderer Ansatz als das häufig noch manuelle Testing im eigenen Datencenter. Sicherlich werden Provider auch Support bei der Umsetzung ihrer Produkte leisten. Welche Produkte sinnvoll und in welcher Art und Weise für das Unternehmen nutzbar sind, darüber sollte sich aber jeder Betrieb selbst im Klaren sein. Von Cloud Computing kann letztlich jeder profitieren. Die Komplexität der Anwendung dieser Technologien entsteht erst durch deren Komposition. Treten Fehler auf, ist es zunächst nicht trivial, diese zu lösen. Auch deshalb gilt es, Fehler möglichst im Voraus zu vermeiden. Am Ball bleiben und bestenfalls unter den Ersten mitspielen Hilfreich ist dabei, dass es schon heute eine stetig wachsende Online-Community gibt, die sich mit Serverless-Computing beschäftigt und Unterstützung bieten kann. Projekt Fn beispielsweise ist inklusive all seiner Komponenten eine Open-Source-Software. Der Code sowie eine Vielzahl von Tutorials lassen sich auf GitHub abrufen und ermöglichen so einen einfachen Einstieg. Als Vorreiter werden Sie den größten Nutzen aus modernen Technologien ziehen. Mit Sicherheit finden Sie in der nahen Zukunft auch für Ihr Unternehmen einen sinnvollen Anwendungsfall für FaaS. Klar ist: Wie bei jedem Wandel in der Technologie muss Wissen aufgebaut werden. Wer fortschrittlich arbeiten will, sollte – versteht sich! – außerdem nostalgiefrei gegenüber alten Denkweisen und offen für Neues sein.   Testen Sie Cloud-Computing doch einfach einmal selbst: Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Cloud Computing bietet für Großunternehmen inzwischen ebenso wie für Startups oder kleinere Organisationen interessante Möglichkeiten, um Services, Applikationen und Kapazitäten auszulagern. Damit...

Cloud in der Praxis

Autonomous Data Warehouse Cloud: Autonome IT macht Unternehmensdaten zum wirklichen Erdöl von morgen

Christian Maar ist seit 2015 CEO bei 11880.com, zweitgrößter deutscher Anbieter von Telefonauskunftsservices und einem Online-Telefonbuch. Er hatte gleich zum Einstieg eine massive Umstrukturierung des Unternehmens hin zu „online“ zu managen. 11880.com setzte dabei auf die Autonomous Data Warehouse Cloud (ADWC). Die Erfahrungen überzeugten ihn von Oracle. Auf einen Blick: Autonomous Data Warehouse Cloud im Einsatz   Warum die autonome Datenbank IT-Troubleshooter ist Welche Vorteile die Autonomous Data Warehouse Cloud hat Weshalb die Autonomous Data Warehouse Cloud einzigartig ist Welchen Eindruck ADWC bei Aker BP hinterlassen hat Was 11880.com mit Autonomous Data Warehouse Cloud anstellt   Elastizität und Leistungsfähigkeit sind für Maar zwei besonders wichtige Faktoren seiner Datenbank-Strategie: „Bei unseren Vorgänger-Systemen waren wir hinsichtlich Skalierbarkeit und Performance ziemlich eingeschränkt. Autonomous Database gibt uns beides zugleich, und zwar in erheblichem Ausmaß.“ Maar bestätigt, dass ADWC für mittelgroße Unternehmen wie 11880.com eine optimale Lösung darstellt – denn: „Dabei ist auch die Kostenseite von großer Bedeutung. Wir konnten feststellen, dass Cloudtechnologie uns hilft, das schlanke Budget einzuhalten, das wir uns verordnet haben. Oracle war bei unseren Tests der Anbieter mit dem besten Verhältnis zwischen Kosten und Geschwindigkeit.“ Die autonome Datenbank ist ein IT-Troubleshooter „Daten sind das Erdöl von morgen“ – der Satz ist nicht mehr originell, aber: Er stimmt hundertprozentig. Der Erfolg zeitgemäßer Geschäftsmodelle hängt heute mehr denn je vom Informationsfluss zwischen allen möglichen Stakeholdern und Abteilungen ab. Wenn immer mehr Daten aus dem IoT, aus vernetzten Geräten oder anderen externen Quellen fließen und verfügbar gemacht werden müssen, dann braucht man einfach zusätzlichen Speicherplatz und mehr Rechenleistung, damit diese Datenschätze nicht brachliegen. Die Oracle Autonomous Data Warehouse Cloud (ADWC) arbeitet mit Automatisierung auf der Grundlage von künstlicher Intelligenz und maschinellem Lernen. Das revolutioniert ein gutes Stück weit die Verwaltung und Nutzung von Daten in Unternehmen. Ihre Vorteile spielt die ADWC meist vor allem in drei Bereichen aus: 1.    Die ADWC ist eine Datenbank, die für Data Warehousing entwickelt wurde. Ihr Charme besteht zunächst darin, dass sie sich während des normalen Betriebs selbst repariert, einstellt und aktualisiert. Dieser Job war bisher fehleranfällig, weil dabei Menschen am Werk waren. 2.    Nächster Punkt ist die reibungslose Flexibilität des Data Warehouse. Unternehmen können bedarfsgerecht skalieren. So vermeiden sie Ausgaben, wenn z. B. bei geringer Nachfrage Rechen- oder Speicherkapazität ungenutzt bleiben würde. 3.    Die Daten lassen sich mit den integrierten Web-Tools ebenso unverzüglich analysieren wie mit gängigen BI-Analysetools, die auf dem Markt verfügbar sind. Die Autonomous Data Warehouse Cloud sucht auf dem Markt ihresgleichen Die Bewährungsprobe für ADWC ist die Unternehmens-IT im Alltag – bzw. in dynamischen Situationen, die besondere Herausforderungen an einen Cloudservice stellen. Zwei sehr unterschiedliche Anwender berichten, welchen Nutzen ihnen die ADWC bietet.   Aker BP ist ein Erdölkonzern mit Sitz und Schwerpunkt in Norwegen. Gemessen an der Produktion ist Aker BP eines der größten unabhängigen Ölunternehmen in Europa. Aus regulatorischen Gründen ist Aker BP verpflichtet, über eine Reihe von Alarmsystemen Berichte vorlegen zu können. Speziell ist daran, dass die Berichte sehr unregelmäßig, angefordert werden; wann und in welchen zeitlichen Abständen, ist unvorhersehbar. Mit diesen harten Anforderungen testete Erik Dvergnes, Datenbank-Architekt bei Aker BP, die Oracle ADWC: Er richtete einen Nutzeraccount ein, erstellte eine Instanz und kopierte eine Reihe von Datenexporten in das Data Warehouse, um die Datenbank mit SQL Developer zu verknüpfen und Anfragen direkt an sie zu senden. Die Datenbestände, um die es dabei ging, waren extrem groß, teils bis zu 1,1 Milliarden Zeilen. Dvergnes war ziemlich beeindruckt: Statt wie bisher nach mehreren Minuten wurden alle Anfragen in Sekunden beantwortet und konnten deaktiviert werden, wenn sie nicht mehr gebraucht wurden. Das war genau das, was er wollte! Sein Fazit aus unserem Webcast: „Die Flexibilität der Autonomous Data Warehouse Cloud hinsichtlich der CPU-Nutzung ist ausgezeichnet. Sie sucht auf dem Markt ihresgleichen.“   11880.com, das wir einleitend vorgestellt haben, benötigte ein Data Warehouse und eine Lösung, um die Erstellung geschäftlicher Berichte zu optimieren. Bei seinen Tests stellte das Unternehmen fest, dass die ADWC nicht nur unter Leistungsaspekten mit Data-Warehouse-Datenbanken vergleichbar war, die in den Arbeitsspeicher integriert waren – ADWC arbeitete darüber hinaus auch ohne Probleme mit der Informatica-Plattform und den BI-Tools von Oracle zusammen, die im Unternehmen bereits im Einsatz waren. CEO Christian Maar stellte erfreut fest, dass das Tool seinen DBAs Administrationsaufgaben abnimmt. Sie können sich also stärker auf die Optimierung der Architektur und der Anwendungen konzentrieren. Ihm imponierte in unserem Webcast aber auch die erwähnte Schnelligkeit, Verfügbarkeit und Skalierbarkeit: „Die Autonomous Data Warehouse Cloud ist die optimale Lösung für ein mittelgroßes Unternehmen wie 11880.com – schnell, flexibel, Cloud-basiert und ohne Administrationsaufwand.“ Kontakt: Wenn Sie mehr über dieses spannende Thema wissen möchten, spreche ich gerne mit Ihnen darüber, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Christian Maar ist seit 2015 CEO bei 11880.com, zweitgrößter deutscher Anbieter von Telefonauskunftsservices und einem Online-Telefonbuch. Er hatte gleich zum Einstieg eine massive Umstrukturierung...

Cloud Basics

Cloud Infrastruktur: 10 bestechende Vorteile von Cloud-Lösungen

Cloud Infrastrukturen haben sich vielfach in der Praxis unterschiedlichster Unternehmen bewährt. Sie erlauben Kosteneinsparungen, mehr Flexibilität und die Möglichkeit, IT-Ressourcen quasi maßgeschneidert einzusetzen. Die Vorteile einer Cloud Infrastruktur stehen heute außer Frage. Entsprechend boomt der Markt für Cloud-Services.   Was ist Cloud Infrastruktur?   Bei einer Cloud Infrastruktur werden im Wesentlichen virtuelle Soft- und Hardware-Lösungen von einem Provider angemietet. Unternehmen nutzen diese Angebote flexibel nach betrieblichem Bedarf. Sie lagern somit Teile ihrer IT-Infrastruktur in die Cloud aus.  Bei Public Clouds werden verfügbare Ressourcen von mehreren Kunden gemeinsam genutzt, bei Private Clouds von einem Kunden exklusiv. Hybrid Clouds kombinieren Public und Private Cloud.   10 bestechende Vorteile von Cloud-Lösungen Cloud-Lösungen eignen sich ausgezeichnet für Unternehmen, die einen unregelmäßigen Bedarf an IT-Kapazitäten haben. Eine Cloud Infrastruktur löst das Problem, die Ausstattung des Rechenzentrums kostenintensiv an Spitzenlasten orientieren zu müssen. Der Cloud-Pool an Hochleistungs-Servern kann bedarfsgerecht Netzwerk- und Rechenkapazitäten liefern, wenn hohe unternehmensinterne Belastungen der Infrastruktur auftreten. Verschiedene Abteilungen im Unternehmen können ganz flexibel mit den nötigen Kapazitäten versorgt und unterstützt werden. Diese Features erzeugen in vielen Fällen hohes Einsparungspotential bei der eingesetzten Hard- und Software, aber auch beim Personal. Kapital wird nicht durch hauseigene Infrastruktur langfristig gebunden, da alle Cloud-Dienstleistungen monatlich abgerechnet werden. Auch die Kalkulation wird dadurch einfacher und sicherer. Kosten und Zeitaufwand für die erforderlichen Updates entfallen. Der Anbieter der Cloud Infrastruktur sorgt dafür, dass die Unternehmens-IT stets auf dem aktuellen Stand der Technik bleibt. Die Ausfallsicherheit steigt, ebenso verliert das Thema Zutrittsschutz zu den Rechner-Anlagen an Brisanz. Eine Cloud Infrastruktur ist immer flexibel und liefert punktgenau den nötigen Speicherplatz und die erforderliche Rechenleistung. IT-Anbindungen an neue Filialen oder Firmenstandorte sind einfach möglich. Ein hart umkämpfter Markt Cloud Computing bzw. die Bereitstellung von Cloud Infrastruktur ist ein stetig wachsender und daher hart umkämpfter Markt mit großem Potenzial. Der Public-Cloud-Markt wird 2018 weltweit voraussichtlich ein Umsatzplus von über 20 Prozent erzielen. Die größten Zuwächse kommen dabei aus dem Bereich komplett vorkonfektionierter Umgebungen, auch Infrastructure as a Service (IaaS) genannt. Neben dem Aufwärtstrend bei der kompletten Infrastruktur ist Software as a Service (SaaS) auch weiterhin ein besonders wichtiger Umsatzbringer. Dabei stellt ein Provider seinen Kunden bedarfsorientiert Anwendungen (Software) via Internetverbindung zur Verfügung. In diesem Bereich werden zunehmend Lösungen wichtig, die auf spezielle Geschäftsanforderungen zugeschnitten sind. Auch Datenbank-Services (Platform as a Service – PaaS) sind im Aufwind und werden von großen Cloud-Providern stark forciert. Die größten Herausforderungen der Cloud Infrastruktur für Unternehmen Je nach Bedarf, unternehmensinterner IT-Struktur und weiteren Rahmenbedingungen stellt eine Cloud-Infrastruktur manche Unternehmen aber auch vor Herausforderungen, die bei der Planung neuer IT-Strategien nicht außer Acht gelassen werden dürfen: •     Beim Cloud Computing besteht immer eine mehr oder weniger große Abhängigkeit vom Anbieter. Dieser kann Sand ins Unternehmensgetriebe bringen, wenn er sich nicht ausreichend um seine Kunden kümmert, zu wenig Kapazitäten zur Verfügung stellt oder in wirtschaftliche Turbulenzen gerät. Diese Abhängigkeit ist dann besonders groß, wenn es im eigenen Unternehmen keine oder kaum IT-Fachleute gibt. •     Cloud Computing ist nur so gut wie die Internetverbindung, die man zur Verfügung hat. •     Datenspeicherungen im EU-Ausland unterliegen nicht den Datenschutzrichtlinien, die in Deutschland und in der EU gelten. •     Die Einbindung der Mitarbeiter in das neue System ist eine potentielle Quelle von Problemen, ebenso ein mangelhaftes Verständnis von der neuen Cloud Infrastruktur. •     Werden Clouds unterschiedlicher Anbieter nebeneinander genutzt, kann die Kostentransparenz leiden. Oft sind die Kosten der einzelnen Clouds nicht wirklich bekannt. Unter dem Strich kann ein mangelhaft geplantes Cloud-Engagement sogar teurer sein als eine unternehmensinterne Lösung. •     Die Sicherheit sensibler Unternehmensdaten und der Datenschutz bleiben nach wie vor ein prinzipiell lösbares, aber dennoch kritisches Thema. Was bringt die Zukunft?  Cloud-Projekte sind dann erfolgreich, wenn sie gezielt und gut vorbereitet sind. Auch in Zukunft wird begleitendes Fachwissen wichtig bleiben – nicht nur in der Planungsphase, sondern auch darüber hinaus. Cloud Computing bietet nicht nur viel Potenzial, sondern auch die erwähnten Herausforderungen. Im Businessbereich gewinnt die Cloud zunehmend an Normalität. Wachsende Akzeptanz und Offenheit der Betriebe sind schon heute ein sicheres Indiz dafür. Immer mehr Unternehmen sind bereit, ihre Anwendungen und Daten in der Cloud zu managen. Experten rechnen damit, dass die Cloud der virtuelle Arbeitsplatz der Zukunft wird (Stichwort: Workspace-as-a-Service). Die Datenwolke wird in Zukunft auch für Machine Learning und Künstliche Intelligenz (KI) immer wichtiger werden. Es gibt also viele Gründe dafür, sich als IT-Verantwortlicher im Unternehmen für das Potential der Cloud zu entscheiden. Kommt ein geteilter Markt? Die Entwicklung im Bereich Cloud Infrastruktur könnte in Zukunft zweigeteilt verlaufen; Cloud als Massenware, wie sie die großen Anbieter im Angebot haben, dieser Bereich wird wohl vermehrt passgenauen Lösungen gegenüberstehen. Spezielle Plattformen werden mit „Cloud as a Solution“ erfolgreicher sein, wenn es um die Lösung spezieller Kundenprobleme geht. Um Kundenbedürfnisse wirklich maßgeschneidert zu befriedigen, sind System- und Beratungsprofis gefragt, die nicht nur Lösungen von der Stange anbieten. Vor allem mittelständische Unternehmen werden künftig von einem Portfolio an Cloud-Lösungen profitieren, das exakt auf ihre Bedürfnisse zugeschnitten ist. Lesen Sie in der Studie „Was beim Wechsel in die Cloud zu erwarten ist“ warum sich der Wechsel in die Cloud auszahlt und laden Sie sich unseren kostenlosen Ratgeber "Der Intelligentere Weg Daten zu managen" herunter: Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Cloud Infrastrukturen haben sich vielfach in der Praxis unterschiedlichster Unternehmen bewährt. Sie erlauben Kosteneinsparungen, mehr Flexibilität und die Möglichkeit, IT-Ressourcen quasi...

Cloud Basics

Cloud Management: das Tuningprogramm für die Unternehmens-IT

Höhere Steigerungsraten bei Produktivität und Wettbewerbsfähigkeit. Höheres Innovationsniveau. Schnellere Markteinführung neuer Produkte. Mehr Kundenzufriedenheit bei niedrigeren Kosten. – Was sich anhört wie veritable Reklame für einen Manager-Zauberkasten, ist in Wirklichkeit völlig seriös: nämlich Ergebnis einer Studie, für die 730 IT-Manager aus Großunternehmen befragt wurden. Das Thema: Was kommt heraus, wenn Unternehmen in die Cloud wechseln? Mehr dazu am Schluss dieses Beitrags. Was ist Cloud Management?   Der Prozess in Unternehmen, die stärker auf die Cloud-Integration setzen wollen, ist kein Selbstläufer! Cloud Management ist eine lohnende, aber auch anspruchsvolle Steuerungsaufgabe. Dabei geht es hauptsächlich um Bedarfserhebung und Analyse der bestehenden IT-Ressourcen; um eine Strategie, für welche Anforderungen welche Cloud-Services infrage kommen, und um das Thema, wie eine reibungslose Integration bisheriger Systeme in cloudbasierte Anwendungen, Infrastrukturen und Plattformen gelingen kann.   Zum Cloud Management gehört nach außen hin die sorgfältige Auswahl der richtigen Partner, nach innen eine professionelle, motivationsorientierte Einbeziehung der betrieblichen IT-Kräfte. Nicht zuletzt ist das Cloud Management – in enger Abstimmung mit anderen Unternehmensbereichen – mit der Entwicklung einer IT-Vision befasst, die sich in die Ziele des Unternehmens einfügt. Was bietet die Cloud für Unternehmen? Cloud Computing zählt zu jenen Buzzwords, die zu Recht Wirbel machen. Grob erklärt, geht es dabei darum: Cloudserver gibt es seit vielen Jahren. Private User kennen Filehosting-Dienste wie Dropbox, Google Drive und Microsoft OneDrive. Hier können sie mit einfachen Mitteln über virtuelle Laufwerke Dateien aller Art in die Cloud auslagern. Power-User mieten Rechnerkapazitäten und Arbeitsspeicher bei Anbietern wie Amazon Web Services (AWS), um damit die eigene IT-Infrastruktur zu entlasten. Ganz allgemein umfasst die Cloud Serversysteme, die im Netz verteilt sind. Der Endanwender "sieht" davon nur einen zentralen Service, die Lasten sind jedoch tatsächlich auf viele Computer im Netz verteilt.   Zum Cloud Computing gehören im Wesentlichen drei verschiedene Servicemodelle: •     "Software as a Service" (SaaS) stellt dem Nutzer Anwendungsprogramme und Softwaresammlungen online zur Verfügung. Deren Frontend wird oft direkt im Browser ausgeführt. Bekannte Beispiele hierfür sind die Office-Anwendungen Google Docs und Google Sheets. Darüber hinaus lassen sich ausführbare Dateien einer Applikation über die Cloud laden. Selbst das Booten des kompletten Betriebssystems eines Computers kann cloudbasiert erfolgen, ohne dass dafür eigene Festplattenlaufwerke oder Fileserver vorgehalten werden müssen. SaaS wird gelegentlich auch als "Software on demand" bezeichnet. Einige Geschäftsmodelle stellen etwa Programme gegen eine Jahresgebühr zur Verfügung. •     "Infrastructure as a Service" (IaaS) ist die Bereitstellung virtueller Computerhardware-Ressourcen, z. B. Netz-Infrastrukturen, Prozessoren, Datenbanken oder Speicherplatz. Mit IaaS können Nutzer eigene Computer-Cluster frei gestalten. Dabei ist der Administrator für den Betrieb und die Funktion selbst verantwortlich. •     "Platform as a Service" (PaaS) beinhaltet Zugänge zu Entwicklungs- oder Laufzeitumgebungen, bei denen Daten- und Rechenkapazitäten dynamisch und flexibel bedarfsorientiert angepasst werden. Hier können Programmierer ihre Anwendungen entwickeln und in cloudbasierten Laufzeitumgebungen ausführen, die von einem Serviceprovider betrieben werden. Amazons Webservice "AWS" etwa ließ tausende von Skills-Entwicklern ihre Anwendungen für den Spracherkennungsservice "Alexa" programmieren und der Öffentlichkeit zur Verfügung stellen.   Cloud Computing, der IT-Markt und natürlich: Datenschutz Keine Frage: Der Markt rund um das Cloud Management boomt. Immer mehr Unternehmen nutzen Cloud Services – inzwischen sogar mehrere gleichzeitig, in der sogenannten Multicloud. Dennoch stoßen Cloud Services vielerorts nach wie vor auf Skepsis. Das hängt derzeit auch stark mit dem EU-weiten Inkrafttreten der Datenschutz-Grundverordnung zusammen. Unternehmenseigene Daten und neuerdings auch personenbezogene Kundendaten in die Datenwolke auszulagern, weckt bei vielen IT-Verantwortlichen ein ungutes Gefühl - die Verantwortung ist groß. Hier sind Beratungsdienstleister stark gefragt, die einen Berg von Fragen zum Thema Datenschutz und Datensicherheit zu beantworten haben. Mittlerweile bieten Services wie das Cloud Management von Oracle professionelle Hilfestellungen beim Einrichten und Administrieren von unternehmenseigenen Clouds. Im E-Commerce etwa bietet aber ein modernes Cloud Management große Chancen – auch und gerade im Zuge der digitalen Transformation. Mit Cloud Management lassen sich Geschäftsprozesse digital optimieren, während die eigene IT-Infrastruktur entlastet wird. Der Branchenverband BITKOM hat in seiner Studie "Cloud-Monitor" im vergangenen Jahr ermittelt, dass sich bereits zwei von drei Unternehmen Cloud-Dienste und Cloud Management zunutze machen. Auch das zeigt: Der europäische Cloud-Computing-Markt wächst weiterhin explosiv an.   Was sind die Herausforderungen im Cloud Management für große Unternehmen? Datensicherheit und Datenschutz stehen bei der Nutzung von Cloud Services ganz oben auf der Prioritätenliste – schon wegen der enormen Datenmengen, z. B. bei Big-Data-Anwendungen. Sensible Daten im Gesundheitsbereich, Marktanalysen eines Unternehmens, Aufbereitung und Verarbeitung von Daten einer wissenschaftlichen Forschungsarbeit usw. sind Bereiche, die maximal sichere IT-Services erfordern. Die Leistungsfähigkeit und Flexibilität der Cloud bietet dafür optimale Voraussetzungen. Das Risiko eines Cyberangriffs auf die hauseigene IT-Infrastruktur wird – auch von großen Unternehmen – unterschätzt. Dabei sind sie in technischer Hinsicht sehr viel schlechter gegen Ausfälle und Datenverluste gesichert als professionelle Cloudanbieter wie das Oracle-Cloud-Management, dessen Sicherheitsfeatures höchsten Anforderungen gerecht werden. Der Einsatz eines Cloud Managements entbindet Unternehmen jedoch nicht von der Verantwortung für die ordnungsgemäße Verarbeitung personenbezogenen Daten. Zur meist geltenden „shared responsibility“ gehört vorrangig, dass auch das Cloud Management des Unternehmens sämtliche Voraussetzungen gemäß der DSGVO erfüllt. Denn im täglichen Umgang mit dem Datenverkehr der Cloud ist das Unternehmen dafür verantwortlich, dass keine Datenschutzverstöße auftreten können. Die Details dieser Verantwortlichkeiten müssen mit dem Cloudanbieter vertraglich vereinbart werden; Cloud am Ende des Tunnels: Zuversicht für die IT-Zukunft Speicher- und Prozessorleistungen kommen zunehmend aus der Cloud – kostengünstig und nach Bedarf frei skalierbar. Hier ist schon heute absehbar, dass sich die Cloud zu einer Multi-Cloud entwickeln wird. Denn die Anforderungen der Nutzer werden immer komplexer. Und damit auch die Cloud-Szenarien. Das Cloud Management wächst mit diesen Anforderungen. Die IT-Administratoren der Zukunft werden buchstäblich mit Sicherheit nicht arbeitslos. Mittelfristig umdenken müssen sie halt! Multi-Cloud-Lösungen werden zur Königsdisziplin des IT-Managers, und die interoperable strategische Steuerung der Multi-Cloud steht deutlich über den kleinen Dingen des Alltagsgeschäftes. Es ist also zukünftig mehr Agilität gefragt. Wo es bislang Spezialisten für Datenbanken, Netzwerke und sonstige Systembestandteile gab, da ändern sich die Aufgaben und die Anforderungen in künftigen IT-Szenarien in immer kürzeren Zeitabständen. Der ganzheitlich denkende IT-Mitarbeiter ist die Fachkraft der Zukunft. Ihm zur Seite stehen flexible Cloud-Tools wie das Cloud Management von Oracle. Für diese Skill-Erweiterung drängt die Zeit: Hybride Multi-Cloud-Strukturen werden schon heute Realität! Warum sich diese Agilität auszahlt, lesen Sie in der Studie „Was beim Wechsel in die Cloud zu erwarten ist“ oder laden Sie unseren kostenlosen Ratgeber "Der Intelligentere Weg Daten zu managen":   Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Höhere Steigerungsraten bei Produktivität und Wettbewerbsfähigkeit. Höheres Innovationsniveau. Schnellere Markteinführung neuer Produkte. Mehr Kundenzufriedenheit bei niedrigeren Kosten. – Was sich...

Blockchain: Warum jetzt und warum von Oracle?

… weil hier wirklich das nächste große Ding kommt! Ist Vertrauen in die Sicherheit von Datenströmen ein Thema im Unternehmen oder nicht? – Na also. Genau das ist ein, wenn nicht überhaupt der zentrale Punkt, weswegen es diesen Hype um Blockchain gibt. Blockchain ist das Buzzword, das durch Blogs, Keynotes und Workshops schwirrt und von dem alle möglichen Denkrichtungen Stein und Bein schwören: Das ist die Disruption, die alles umkrempeln wird. Tja, solche Sachen passieren jetzt öfter.     Auf einen Blick: Blockchain - Warum jetzt und warum von Oracle?   Was steckt hinter dem Blockchain-Boom? So funktioniert das Blockchain-Ökosystem Die Oracle Blockchain Lösung Kostenloser Download: eBook zum Oracle Blockchain Cloud Service   „Digitale Transformation“ war die letzte große Bewegung davor, die gleich mehrere Paradigmen neu definierte – die Art und Weise, wie wir eingekauft, gereist, gehandelt, kommuniziert und unsere täglichen Aufgaben ausgeführt haben; das alles ist zum großen Teil nicht mehr dasselbe. Mehrere B2C- und B2B-Unternehmen, z. B. Lyft, Uber, AirBnB und Zoom, waren jedes auf seine Weise Fackelträger dieser Disruption. Sie haben das Leben vieler Menschen ziemlich verändert. Hinzu kam, dass diese Mega-Transformationsbewegung von anderen Technologien wie AI, ML, IoT usw. unterstützt und ergänzt wurde. Sie ermöglichten es Unternehmen, intelligente, vernetzte und sichere digitale Kundenerfahrungen einzuführen. Was steckt hinter dem Blockchain-Boom? Vertrauen ist schwer aufzubauen – und mit einem Schlag wieder zerstört. Wenn also ein führendes Technologieunternehmen das in den Griff bekommt, indem es Transaktionen mit einem idiotensicheren Prozess etabliert, dann betreten wir einen neuen Kontinent. Das Prinzip Blockchain an sich basiert auf Datensätzen (Blocks), die zu einer Kette verbunden und mit einem sogenannten Hash manipulationssicher versperrt werden. Diese Blocks werden dann zum Referenzpunkt für folgende Transaktionen. Niemand braucht sich also noch Sorgen zu machen, ob das System die richtigen Informationen ausspuckt. Die Daten in der Blockchain liegen in ihren Blocks wie in einer Festung! Übertragen auf die Warenwelt: Wenn Sie eine Orange im Supermarkt kaufen und wissen wollen, wo die tatsächlich herkommt, wo sie geerntet wurde; wie wurde sie behandelt, bevor sie in den Laden kam, und ist sie z. B. sicher rückstandsfrei – dann könnten Sie das mit Blockchain-Technologie zuverlässig verfolgen. Das breit gefächerte Potential der Blockchain zeigen einige weitere Beispiele aus verschiedenen Branchen: •     Finanzdienstleister können mit Blockchain-Technologie den Zeitaufwand für die Abstimmung von Hauptbüchern mit Konten minimieren, indem eine einzige „authentische Quelle“ geschaffen wird und alle Beteiligten darauf zugreifen können. •     Im Gesundheitswesen können Dienstleister, Behörden und Aufsichtsorgane jetzt Blockchain verwenden, um Patientenakten sicherer zu verwalten. •     Versicherungen können auf ähnliche Weise die Überwachung von Transaktionen und die Untersuchung auffälliger Aktivitäten optimieren. •     Lieferketten bis hin zum Einzelhändler ebenso wie Hersteller verwenden Blockchain, um die Wege von Markenartikeln von den Herstellungs- und Lieferzentren bis zum POS aufzuzeichnen, um die Authentizität zu erhöhen und falsche Angaben zu korrigieren. Und so funktioniert das Blockchain-Ökosystem Blockchain-Lösungen können nicht isoliert erstellt und vereinbart werden, sondern es ist ein "ökosystembasierter Ansatz" erforderlich. Dabei arbeiten verschiedene Akteure wie Regierungen, Konsortien, Regulierungsbehörden und Technologieanbieter gemeinsam an Best Practices und Weiterentwicklungen der Technologie, um zu optimalen Lösungen zu kommen. Besonders für stark regulierte Branchen wie Finanzen und Gesundheitswesen ist die Mitwirkung von Regulierungsbehörden und Regierung von entscheidender Bedeutung. Technologieanbieter werden eine Schlüsselrolle bei der Entwicklung und Bereitstellung innovativer Lösungen rund um Blockchain einnehmen. Außerdem werden sie auch die Power vorhandener Technologielösungen kombinieren und auf Blockchain ausdehnen. Konsortien wie Hyperledger werden dabei hochgradig entscheidend sein. Diese Konsortien werden die Branchen, die Technologieanbieter und die Regierung auf einer einheitlichen Plattform zusammenbringen, um geschäftliche Innovationen voranzutreiben, die wiederum speziell für regulierte Branchen erforderlich sind. Regulierungsbehörden und Akteure wie Banken und die Regierung werden unabdingbar sein, um strenge Regeln für den Austausch von Informationen, die Führung von Aufzeichnungen, die Verwaltung und die Überwachung von Daten festzulegen. Welche Mechanismen greifen beim Funktionieren der Blockchain? Das zeigen unsere Videos anschaulich. Grob erklärt, besteht die Blockchain-Technologie aus vier wesentlichen Elementen: Distributed Ledger Technologie– Das ist eine Datenbank, die gemeinsam genutzt, repliziert und über ein Netzwerk synchronisiert wird, das auf verschiedene Standorte, Einrichtungen und Regionen verteilt ist. Smart Contracts– Hierbei handelt es sich um Code, der das Aushandeln oder die Ausführung einer Vereinbarung (Konsens) unter Verwendung der Blockchain-Technologie erleichtert, durchführt und durchsetzt. Der Code läuft auf den Knoten und ruft eine Anfrage zum Konsens auf. Konsens-Verfahren– Die Blockchain wird über ein Konsens-Verfahren aktualisiert. Damit ist eine eindeutige Reihenfolge und Validierung von Transaktionen gewährleistet. Das Verfahren garantiert die Integrität und Konsistenz der Blockchain über geografisch verteilte Knoten hinweg. Manche Konsens-Verfahren sind dezentralisiert bzw. ohne Genehmigung, andere sind genehmigt (Stichwort byzantinische Fehler). Wieder andere Konsens-Verfahren sind Raft, Paros, Sieve usw. Messaging Service– Damit wird die Inter-Node-Kommunikation zwischen Blockchain Peers ermöglicht. Jede Blockchain-Anwendung, ob innerbetrieblich oder als SaaS, verbindet sich über ein REST-API-Layer mit diesen "Interaktions-Systemen". Und diese Systeme werden dann das Wunder vollbringen, sichere Aufzeichnungen zu erstellen, die auf den Bedingungen des Marktes ebenso wie auf Fairness basieren. Diese Daten können dann gespeichert und für bestimmte Geschäftsergebnisse freigegeben werden. Die Oracle Blockchain Lösung Oracle wird demnächst den Oracle Blockchain Cloud Service zur Verfügung stellen. Dabei handelt es sich um eine verteilte, auf Ledgern basierende Plattform auf Enterprise-Ebene. Diese Entwicklung wurde dazu geschaffen, um ERP-, SCM-, SaaS- und On-Premise-Anwendungen zu erweitern und zu skalieren. Sie ermöglicht sichere und skalierbare Peer-to-Peer-Transaktionen in einem vertrauenswürdigen Netzwerk mit manipulationssicheren Daten. Oracle ist eine Partnerschaft mit dem Hyperledger Project (www.hyperledger.org) eingegangen. Das ist ein Konsortium mit Fokus auf private (oder genehmigte) Blockchain-basierte verteilte Bücher und Lösungen für eine Vielzahl von Anwendungsfällen und Branchen. Hyperledger Fabric ist eine Open-Source-Codebasis, die als Projekt der Linux Foundation geführt wird. Die von Hyperledger unterstützten Lösungen sind auch darauf ausgelegt, intelligente Vereinbarungen über eine Kombination aus modularer Architektur und Konsensverfahren auszuführen. Oracle hat außerdem mit führenden Systemintegratoren und Partnern kooperiert, um wirklich komplette Blockchain-Lösungen zu liefern. Weitere Informationen zu den Vorteilen der Blockchain-Services von Oracle finden Sie unter https://www.oracle.com/blockchain Zum Kostenlosen Download steht Ihnen auch unser eBook zum Oracle Blockchain Cloud Service zur Verfügung:   Kontakt: Wenn Sie mehr über Blockchain erfahren wollen, spreche ich gerne mit Ihnen über dieses spannende Thema, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

… weil hier wirklich das nächste große Ding kommt! Ist Vertrauen in die Sicherheit von Datenströmen ein Thema im Unternehmen oder nicht? – Na also. Genau das ist ein, wenn nicht überhaupt der zentrale...

Business Analytics

Data Visualization: WM 2018 – Oracle tritt das Erbe von Orakel Krake Paul an

Das Ergebnis von 14 WM-Spielen mit deutscher Beteiligung zwölfmal richtig vorherzusagen, außerdem den Sieger des Finales, das ist eine beachtliche Leistung. Bei der Fußball-WM 2010 in Südafrika schaffte das der Krake „Orakel“ Paul und brachte damit Teile der wissenschaftlichen Zunft in Wallung: Statistiker verzweifelten. Datenanalysen haben sich seither um mehrere Größenordnungen weiterentwickelt. Oracle tritt daher heute an, aktuellen Orakeln den Rang streitig zu machen – mit einer respektvollen Verbeugung vor Paul.   Oracle tritt das Erbe von Orakel Krake Paul an - Die Gruppen und ihre Favoriten:   Gruppe A: Russland + Uruguay Gruppe B: Spanien + Portugal Gruppe C: Frankreich + Dänemark Gruppe D: Argentinien + Kroatien Gruppe E: Brasilien Gruppe F: Deutschland Gruppe G: England + Belgien Gruppe H: Alles offen   Obwohl bei dieser WM die deutsche Nationalelf sehr holprig in das Turnier gestartet ist, gibt es für Fußballfans wie mich dennoch kaum etwas Spannenderes als diesen Höhepunkt alle vier Jahre. Und ich brauche dabei nicht einmal meine Fußballpassion vom Beruf zu trennen. 32 Mannschaften, jede mit einer eigenen Geschichte, und nur eine kann Weltmeister werden; wenn das kein Trainingsfeld für die geballte Power unserer Oracle Data Visualization ist! Spekulieren kann man ja viel. Brasilien, Deutschland, die Kraftpakete? Und werden Ägypten oder Panama wieder kein Spiel gewinnen, weil sie noch nie eins gewonnen haben? Wie Paul das gemacht hat, weiß ja keiner, jedenfalls hatte er keine Tabelle im Rechner. – Aber ich. Ich habe damit Folgendes gemacht: Auf der FIFA-Website gab es ein paar grundlegende Teamstatistiken, die habe ich als erstes in meine Tabelle eingetragen. Dann fügte ich jedes Spiel und die jeweiligen Teamdaten sowie eine Formel zur Berechnung des Prozentanteils gewonnener Spiele manuell hinzu. Das Ergebnis können Sie hier herunterladen und selbst verwenden. Was hat das jetzt mit Oracle und Ihrem Business zu tun? – Daten verstehen! Ihr Unternehmen hat Unmengen davon. Sie zu verstehen, ist der Punkt. Das geht nun mit der Cloud-Datenvisualisierung von Oracle Analytics, die Grundlagen für solide Unternehmens-Entscheidungen liefert. Am Bespiel der WM 2018 zeigen die folgenden Visualisierungen, wie komplexe Situation besser verständlich werden. Bei der WM geht es darum, auf jeden Fall dabeizubleiben. Überleben also – zuerst einmal die Gruppe überleben. Um meine Favoriten für den Aufstieg in der ersten Runde zu identifizieren, analysierte ich die Gewinnquote und die durchschnittlich erzielten Tore jeder Mannschaft, außerdem die Gewinnquote der anderen drei Mannschaften in der jeweiligen Gruppe. Hier kommt also die Gewinnquote und die durchschnittlichen Tore für jedes Team. Je größer der Text, desto höher die Gewinnquote. Je dunkler der Text, desto mehr Tore wurden durchschnittlich erzielt:   Das ergibt schon einmal ein recht brauchbares erstes Bild. Aber wie gesagt, wir sind noch dabei, die Gruppe zu schaffen. Im Folgenden sind die Gewinnquoten (in Prozent, PCT) der drei Gegner (Opp) für jede Mannschaft in jeder Gruppe aufgeführt. In Gruppe A scheinen Russland und Uruguay starke Favoriten zu sein, da ihre Gegner nicht viele WM-Spiele gewonnen haben:   In Gruppe B haben Spanien und Portugal die Nase vorn:   Gruppe C ist schon etwas kniffliger als A oder B. Es sieht am ehesten nach Frankreich und Dänemark aus:   Argentinien und Kroatien sollten es in Gruppe D schaffen:   Eine weitere harte Nuss – für alle außer Brasilien als einzigem klaren Führer in der Gruppe E:   Sehr ähnlich wie Gruppe E hat Gruppe F nur einen klaren Favoriten. Wette niemals gegen Deutschland:   In Gruppe G sieht es wiederum danach aus, dass England und Belgien leichtes Spiel haben:   Offenes Rennen, denn in Gruppe H gibt es wirklich keinen eindeutigen Favoriten: 

Das Ergebnis von 14 WM-Spielen mit deutscher Beteiligung zwölfmal richtig vorherzusagen, außerdem den Sieger des Finales, das ist eine beachtliche Leistung. Bei der Fußball-WM 2010 in Südafrika...

Cloud Services gratis testen: Was man mit $300 Oracle Cloud Credits anfangen kann [Infografik]

Bis zu 3500 Gratisstunden können Sie je nach Cloud Service für Tests der Oracle Cloud Plattform verbrauchen: Lernen Sie unter realistischen Bedingungen Schnelligkeit, Usability, Performance und die ganze Palette von Features kennen, die Oracle Cloud so erfolgreich gemacht haben. Ein virtuelles Guthaben von 300 Dollar steht nach Anmeldung zur freien Verfügung. Danach gibt es keine Verpflichtung – nur ein attraktives Angebot zur Weiternutzung individuell wählbarer Cloud-Services aus den Bereichen PaaS und IaaS. Dazu gehören z. B. Autonomous Data Warehouse, Analytics, Internet of Things oder Visual Builder – über 30 verschiedene Cloud Services insgesamt.   Ein schneller und kompetenter Chat-Support steht bereits bei Fragen zum Test selbst zur Verfügung, selbstverständlich aber auch während der bis zu 30-tägigen Testphase. Darüber hinaus gibt es eine informative FAQ-Seite. Oracle Cloud Services gratis testen: 30 Tage lang, 30+ Dienste! Informieren Sie sich jetzt gleich über die vielen Möglichkeiten beim Oracle Cloud Gratis-Test und erstellen Sie unverbindlich Ihren kostenlosen Account: Jetzt kostenlos loslegen! Kontakt: Wenn Sie noch mehr darüber wissen möchten, dann spreche ich gerne mit Ihnen per E-Mail, LinkedIn oder Xing. Daniel Fritsch, Digital Marketing Manager.

Bis zu 3500 Gratisstunden können Sie je nach Cloud Service für Tests der Oracle Cloud Plattform verbrauchen: Lernen Sie unter realistischen Bedingungen Schnelligkeit, Usability, Performance und die...

Wenn Twitter mit Graal Kosten spart, können Sie das auch

Thema ist natürlich weder das Videospiel noch das Ostseeheilbad Graal – sondern die Oracle Labs haben vor Kurzem die virtuelle Maschine GraalVM herausgebracht. Der Name steht für General Recursive Applicative and Algorithmic Language. Wichtiger ist aber: Sie kriegen damit für Programme, die in verschiedenen Sprachen geschrieben sind, eine vereinheitlichte Laufzeitumgebung, die in den meisten Fällen schneller als die native Java Virtual Machine (JVM). Und Twitter – die ja meist ganz gut wissen, was sie tun – lässt seine in Scala geschriebenen Microservices mit GraalVM laufen und spart damit Kosten. Wie geht das? Auf einen Blick: Wie Twitter mit Graal Kosten spart   Das Problem der Vielsprachigkeit GraalVM räumt mit dem Sprachenwirrwarr auf Twitter zeigt Optimierungspotentiale Contributoren gesucht!   Das Problem der Vielsprachigkeit Innerhalb einer virtuellen Maschine können ja viele verschiedene Sprachen laufen, z. B. Java, Python oder JavaScript. Meistens hat dabei jede Sprache ihre eigene VM, die speziell für die jeweilige Sprache entworfen ist. Andere Sprachen? Meist Fehlanzeige, oder sie laufen dann in dieser VM mit geringer Performance. „Die Welt ist polyglott und wird es auch bleiben“, erklärt Thomas Wuerthinger, Senior Research Director bei Oracle und Architekt von GraalVM. Dafür gibt es im Prinzip auch gute Gründe. Verschiedene Sprachen sind auf verschiedene Teile des Software-Stacks durchaus clever zugeschnitten: für Websites (JavaScript und Ruby), für universelle Programmiersprachen (sog. GPL – Java und C++), Embedded Code für Geräte (C, C++ oder Java) und Data Science-Sprachen (R und Python). „Diese verschiedenen Sprachen werden nicht verschwinden“, sagt Wuerthinger. „C++ etwa wird seit den 1980ern intensiv verwendet. Es gibt Wissenschaftler, die mehr als 15 Jahre alte Fortan-Algorithmen nutzen.“ Nun brauchen Software-Entwickler verschiedene Sprachen für die Zusammenarbeit, aber wenn es darum geht, polyglotte Programme in ausführbarem Code zu kompilieren, kämpfen sie sofort mit gleich drei Hauptproblemen: Es riecht oft danach, dass nur die Sprachen hoch performant laufen, hinter denen Industrie-Schwergewichte stehen. Ruby ist zum Beispiel zwar durchaus weit verbreitet; wenn es aber um High-Performance-Runtime geht, ist ist es überhaupt nicht ganz vorne dabei. Jede dynamische Sprache führt ihre eigene kleine Runtime aus. Das kann dann zu einer teuren Serialisierung bei der Interaktion mit anderen Sprachen führen. Schließlich benötigen verschiedene Sprachen alle ihre unterschiedlichen Tools für Konfiguration, Debugging, Profiling usw. GraalVM räumt mit dem Sprachenwirrwarr auf Um Server-Code zu optimieren, mussten Entwickler bisher auf schnellere, aber nicht sonderlich leicht verständliche C2 JIT Compiler in der JVM zurückgreifen. GraalVM hingegen ist eine universelle virtuelle Maschine mit hoher Leistung: Sie unterstützt eine ganze Palette von Programmiersprachen, und sie macht schnellen Datenaustausch zwischen Programmen möglich, die in unterschiedlichen Sprachen geschrieben sind. Das sind für aktuelle Herausforderungen durchaus coole Features. Würthinger erklärt: „GraalVM 1.0 unterstützt fast alle JVM-basierten Sprachen, z. B. Java, Scala und Kotlin sowie JavaScript (einschließlich TypeScript). Außerdem sind wir in der Phase des experimentellen Supports für alles, was in LLVM-Bitcode (C, C++, Rust) kompiliert wird, außerdem für Python, Ruby und R.“ Einen speziellen Vorteil für JVM-basierte Sprachen bietet GraalVM auch noch: Das Programm lässt sich in nativen Code übersetzen, den man sehr schnell starten kann und der wenig Speicher benötigen soll. Der neue Open Source JIT Compiler kann entweder standalone laufen oder embedded in OpenJDK, node.js, Oracle Datenbanken sowie MySQL.   Twitter zeigt, welche Optimierungspotentiale drin sind „Was wir bei Twitter feststellen konnten, ist eine 11-prozentige Verringerung an CPU-Zeit“, erklärt Christian Thalinger, der sich schon etliche Jahre mit Graal beschäftigt hat, in einem Interview, das Yolande Poirier mit ihm auf der Oracle Code in Los Angeles geführt hat. Thalinger arbeitet seit mehr als 13 Jahren als Software-Engineer an der JVM – zunächst bei Sun, dann bei Oracle und nun bei Twitter, wo der Source Code in Scala geschrieben wird. Twitter setzt GraalVM als einer der ersten Nutzer produktiv ein. Hier laufen in Scala geschriebene Microservices mit GraalVM. Der Effekt: höhere Geschwindigkeit, weniger Speicherallokationen und damit auch weniger Garbage-Collection. Letzteres reduziert widerum die Zwangspausen in der Ausführung. Thalinger hat dann noch ein wenig an GraalVM rumkonfiguriert und kam innerhalb eines Nachmittags auf 13% weniger benötigte CPU-Zeite. Nach seiner Einschätzung kann das – abhängig von der Anzahl eingesetzter Server – hochgerechnet zu Einsparungen von mehreren hunderttausend Dollar führen. Contributoren gesucht! GraalVM ist gelandet! Mit dem ersten erfolgreichen Release wird es weiter Fahrt aufnehmen. Beiträge sind jederzeit willkommen! Entweder durch GitHub-Beiträge oder durch eine Bewerbung im Oracle Labs Team:   Kontakt: Wenn Sie mehr über Graal erfahren wollen, spreche ich gerne mit Ihnen über dieses spannende Thema, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Thema ist natürlich weder das Videospiel noch das Ostseeheilbad Graal – sondern die Oracle Labs haben vor Kurzem die virtuelle Maschine GraalVM herausgebracht. Der Name steht für General Recursive...

Die Zukunft heißt Autonomie

Autonome Ressourcen sind die revolutionäre Zukunft der IT. „Man wird kaum ein System finden, das schneller, kostengünstiger und sicherer ist als autonome Technologie“, verspricht Oracle-Chef Mark Hurd. Seine Prognose: Mehr als 50 % der Unternehmensdaten werden bis 2020 autonom verwaltet werden, denn: „Die Vorteile sind zu zwingend, um ignoriert zu werden.“   Auf einen Blick: Die autonome Zukunft mit Oracle   Die Top 5 Branchen Zukunft der IT: autonom ist besser Auf autonome Ressourcen vorbereitet? Autonome Gebäude Oracle revolutioniert die Bereitstellung Neudefinition der Cloud Database Category Wie 3 Unternehmen die Vorteile autonomer IT nutzen Database 18c: Eine revolutionäre Lösung Wie das autonome Data Warehouse funktioniert Autonome Ressourcen machen wertvoller Automatisch. Sichern. Integriert.   Wie schon beim Ausbau autonomer Funktionen auf der Oracle Cloud Platform hat Oracle jetzt die Verfügbarkeit der Oracle Autonomous Analytics Cloud, der Oracle Autonomous Integration Cloud und der Oracle Autonomous Visual Builder Cloud angekündigt. Diese bahnbrechenden neuen PaaS-Services basieren auf den Ressourcen von Oracle Autonomous Database, mit denen Anfang dieses Jahres eine neue Klasse von IT-Angeboten ihre Premiere hatte. Aber auch weit über die IT hinaus werden viele Bereiche durch autonome Ressourcen revolutioniert werden. Hier erfahren Sie mehr über die Vorteile autonomer Technologien auch für Ihr Unternehmen – und über Beispiele, wie Unternehmen verschiedener Branchen mit dieser Stufe der digitalen Transformation die Nase vorn haben können. Die Top 5 Branchen unter den Early Adopters von autonomen Systemen  Für Unternehmen dieser Branchen ist es nur noch eine Frage des Zeitpunkts, dass sie sich für KI und autonome Systeme entscheiden werden. Automatisiert ist gut – autonom ist besser. Hier ist die Zukunft der IT. Die autonome Datenbanktechnologie bietet in IT-Umgebungen eine unübertroffene Verfügbarkeit, Performance und Sicherheit. Angesichts fataler Geschäftsausfälle etwa durch verpasste Software-Patches oder Datenpannen sind autonome Software- und Cloud-Dienste der beste Schutz gegen neue Gefährdungen. Sind Sie auf autonome Ressourcen vorbereitet? Autonome Ressourcen werden unterschiedlichste Branchen dramatisch verändern. Erfahren Sie, wie Sie Ihre Organisation fitmachen können. In Zukunft werden Gebäude autonom sein Maschinelles Lernen erleichtert alle Bereiche des intelligenten Gebäudemanagements, von der Konstruktion bis zur Sicherheit. Larry Ellison: Oracle revolutioniert die Bereitstellung von Datenbanken und IT-Services Oracle Autonomous Data Warehouse Cloud konfiguriert sich bereits selbst – jetzt bietet es Analyse- und Sicherheitsfunktionen sowie eine hohe Verfügbarkeit von Oracle Database. Und zwar ohne dass komplexe Konfigurationen, Optimierungen und Administration erforderlich werden. Oracle definiert die Cloud Database Category mit der weltweit ersten autonomen Datenbank neu Oracle bietet branchenweit führende Leistung, Sicherheitsfunktionen und Verfügbarkeit – zur Hälfte der Kosten von Amazon Web Services. Wie 3 Unternehmen schon jetzt die Vorteile autonomer IT nutzen Mit dem neuen autonomen Data Warehouse von Oracle können auch Verantwortliche ohne IT-Expertise online ein Data Warehouse anfordern, das in wenigen Minuten bereit ist, riesige Datenmengen zu verarbeiten. Eine revolutionäre Lösung Oracle Senior Vice President Juan Loaiza spricht über die autarke Oracle Database 18c. Wie das neue autonome Data Warehouse von Oracle funktioniert Mit der Oracle Autonomous Data Warehouse Cloud können Benutzer in weniger als einer Minute ein leistungsstarkes Data Warehouse einrichten. Dazu brauchen sie nur fünf Fragen abzuhaken. Autonome Ressourcen machen Data Warehouses und DBAs wertvoller Der bisher erforderliche Arbeitsaufwand bei Data Warehouses wird sich mit der Einführung der Oracle Autonomous Data Warehouse Cloud, die im Oktober 2017 angekündigt wurde, deutlich ändern. Automatisch. Sicher. Integriert. Dank Automatisierung haben Datenbank-Teams mehr Zeit, sich um die Sicherheit zu kümmern.   Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Sabine Leitner, Sr. Marketing Manager.

Autonome Ressourcen sind die revolutionäre Zukunft der IT. „Man wird kaum ein System finden, das schneller, kostengünstiger und sicherer ist als autonome Technologie“, verspricht Oracle-Chef...

Business Analytics

Datenvisualisierung: Den Zahlen-Wahnsinn auf einen Nenner bringen

Datenvisualisierung (DV) ist zu Recht ein riesiges Thema. Einfach deshalb, weil Zahlen so eine große Rolle spielen, aber in „nackter“ Form schwer verständlich sind. Dazu braucht man DV – aber gibt es noch andere nützliche Vorteile? Wie ist es zum Beispiel mit der dynamischen Bearbeitung von Daten? – Es kann äußerst nützlich sein, Daten schnell bewegen und verschieben zu können und neue Querverbindungen, Abhängigkeiten und Bedeutungen zu entdecken. Um das anschaulich zu demonstrieren, habe ich ein neues Projekt in Oracle Data Visualization erstellt. Thema: die kommende NCAA Basketball-Meisterschaft der Männer. Meine Daten dafür gab es auf teamrankings.com. Diese Website liefert Basketball-Daten der beiden Vereinigungen NBA und NCAA inklusive eigener Rankings. Es hat mich gereizt, während des Basketball-Wahnsinns, der hier zuverlässig ausbricht, einen Versuch mit diesen Daten zu wagen. Hier ist die Tabelle, die ich mit ihren Daten erstellt habe. Nachdem ich die Tabelle in DV hochgeladen und mein Projekt gestartet hatte, sah mein Bildschirm so aus (s. u.) – das war dann der Ausgangspunkt für Ermittlungen in alle Richtungen mit dem Ziel, das Unvorhersagbare vorherzusagen.   Zum Vergrößern bitte auf das Bild klicken - öffnet ein neues Fenster. Erstes Beispiel: einige spezifische Matchups. In der südlichen Ecke etwa wird Virginia UMBC spielen. Ich möchte mir dieses Matchup genauer anschauen und die Filterfunktion in Oracle DV verwenden, um dann diesen Bildschirm zu sehen:   Zum Vergrößern bitte auf das Bild klicken - öffnet ein neues Fenster.   Offensichtlich ist Virginia der klare Favorit. Mit hervorragenden Ergebnissen im Vergleich zu den Top 25 und zu den Teams auf Rang 26–50, sowie mit einer perfekten Bilanz gegen die Teams mit den Plätzen 51–100, dürfte Virginia keine Probleme haben, die erste Runde zu überstehen. Betrachten wir nun ein anderes Matchup mit einigen Visualisierungen. Zum Vergrößern bitte auf das Bild klicken - öffnet ein neues Fenster.   Dieses Spiel riecht nach einem knappen Matchup zwischen einem 7-Seed und einem 10-Seed mit fast identischem Ausgang, das lassen jedenfalls die  Spielergebnisse gegen bessere Mannschaften vermuten. Trotzdem könnte Arkansas im Vorteil sein. „Könnte“, wohlgemerkt! Das ist ja das Schöne am NCAA-Turnier der Männer: Man kann es nie wissen. Angenommen, Butler ärgert Arkansas. Dann würden sie entweder gegen Purdue oder California State Fullerton spielen.   Zum Vergrößern bitte auf das Bild klicken - öffnet ein neues Fenster.   Ich weiß, wen Butler lieber als Gegner hätte. Da das Wesen der ganzen March Madness ... na ja, eben Wahnsinn ist, ist es nützlich, wenn man die gesuchten Daten rasch bearbeiten und damit das ganze Bild besser verstehen kann. Sie können den ganzen Tag damit verbringen, sich Vorschauen von Was-wäre-wenn-Szenarien anzeigen zu lassen. Das ist aber nur ein praktisches Beispiel für die Verwendung von DV. Angenommen, ich möchte die besten Teams der gesamten Meisterschaft herausfiltern; dann ändere ich einfach meine Filter, um mich auf den Anteil gewonnener Spiele und nicht auf bestimmte Teams zu konzentrieren. Für die folgende Grafik habe ich mich auf Teams mit 25 % oder mehr gewonnener Spiele in den Top 25 Teams, einem Ergebnis von 50 % oder mehr bei den besten 26–50 Teams und einer 75-%-Rate oder besser bei den Top 51–100 Teams konzentriert. Hier sind danach meine Favoriten für einen Gesamtsieg:   Zum Vergrößern bitte auf das Bild klicken - öffnet ein neues Fenster.   Ich arbeite gerne mit Zahlen; und ich habe den Eindruck, dass sie am besten in einer visuellen Darstellung verständlich sind. Das gilt besonders dann, wenn man schnell den Blickwinkel ändern und neue Perspektiven entdecken kann. Ich hoffe, dass dieser Beitrag informativ ist und wenn Sie Basketball-Fan sind, verwenden Sie gerne die oben verlinkte Tabelle für Ihre eigenen March-Madness-Studien. Oder noch besser: Melden Sie sich einfach für eine Testversion von Oracle DV an und erstellen Sie Ihre eigenen Visualisierungen! Und besuchen Sie unsere Website und nutzen Sie eine unserer Quick Tours bzw. den Simulator. Sie finden auch weitere Unterlagen auf unserer Seite "Customized Content". Falls Sie bereits Oracle Data Visualization-Kunde sind, finden Sie außerdem in der Oracle Analytics-Bibliothek Beispieldateien mit denen Sie ihre eigenen Analysen auf ein neues Niveau heben. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Cesar Ortiz, Principal Solution Consultant.

Datenvisualisierung (DV) ist zu Recht ein riesiges Thema. Einfach deshalb, weil Zahlen so eine große Rolle spielen, aber in „nackter“ Form schwer verständlich sind. Dazu braucht man DV – aber gibt es...

Die 10 Vorteile des Cloud Computings für Unternehmen

Können 94 Prozent irren, wenn es sich um die obersten IT-Verantwortlichen  von über 300 Unternehmen in der D-A-CH-Region handelt? Deren Aussage über die vollzogene Anwendungsmigration in die Cloud lautet nämlich: Es hat sich gelohnt – und zwar sofort oder doch nach kurzer Zeit. Das ist eins der aufschlussreichen Ergebnisse der Cloud-Migrationsstudie 2018 von IDG Research Services. An der Spitze der Erwartungen an Cloud Computing stehen danach geringere Ausfallzeiten, mehr Sicherheit und bessere Ressourcenverteilung. Als größte Herausforderungen werden Datensicherheit und Datenschutz gesehen. Aber trotz des medialen Hypes um Cloud Computing haben erst ein Drittel der Unternehmen ein oder mehrere Migrations-Projekte durchgeführt. Auf einen Blick: Die Vorteile von Cloud Computing   Bessere Produkte und Services Flexibilität Kostensenkung Datensicherheit Datenschutz-Compliance Ressourcen einsparen und effizienter nutzen Konsistente Daten Vereinfachung Big-Data-Management Allgemeine Zufriedenheit    Was ist Cloud Computing? Cloud Computing ist eine bestimmte Art des Outsourcings von IT-Infrastruktur an Dienstleister, die, vor allem durch große Serverfarmen, Rechenkapazitäten und entsprechende Umgebungen je nach Bedarf zur Verfügung stellen können. Im Wesentlichen gibt es dabei •   SaaS, Software as a Service: Anwendungen werden über das Internet zur Verfügung gestellt •   PaaS, Platform as a Service: Hier können Programmier- und Laufzeitumgebungen online genutzt und selbst entwickelte Software ausgeführt werden •   IaaS, Infrastructure as a Service: Speicher, Netze oder Rechner können virtualisiert eigenverantwortlich hinsichtlich Software-Auswahl, -Betrieb, -Wartung usw. genutzt werden. Diese Services brauchen dann nicht mehr auf lokalen Rechnern installiert zu werden; es reichen Schnittstellen wie eine bestimmte Clientsoftware oder einfach der Browser. Für Unternehmen sind je nach Größe und Herausforderungen hauptsächlich drei der verschiedenen Nutzungsmodelle des Cloud Computings sinnvoll: Private Clouds werden exklusiv für eine Organisation zur Verfügung gestellt; Public Clouds vermieten die Kapazitäten an mehrere oder eine Vielzahl an Nutzern; Hybrid Clouds kombinieren diese Modelle bedarfsorientiert. Die Vorteile von Cloud Computing Welche Vorteile haben Unternehmen durch Cloud Computing? Die Antwort hängt von vielen unternehmensspezifischen Faktoren ab. Die folgenden Punkte gelten aber weitgehend allgemein. Bessere Produkte und Services: Positive Kundenerfahrungen hängen stark davon ab, wie schnell, umfassend und ortsunabhängig Informationen aller Art verfügbar und einsetzbar sind. Davon leben effiziente Lieferketten, Kundendienste, Verkauf etc. Clouddienste können unschlagbar darin sein, genau das zu leisten und so entscheidende Marktvorteile zu generieren. Auch innovative Lösungen wie KI-gestützte Chatbots lassen sich in der Cloud besser entwickeln und einsetzen. Sogenannte Microservices erlauben zudem, im laufenden Betrieb IT-Komponenten mit geringem Aufwand zu adaptieren oder auszutauschen. Die Cloud erleichtert auch die Implementierung im Bereich Internet of Things (IoT). Flexibilität: IT dient Unternehmen eigentlich dazu, schneller, agiler, fehlerfreier, kurz: besser vorbereitet auf die Herausforderungen des Marktes zu sein. Aber nicht nur marktseitig beschleunigen sich die Entwicklungen – auch technologisch werden die Zyklen digitaler Produkte immer kürzer. Was gestern noch State of the Artwar, ist schon morgen oft nicht einmal mehr update-fähig. Während die betriebliche IT mit On-Premise-Lösungen diesen Prozessen hinterherhecheln muss, kann sie sich beim Cloud Computing auf das eigentliche Business konzentrieren, weil sowohl die Aktualisierung als auch die Skalierung der Cloud-Services Sache des Anbieters sind. Kostensenkung: Eine Reihe von Investitionen in IT-Infrastruktur, die sonst Kapital binden würden, entfallen. Der Aufwand für die Services lässt sich je nach Vertrag nutzungsabhängig (pay as you go)vereinbaren.Im Allgemeinen sind diese monatlich oder jährlich anfallenden Kosten erheblich niedriger als bei On-Premise-Lösungen, die ja nach Lastspitzen dimensioniert werden müssen. Datensicherheit: Auch wenn Cloud-Computing niemals 100-prozentige Sicherheit garantieren kann, rangieren die Sicherheitsfeatures großer Anbieter unter dem Besten, was am Markt zu bekommen ist. Vor allem Klein- und Mittelbetriebe unterschätzen gerne das Risiko, selbst direktes Opfer etwa einer Cyberattacke (von eigenem menschlichen Versagen ganz zu schweigen) zu werden, sind aber im Vergleich zu Cloudanbietern in der Regel technisch sehr viel schlechter gegen Datenverluste, Ausfälle, korrumpierte Systeme etc. geschützt und in der Lage, kurzfristig wieder eine vollständige Data Recovery hinzubekommen. Datenschutz-Compliance: Grundsätzlich bleiben Unternehmen auch dann im Sinne der Datenschutz-Grundverordnung (DSGVO) verantwortlich für die ordnungsgemäße Verarbeitung von (personenbezogenen) Daten, wenn sie sich dazu eines Cloud-Dienstleisters bedienen. Eine datenschutzkonforme IT ist aber auch dann (und unter Umständen auch auf höherem Niveau) gewährleistet, wenn die erforderlichen Voraussetzungen dafür geschaffen werden. Dazu gehört vor allem, dass der Cloud-Service selbst alle Voraussetzungen der DSGVO-Compliance erfüllt, dass dies vertraglich wasserfest vereinbart ist und das Unternehmen dafür sorgt, dass auch beim Datenverkehr keine Regelwidrigkeiten vorkommen können. Ressourcen einsparen und effizienter nutzen: Beim Cloud Computing entfällt der Aufwand für Hardware (Rechenzentrum, Serverraum …) teilweise, für Software weitgehend. Damit ersparen sich Unternehmen intern vor allem die Beschaffung, Installation, Konfiguration, Wartung und Aktualisierung von Software. Cloudbasierte Services lassen sich zudem erheblich einfacher standortunabhängig, etwa über Mobilgeräte nutzen. Das ermöglicht z. B. Außendienstmitarbeitern in Verkauf und Service, bessere Kundenerfahrungen zu realisieren. Teams können – auch über ein eventuell vorhandenes Intranet hinaus – bruchlos und verzögerungsfrei gemeinsam Aufgaben oder Projekte abarbeiten. Das Kerngeschäft wird von Abstimmungsaufwand mit der betrieblichen IT entlastet. Konsistente Daten: Gerade bei komplexen Prozessen im Unternehmen ist die Konsistenz von Daten existenziell wichtig. Die enorme Fehleranfälligkeit bei dezentraler Speicherung, Verarbeitung und Weitergabe von Daten, ohne dass diese Prozesse perfekt synchronisiert sind, kann massive betriebliche Probleme hervorrufen. Dieses Risiko ist beim Cloudcomputing auf ein Minimum reduziert und ist somit ein weiterer wichtiger Vorteil; Dateien sind hier stets identisch, auch wenn von unterschiedlichsten Schnittstellen aus darauf zugegriffen wird. Selbst das Management des gleichzeitigen Zugriffs auf dieselbe Datei ist technisch möglich. Vereinfachung: Die Usability vieler cloudbasierter Anwendungen ist weniger komplex, da Prozesse in den Hintergrund verschoben sind, die nicht unmittelbar für den Zweck der Anwendung erforderlich sind. Ein prominentes Beispiel: die Entwicklung von Produkten, Apps und anderer Software auf cloudbasierten Plattformen (PaaS). Big-Data-Management: In der wissenschaftlichen Forschung, für Marktanalysen, im Gesundheitsbereich und einer Reihe weiterer Anwendungsbereiche gilt es zunehmend, extrem große Datenmengen zu erheben, zu vernetzen, zu analysieren und dann auch noch handlungsleitend zu visualisieren bzw. anderweitig erfassbar zu machen. Der Rechenaufwand hierfür ist ohne die Leistungsfähigkeit, Flexibilität und Vielseitigkeit der Cloud kaum oder gar nicht, jedenfalls aber nicht so effizient zu leisten. Allgemein haben in der genannten Studie gut 96 Prozent erklärt, dass sie mit dem Ergebnis ihrer Cloud-Migration überwiegend bis sehr zufrieden sind. 55 Prozent stellten einen positiven Effekt „sofort“ oder „nach kurzer Zeit“ fest. Viele Bestandsrechenzentren aus der Zeit „vor der Cloud“ laufen derzeit noch, aber die Hälfte der befragten Unternehmen hat bereits Im Sinn, Infrastruktur-Services zukünftig ausschließlich aus der Cloud zu beziehen, währen nur rund 20 Prozent das bestehende Rechenzentrum weiterlaufen lassen will.   Probieren Sie es doch einfach mal aus:   Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Xing. Daniel Fritsch, Digital Marketing Manager.

Können 94 Prozent irren, wenn es sich um die obersten IT-Verantwortlichen  von über 300 Unternehmen in der D-A-CH-Region handelt? Deren Aussage über die vollzogene Anwendungsmigration in die Cloud...

Business Analytics

And the winner is… – Ihr Unternehmen!

Der Eurovision Song Contest (ESC) ist ein geniales Trainingscamp für unternehmerische Datenanalysen und Datenvisualisierung. Denn die komplexen Verbindungen unter den über 40 Teilnehmerländern sowie mit dem Bewertungssystem können es an Kniffligkeit durchaus mit den Herausforderungen aufnehmen, die volatile Märkte für Unternehmen bereithalten. Vorhang auf für den 63. Eurovision Song Contest! Schauplatz war Lissabon, da Portugal im Vorjahr als Sieger hervorging. Nach dem Halbfinale am 8. und 10. Mai stieg am 12. Mai das große Finale – bei dem Deutschland mit einem 4. Platz in diesem Jahr nach langer Durststrecke, sehr erfreulich abgeschnitten hatte. Aber schauen wir mal, was die Daten aus der Vergangenheit hergeben. Für unsere Beitragsreihe mit "weniger typischen" Datenquellen für die Oracle Data Visualization haben wir diesmal fast schon Antiquitäten ausgegraben: historische Stimmdaten, die bis ins Jahr 1975 zurückreichen, als das 12-Punkte-Bewertungssystem zum ersten Mal verwendet wurde, ab 2004 auch für das Halbfinale. In Zusammenarbeit mit Ismail Syed vom Oracle UK Interns Programm analysierten und visualisierten wir historische Wahlmuster, um die erfolgreichsten und erfolglosesten Länder sichtbar zu machen sowie mögliche Günstlingswirtschaft zwischen benachbarten Ländern zu identifizieren. Es ist nicht immer, wie es scheint: Winner und Loser Es gibt Spitzenreiter und „Spitzen-Loser“, also Länder, die am häufigsten mit zwölf bzw. null Punkten ausgezeichnet wurden. Das Gewinner-Rudel führt – vielleicht keine Überraschung – Schweden an, 102-mal erhielt die Heimat von ABBA die 12 Punkte. Trotzdem ist Irland mit sieben Siegen das erfolgreichste Land: Die Schweden gewannen sechsmal, aber vor allem in den letzten Jahren, als schon mehr Länder mitstimmten. Russland liegt bei den "zwölf Punkten“ mit 87-mal auf dem zweiten Rang, hat aber eben nur einmal den Wettbewerb gewonnen. So gesehen ist Russland vielleicht  „erfolgreichster Verlierer". Interessant sind auch jene Länder, die am häufigsten mit null Punkten bewertet worden sind. Hier „führt“ Spanien mit 761-mal! Das überrascht insofern, als es Norwegen ist, das den Contest am häufigsten verloren hat. Finnland folgt Spanien mit 710-mal null Punkte. Großbritannien weist eine ausgewogene Mischung aus Erfolg und Misserfolg auf und erscheint in den Top Ten beider Charts. Soll heißen, an den Briten scheiden sich die Geister häufig. Liebe deinen Nächsten? – Die lieben Nachbarn Alte Eurovisions-Füchse werden es geahnt haben: Nachbarländer tun sich bei den Bewertungen nur selten weh; im Gegenteil, man hilft sich gegenseitig. Den auffallendsten Kuschelkurs fahren Zypern und Griechenland. Im Durchschnitt spendieren sie einander jährlich 10 Punkte. Das war auch beim jetzigen ESC so, zumindest einseitig – Griechenland hatte sich ja nicht qualifiziert. Auch Weißrussland und die Ukraine sympathisieren deutlich miteinander. Dänemark, Schweden und Norwegen bilden eine Art Skandinavien-Kartell bei der Bewertung, und die Iren und Briten treiben das Spiel diskret, aber immer noch mit durchschnittlich 5 jährlichen Punkten füreinander. Mehr oder weniger haben sich alle diese Werte auch in diesem Jahr bestätigt, wie die interaktiven Voting-Seiten des ESC anschaulich zeigen Einen gewissen Sonderfall bildet die Vorliebe der Deutschen für die Türkei beim Song Contest. Hier spielt höchstwahrscheinlich die relativ hohe Anzahl türkischstämmiger Bürger eine Rolle, die seit den 50er Jahren hierher gezogen sind und Familien gegründet haben. In Lissabon war die Türkei nicht dabei – es wäre sicher intreressant gewesen zu sehen, ob die politischen Spannungen an den früheren Ergebnissen etwas ändern. Ein wachsender Wettbewerbsmarkt Mit nur sieben Ländern begann der ESC im Jahr 1956. Immerhin bis 1975 reichen unsere Daten zurück; da war der Teilehmerkreis bereits auf 19 Länder angewachsen. Seit der Jahrtausendwende schließlich schwankt diese Zahl um die 40, gemessen an Ländern, die sich bewerben. Auf Überraschungen basieren Erfolge! Datenanalysen können unsere Annahmen bestätigen. Es kann aber auch sein, das sie unsere liebevoll erarbeiteten Vorurteile pulverisieren. Letzteres ist – und jetzt sind wir bei Unternehmensdaten! – oft das nützlichere Ergebnis einer guten Datenanalyse. Denn nur so gelingt es uns, von wirklich fundierten Fakten zu handlungsleitenden Erkenntnissen vorzustoßen! Im Business-Bereich gilt das oft für das Marketing. Unternehmen können zwar durchaus viele wichtige Daten über Services, Verkauf oder etwa Finanzen erfassen. Häufig werden diese Daten aber nicht nicht in Marketingpläne integriert und für Planungen im Bereich Strategie oder Kampagnen verwendet. Hier kann ein Self-Service-Datenvisualisierungstool eine echte Unterstützung für das Marketing sein, um Daten aus verschiedenen Quellen, etwa personenbezogene und Unternehmensdaten, zu bündeln. So entstehen Erkenntnisse und eine „Story“, um ein klareres Bild von der Wirklichkeit zu zeichnen. Erfahren Sie in unserem Whitepaper mehr darüber, warum Marketingexperten auf All-in gehen müssen. Finden Sie jetzt die erfolgskritischen Überraschungen in Ihren Daten: Werfen Sie einen Blick auf unser kurzes Demo und melden Sie sich für Ihre Testversion der Oracle Data Visualizationan! – Viel leichter, als sich durch Tabellenzeilen zu quälen, dafür mit viel mehr Output für Ihr Unternehmen..   Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Cesar Ortiz, Principal Solution Consultant.

Der Eurovision Song Contest (ESC) ist ein geniales Trainingscamp für unternehmerische Datenanalysen und Datenvisualisierung. Denn die komplexen Verbindungen unter den über 40 Teilnehmerländern sowie...

Customer Experience

Trek Bicycle setzt für besseren Kundenservice auf die Oracle Cloud

Trek Bicycle vollzieht den Shift zur Oracle Cloud Platform. Die Ziele: neue Fans für die Marke durch innovative mobile Lösungen, ein völlig anderes Reparaturmanagement und schnellerer Ausbau des Händlernetzes. Kundenservice hat bei Trek Bicycle, einem führenden Hersteller und Händler von Fahrrädern und Zubehör, höchste Priorität. Trek verweist mit Stolz darauf, die beste Lifetime-Garantie der Branche bieten zu können. Auch Mountainbiker und Rennradfahrer in Deutschland wissen das zu schätzen. Klarer Fall, dass die Verantwortlichen bei Trek die Ohren spitzten, als Händler nach einem besseren Reparaturmanagement fragten. An vorderster Stelle bei den Verbesserungen stand bei Trek schliesslich eine neue Mobile-App. Diese basiert auf der Oracle Cloud Platform und macht die Abläufe für alle Beteiligten erheblich reibungsloser. Dazu muss man wissen, dass Trek bereits 1976 gegründet wurde und seine Produkte über ein riesiges Netzwerk von mehr als 10.000 unabhängigen Fahrradhändlern in 90 Ländern der Welt verkauft. Mit den PaaS- und IaaS-Services von Oracle konnte Trek sein zum Teil in die Jahre gekommenes ERP-System erweitern und modernisieren. Es umfasst Lagerhaltung, Einkauf, Reparaturmanagement, Lagerhaltung und Distribution für das Unternehmen. Jetzt werden schnelle neue Mobile-First-Cloud-Anwendungen erstellt und integriert.   In einem ersten Schritt begann Trek, die Abläufe bei Reparaturforderungen der Kunden und die Zusammenarbeit mit den Händlern zu straffen. Mit Oracle Mobile Cloud Service, einer Schlüsselkomponente der Oracle Cloud Platform, entwickelte Trek eine innovative mobile Anwendung. Damit können Händler Reparaturanträge über ihre mobilen Geräte mit nur wenigen Klicks einreichen. Eine neue App vereinfacht bei Trek Bicycle die Reparatur und Reklamationen Wenn Radfahrer ihr Bike bei einem Unfall beschädigen bzw. anderweitig eine Reparatur oder Teile brauchen, wenden sie sich nun an einen der unzähligen Trek-Händler. Mit der neuen App für solche Fälle können diese einfach ein Foto des beschädigten Bikes machen und innerhalb weniger Minuten eine Schadensmeldung erstellen. Die App ist  über eine API direkt mit den Lieferketten-Anwendungen von Trek verbunden. Diese neue Anwendung zur Einreichung von Reparaturanträgen wird auch OCR-Technologie (OCR = Optical Character Recognition) enthalten. Damit können die Service-Profis die Kundenhistorie einfach durch Scannen der Seriennummer eines Bikes ermitteln. Auch Trek ist damit jetzt in der Lage, einen besseren Kundendienst für seine Bikes zu leisten und Bestandskunden besser zu unterstützen. "Wir kriegen damit eine Menge Funktionen in den Griff, die Händler bisher nur über ihre Terminals managen konnten oder indem sie uns anriefen. Jetzt spielen wir ihnen das alles einfach auf ihre Mobilgeräte – maximal effizient!", erklärt Tom Spoke, ERP-Direktor für alle Länder bei Trek. "Wir sind uns sicher, dass Schadensregulierungen auf diese Weise erheblich schneller funktionieren und dass die Leute in unserem globalen Händlernetzwerk jetzt mehr Zeit für den Verkauf von Bikes und für Kundenkontakte haben."  „Bisher dauerte die Eingabe einer Reklamation in unser bestehendes System etwa sechs Minuten", sagt Spoke. "Mit der App sollte das in ungefähr zwei Minuten erledigt sein. Jedes Mal vier Minuten weniger summiert sich ordentlich, wenn das Volumen steigt. Unseren Händlern verschafft das Luft, um schneller wieder zum eigentlichen Geschäft zu kommen." Den Trek-Kundendienstmitarbeitern könnte dieser Ansatz ebenfalls Zeit sparen. "Wir rechnen hier mit höherer Datengenauigkeit. Die Scan-Funktion bedeutet  ja, dass die Händler nicht so viele Informationen selbst eingeben müssen", fügt Spoke hinzu. "Das könnte viele Probleme und Telefonanrufe schon im Vorfeld vermeiden." Es ist also tatsächlich ein großer Fortschritt, den Händlern eine solche Funktionalität – buchstäblich! – in die Hand zu geben. Trek Bicycle will die Expansion beschleunigen und vereinfachen Trek plant aber noch weiter in die Zukunft: So sollen auch die PaaS-Services von Oracle zum Einsatz kommen, einschließlich der Oracle Service-Oriented Architecture (SOA) Cloud und der Oracle Developer Cloud. Der Zweck ist, das Geschäft weiter auszubauen, zu skalieren und schnell expandieren zu können. Dazu gehört der Aufbau elektronischer Verbindungen zu externen Logistikdienstleistern weltweit, einschließlich eines riesigen neuen Umsatzkanals durch Tmall, Chinas größtem Online-Marktplatz. Die Oracle SOA Cloud vereinfacht die Entwicklung externer Integrationen über zahlreiche Schnittstellen zu Einzelhändlern, und zwar über die Protokolle für den elektronischen Datenaustausch (EDI) und den verwalteten Dateitransfer (MFT). Diese werden zugleich an das lokale ERP-System von Trek angebunden. Mit diesen Cloud-basierten Entwicklungstools kann Trek dann den Prozess der Integration neuer Partner beschleunigen und schnell neue Integrationsservices etablieren. TREK zeigte sich schon jetzt beeindruckt davon, wie leicht sich der Oracle-Stack zwischen innerbetrieblicher IT am Standort und Cloud bewegen lässt. Kontakt: Wenn Sie mehr über Oracle Mobile Cloud erfahren wollen, spreche ich gerne mit Ihnen über dieses spannende Thema, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Trek Bicycle vollzieht den Shift zur Oracle Cloud Platform. Die Ziele: neue Fans für die Marke durch innovative mobile Lösungen, ein völlig anderes Reparaturmanagement und schnellerer Ausbau...

Business Analytics

Geheimnisse der Superhelden mit Oracle Data Visualization geknackt!

Was haben Superhelden – Ja, die in den Comics! – mit Ihrem Unternehmen zu tun? Mehr als Sie denken. Die Fans des Genres haben nämlich völlig intuitiv längst Strategien entwickelt, um Batman, Superman und Co bzw. ihre bösen Gegenspieler möglichst treffend zu durchschauen. Und das funktioniert durchaus ähnlich wie einige Analysen, die auch Sie in Ihrem Unternehmen tagtäglich durchführen müssen – beim HR-Recruiting etwa oder bei der Einschätzung Ihrer Mitbewerber. Am Beispiel von Superhelden zeigen wir Ihnen hier, dass neue Datenanalysen auch komplizierte Faktoren aus der realen Welt so darstellen können, dass Sie daraus interessante und wertvolle Erkenntnisse für Ihre Strategien und Ihr Handeln gewinnen. Sie können nämlich zu einem bestimmten Thema durchaus aus jedem Datensatz etwas ableiten, womit Zusammenhänge, aber auch Abweichungen sichtbar werden, von denen Sie sich nichts haben träumen lassen. In dieser Blog-Reihe wird es zur Illustration um Datensätze aus „ziemlich entlegenen“ Quellen gehen, um die Leistungsfähigkeit der Oracle Data Visualization vorzuführen. Mit dem Kinostart von Avengers: Infinity War von Marvel Studios hat der Superhelden-Hype die nächste Stufe erklommen. Anlass für uns, mit dieser Serie zu zeigen, wie Visual Analytics die Zutaten für so einen Superhelden enthüllen kann. Einem der Praktikanten von Oracle UK, Ismail Syed, verdanken wir Daten von Marvel Comics und DC Comics, um Visualisierungen zu erstellen, die uns helfen, Merkmale des typischen Superhelden und seines bösen Widerparts herauszufinden. Die Superhelden-Ästhetik Zunächst zum augenfälligen Aussehen der Figuren: Sowohl in Marvel- als auch in DC-Comics stellten wir fest, dass die häufigste Haarfarbe schwarz und die häufigste Augenfarbe blau ist. Das gilt – Obacht! – für die Guten wie die Bösen und unabhängig von ihrem Geschlecht. Leichte Abweichung bei den männlichen Figuren in Marvel-Comics: Sie haben eher braune Augen als blaue – vgl. folgende Graphik. Augenfarben insgesamt Die Augenfarbe ist in beiden Comics sehr unterschiedlich - von „normalen“ Farben bis zu violetten, roten oder orangefarbigen Augen und, wenn wir die DC-Wortwolke betrachten, Fotozellen-Augen wie bei Robotern.   DC Augenfarben   Nun zur Haarfarbe von Marvel-Figuren in Abhängigkeit des Geschlechts: „böse“ Männer haben viel häufiger schwarze Haare als ihre guten Gegenspieler (1.324 verglichen mit 697). „Gute“ Frauen hingegen haben doppelt so oft schwarze Haare wie böse (442 vs 284). Ist also eine Figur blond und männlich, ist es eine harte Nuss, ihre Absichten zu erkennen – die Anzahl der guten bzw. bösen blonden Männer ist mit 296 gegen 292 ungefähr gleich. Marvel: Haarfarben männlicher Figuren   Marvel: Haarfarben weiblicher Figuren   Das Puzzle männlich/weiblich – gut/böse Legen wir die Daten auf das Geschlecht der Figuren um, dann sehen wir, dass 72 Prozent der Charaktere bei Marvel Männer sind, 23 Prozent Frauen. Die restlichen 5 Prozent haben kein klares Geschlecht. Wie sieht das Verhältnis zwischen Gut und Böse aus? – Leider lebt man in Marvel-Comics ziemlich gefährlich: 3.739 Bad Guys versus 2.387 Good Guys! Aber: Hoffnung winkt von den Frauen: 1.300 gute, nur 726 böse. Wie vermutet: Böse Männer sind undercover unterwegs Interessant schien uns zu untersuchen, welche Gruppe am ehesten dazu neigt, die eigenen Superkräfte geheim zu halten. Ergebnis: In beiden Comics sind es natürlich vor allem die Bösen, die sich hinter einer normalen Identität tarnen, bei Marvel allerdings mit einem signifikanteren Unterschied: 2.505 böse Männer laufen undercover, nur 1.262 sind erkennbar. Bei den Frauen sind es 535 gegenüber 538. Bei den „Guten“ sieht es so aus: 1.039 Männer haben eine geheime Identität, 1.072 eine öffentliche Identität. Ist der Tod immer das Ende? Es kursiert ja das Gerücht, dass Captain America im neuen Film sterben könnte. Wir wollten die Wahrscheinlichkeit dafür ermitteln. Fans, schöpft Hoffnung! Wer auf Supermans Rückkehr in die Justice League hofft, kann sich auf unsere Daten stützen. Sie legen die Annahme nahe, dass Avengers sich nicht durch Nebensächlichkeiten wie den eigenen Tod von ihrer Mission abbringen lassen. Denn: Fast ein Drittel (27 Prozent) der einmal gestorbenen Figuren tritt in irgendeiner Form zu einem späteren Zeitpunkt wieder auf. Und nun die Vorteile für Ihr Unternehmen Wie Sie sehen, lassen sich auch aus so eigenartigen Quellen wie Comics Daten durchaus sinnvoll visualisieren, wenn man das mal braucht. Die Frage ist, wie das für ein Unternehmen anwendbar ist. Machen Sie die Probe aufs Exempel und geben Sie das Instrument Ihren Abteilungen in die Hände. Wenn zum Beispiel die Personalabteilung ähnliche Informationen über die Mitarbeiterschaft hätte wie wir in unserem Versuch über die Comicfiguren, ließen sich Talent sowie wesentliche Eigenschaften und Fähigkeiten viel besser verstehen. Wenn sich das interessant für Sie anhört, dann lesen Sie in unserem eBook, wie Sie mit Analytics einen HR-Vorteil erzielen können. Werfen Sie außerdem noch einmal einen Blick auf unseren Vergleich guter und böser Charaktere und wenden Sie das auf HR an: Sie könnten erkennen, wo Sie welche Fähigkeiten suchen oder entwickeln müssen, um Ihre geschäftlichen Herausforderungen besser zu meistern. In unserem neuen Webcast erfahren Sie mehr darüber, wie Sie Ihre Daten nutzen können, um eine leistungsstarke Organisation zu schaffen . Recruiten Sie jetzt Ihre eigenen Superhelden Visual Analytics bringt nicht nur Ihrer HR Vorteile, sondern jedem, der mit Daten arbeitet. Wenn Sie Erkenntnisse für alle relevanten Bereiche in Ihrem Unternehmen verfügbar machen wollen, sollten Sie eine vollständige, vernetzte und gemeinschaftliche Analyseplattform wie Oracle Analytics Cloud in Betracht ziehen. Im folgenden Video sehen Sie, wie einfach das ist. Und hier können Sie nun sofort loslegen!  Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Sabine Leitner, Sr. Marketing Manager.   

Was haben Superhelden – Ja, die in den Comics! – mit Ihrem Unternehmen zu tun? Mehr als Sie denken. Die Fans des Genres haben nämlich völlig intuitiv längst Strategien entwickelt, um Batman, Superman...

HR-Analytik: Die Freiheit für mehr Wachstum

  Inzwischen gibt es in fast jedem Geschäftsbereich wichtige Anwendungsszenarien für Analysen. Das Personalwesen ist da keine Ausnahme. Es gibt einen dynamischen Trend in Richtung evidenzbasiertes Management und den Wunsch nach Leistungssteigerung im Unternehmen und höherer Produktivität für und von den Mitarbeitern. Mithilfe zuverlässiger und zeitnaher HR-Analytik können die Verantwortlichen im Personalwesen viele der bestehenden Herausforderungen überwinden, erhalten einen umfassenden Überblick über die Belegschaft und gewinnen mehr Zeit für ihre eigentliche Aufgabe, nämlich die Unterstützung der Mitarbeiter und des Unternehmens. Die positiven Auswirkungen der HR-Analytik gehen jedoch weit über die Personalabteilung hinaus.  Wir nennen drei Wege, wie HR-Analytik nicht nur die Flexibilität und das Wachstum eines Unternehmens fördert, sondern auch eine komplette Neuausrichtung unterstützen kann. 1. Vorausschauend für besseres Risikomanagement Einer der größten Nachteile herkömmlicher HR-Datenanalysen ist, dass sie stets nach hinten blicken statt nach vorn. Sie erklären vielleicht, warum sich bestimmte Ereignisse so und nicht anders abgespielt haben. Doch wenn Sie die zukünftige Entwicklung Ihres Unternehmens unterstützen wollen, ist ein Verständnis vergangener Ereignisse nicht immer sachdienlich. Vorausschauende Analysen bieten dagegen einen zuverlässigen Überblick über das aktuelle Geschehen und die wahrscheinlichen Herausforderungen der Zukunft. Maschinelles Lernen kann Prognosen und Vorhersagen verbessern und uns Zeit geben, proaktiv Lösungen für Probleme zu finden, bevor sie auftreten. Wenn Ihre Analysen beispielsweise zeigen, dass ein hoher Prozentsatz Ihrer Belegschaft bald das Unternehmen verlassen wird, können Sie schon jetzt untersuchen, ob eine geplante Umstrukturierung den sich anbahnenden Personalmangel vermeiden oder noch erheblich verschärfen wird.  Wenn Sie ein Risiko vorhersehen, können Sie proaktiv tätig werden. Sie können potenzielle zukünftige Probleme untersuchen und ermitteln, was Sie heute schon ändern können und sollten. Wenn Sie heute mit HR-Analytik die richtigen Maßnahmen planen, haben Sie morgen Freiheit für mehr Wachstum. 2. Die richtigen Mitarbeiter und Kompetenzen für das Unternehmenswachstum Ganz gleich, wie Ihre Pläne für das Wachstum oder die Neuausrichtung Ihres Unternehmens aussehen – um sie umzusetzen, brauchen Sie die richtigen Mitarbeiter mit den richtigen Kompetenzen. Diese finden Sie möglicherweise nicht in Ihrer derzeitigen Belegschaft. Mit zunehmender Digitalisierung brauchen Sie neue Organisationsmodelle, Arbeitsweisen, Führungsstile und neue Kompetenzen. Da ist Personalplanung von zentraler Bedeutung. Ohne die richtigen Leute geht Ihre Strategie nicht auf. Mit HR-Analytik überprüfen Sie, ob Sie wirklich alle zukünftig benötigten Fertigkeiten an Bord haben, wo diese sich befinden und wo noch Lücken sind. Und ob Sie, statt neu einzustellen, bereits vorhandene Mitarbeiter weiterbilden können.   Sogar der Erfolg der Umstrukturierung selbst hängt entscheidend davon ab, ob Ihr Unternehmen über die erforderlichen Projektmanager, Datenanalysten und Führungskräfte mit dem richtigen Führungsstil verfügt. Deshalb sollten Sie nach der Ausarbeitung Ihrer Pläne mit HR-Analytik prüfen, ob alle Voraussetzungen für die erfolgreiche Umsetzung erfüllt sind. 3. Ihr Unternehmen als mitarbeiterzentrierter Arbeitgeber HR-Analytik steigert nicht nur die Effizienz der Personalabteilung, sondern spielt auch eine wichtige Rolle bei der Schaffung eines mitarbeiterorientierten Arbeitsumfelds. Wenn es beispielsweise darum geht, eine vorurteilsfreie Unternehmenskultur zu schaffen, können Datenanalysen vorhandene Probleme aufdecken und klar darstellen und somit die Entwicklung neuer Strategien zu deren Lösung unterstützen.  Ein objektiver Überblick über die Struktur der Belegschaft unterstützt die Personalabteilung dabei, in allen Situationen für alle Mitarbeiter gerechte Entscheidungen zu treffen. Das gilt für alle Aspekte aller Fragen, die an die Personalabteilung herangetragen werden, von der allgemeinen Beurteilung, ob ein Konflikt durch mangelnde Geschlechtergerechtigkeit oder andere Diversitätsaspekte verursacht oder verschärft wurde, bis hin zu Lösungen, die bei der Einstellung und Vergütung berücksichtigt werden sollten. Das Ergebnis ist ein Arbeitsplatz, an dem sich jede Person verstanden und wertgeschätzt fühlt, mit größeren Chancen für persönliche Entwicklung, effizientes Arbeiten, Engagement – und echter Freiheit zu mehr Wachstum für jeden Einzelnen. Erfahren Sie, wie komplett integriertes HCM Ihnen die Freiheit zu mehr Wachstum verschafft Wie auch immer Sie Ihr Unternehmen umgestalten wollen, mit HR-Analytik erhalten Sie Einblick in die bevorstehenden Herausforderungen, die größten Chancen und die Voraussetzungen für eine erfolgreiche Umsetzung. Wie viel Gewinn ist drin? Nutzen Sie das Online-Tool von Oracle, um einen personalisierten Bericht über die Vorteile der Oracle HCM Cloud für Ihr Unternehmen zu erstellen. Berechnen Sie Ihren Profit: Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail oder LinkedIn. Richard Cheeseman, Director HCM Applications Marketing EMEA.  

  Inzwischen gibt es in fast jedem Geschäftsbereich wichtige Anwendungsszenarien für Analysen. Das Personalwesen ist da keine Ausnahme. Es gibt einen dynamischen Trend in Richtung...

So profitieren Sie von Data Warehouses und Data Marts

Daten sind nur wertvoll, wenn sie sich in Geld verwandeln lassen. In diesem Blogbeitrag geht es darum, wie Sie einen echten Mehrwert aus Ihren Daten erzielen und die Rentabilität Ihrer Data Warehouses und Data Marts steigern. Wenn dieser Beitrag Ihr Interesse weckt, können Sie sich bei unserem bald stattfindenden Webinar genauer über die Bereitstellung cloudbasierter Data Warehouses und Data Marts mit Oracle informieren. Wie Daten Geld verdienen Wenn heutzutage von den Herausforderungen rund um Unternehmensdaten die Rede ist, geht es in der Regel um die Menge und die Komplexität der Daten. Die Diskussion dreht sich dann um die Verwaltung riesiger Datenmengen aus unterschiedlichen Quellen. Das ist jedoch nur die erste Hürde. Für die meisten Unternehmen besteht die größte Herausforderung darin, einen Mehrwert aus ihren Daten zu ziehen und diesen zu Einnahmen und letztendlich zu Profit zu machen. Wie verdienen Unternehmen mit ihren Daten Geld? Daten sind nur so gut wie der Mehrwert, den Sie damit generieren können. Unternehmen in allen Branchen finden neue Wege, um ihre Daten zu Geld zu machen und ihre enorme Business Intelligence bestmöglich auszunutzen. Unserer Erfahrung nach gibt es drei grundsätzliche Methoden, um dieses Ziel zu erreichen: Sie können die Daten als Ressource nutzen, um sich neue Einnahmequellen zu erschließen. Sie können Ihre Business Intelligence analysieren, um neue Chancen aufzudecken. Sie können Unternehmensdaten zur Effizienzsteigerung und Risikominderung nutzen. Alle drei Strategien eignen sich dazu, Rohdaten auf effiziente Weise in echten unternehmerischen Mehrwert mit messbarem Ertrag oder spürbarer Kostenersparnis umzusetzen. Sie erreichen dies auf ganz unterschiedliche Weise, haben aber dennoch Eines gemeinsam: Ohne eine umfassende Analyse und eine standardisierte und gut verwaltbare Datenbasis sind sie nicht erfolgreich. Sehen wir uns beispielsweise den Oracle-Kunden DX Marketing näher an. Mit den Services Oracle Database Cloud und Oracle Business Intelligence Cloud kann das Unternehmen nun erheblich schneller praxistaugleiche Erkenntnisse über seine Kunden aus seinen Daten gewinnen. Dadurch stieg der Umsatz um 25 % – eine deutliche Einkommenssteigerung durch die richtige Nutzung von Unternehmensdaten. Schnellere Bereitstellung in der Cloud Zeit ist der Gegner aller Versuche zur Monetarisierung von Daten. Je mehr Ressourcen Sie in die Einrichtung von Data Warehouses oder Data Marts sowie das Einspeisen und die Analyse der Daten investieren müssen, desto geringer sind der verbleibende Nettowert und der Gewinn. Schnelligkeit ist das A und O. Daher entscheiden sich diejenigen, die wirklich Nutzen aus einem Data Warehouse ziehen wollen, für eine cloudbasierte Bereitstellung. In der Cloud können Sie ein Data Warehouse in einem Bruchteil der Zeit einrichten, die für die Erstellung eines vergleichbaren Datenspeichers in Ihrem Unternehmen erforderlich wäre. Oft bieten Cloud-Services zudem integrierte Analyse- und Visualisierungstools, mit denen Sie schneller Erkenntnisse (und einen Mehrwert) aus Ihren Daten gewinnen können. Einfachere Wartung, mehr Gewinn Je schneller Datenanalysen verfügbar sind, desto schneller profitieren Sie von Ihrem neuen Data Warehouse oder Data Mart. Bei der Monetarisierung von Daten geht es jedoch nicht nur darum, rasch eine Analyselösung bereitzustellen. Die profitable Monetarisierung setzt auch voraus, dass die langfristige Pflege, Überwachung und Aktualisierung Ihrer Data Warehouses und Data Marts nicht zu viele Ressourcen beansprucht. In einem früheren Blog haben wir die sich selbst verwaltete, sich selbst schützende und selbst reparierende Autonomous Data Warehouse Cloud (ADWC) von Oracle vorgestellt und erläutert, wie sie den Ressourcenbedarf für die Wartung reduziert. Eine solche Lösung ist natürlich ein enormer Vorteil für Unternehmen, die ernsthaft von ihren Daten profitieren möchten. Zudem reduziert ein geringerer Wartungsaufwand auch die Stromkosten für Data Warehouses und lässt mehr Zeit und Energie für Analysen und andere hochwertige Aufgaben im Sinne einer verbesserten Rentabilität der Daten. Mit Oracle ADWC lässt sich zudem das mit dem Datenmanagement verbundene Risiko deutlich mindern. Durch die Automatisierung verschwindet das Risiko von Bedienfehlern und Sie profitieren von einer sichereren, strafferen Datenverwaltung. Alle Ihre Daten an einem Ort  Die zentrale Verwaltung von Daten aus verschiedenen Quellen ist eine weitere Voraussetzung für die Rentabilität der Monetarisierung. Nur wenn Sie ein breites Spektrum von Daten erfassen und miteinander in Bezug setzen – von Kunden- und Betriebsdaten bis hin zu Daten von Drittanbietern – können Sie sich einen ganzheitlichen Überblick verschaffen, alle Details berücksichtigen und letztendlich den höchsten Gewinn erzielen. Die Bereinigung der Daten aus all diesen verschiedenen Quellen und ihre korrekte Einspeisung in das Data Warehouse stellt für manche Unternehmen jedoch eine große Herausforderung dar – insbesondere für diejenigen, die kein ganzes Team von Datenspezialisten und Experten im Unternehmen haben. Auch hier können Cloud-Services Abhilfe schaffen.  So bietet Oracle beispielsweise voll integrierte, anwenderfreundliche Datentools für die Integration (Oracle Integration Cloud) und Analyse (Oracle Analytics Cloud) an, die die Auswertung von Daten aus einer Vielzahl von Quellen und die Erkenntnisgewinnung wesentlich vereinfachen. Nächste Schritte Wenn Sie mehr über Möglichkeiten zur Steigerung der Rentabilität von Data Warehouses und Data Marts erfahren möchten, sollten Sie sich unser nächstes Live-Webinar nicht entgehen lassen. Dort zeigen wir Ihnen, wie Sie einen solchen Datenspeicher rasch einrichten und umgehend gewinnbringend nutzen können. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Jon Tutcher, Cloud & Core Technology Director, EMEA.  

Daten sind nur wertvoll, wenn sie sich in Geld verwandeln lassen. In diesem Blogbeitrag geht es darum, wie Sie einen echten Mehrwert aus Ihren Daten erzielen und die Rentabilität Ihrer Data Warehouses...

Mehr Leads. Mehr Chancen. Weniger Aufwand.

Automatisierte Marketingprozesse haben den manuellen Arbeitsaufwand für die Interaktion mit Interessenten und das Management der Marketingkommunikation erheblich reduziert. Doch es geht nicht nur darum, die Kommunikation mit Leads einfacher und kostengünstiger zu gestalten.  Durch die Automatisierung Ihrer Marketingprozesse unterstützen Sie Ihr Unternehmen außerdem dabei, mehr Interessenten in Kunden zu verwandeln, um drastische Umsatzsteigerungen zu erzielen. Laut einer aktuellen Studie von VentureBeat nahm die Anzahl der Leads nach einer Automatisierung der Marketingprozesse bei 80 Prozent der Befragten zu – und 12 Prozent berichteten sogar von einem Anstieg von über 50 Prozent. Das ist ein deutliches Indiz dafür, dass eine erfolgreiche Automatisierung der Marketingprozesse erhebliche Gewinne und neue Chancen verspricht. Doch wie genau eröffnet die Automatisierung Freiräume für eine Neuausrichtung von Lead-Generierung und Lead-Management? Wie Ihnen automatisierte Prozesse die Freiheit zur Transformation eröffnen Die Vorteile automatisierter Marketingprozesse gehen weit über den automatischen Versand von Marketingmaterialien hinaus. Durch einen neuen Ansatz für die Erledigung von Routineaufgaben im Rahmen der Lead-Generierung schaffen Sie die Möglichkeit, Ihre Prozesse für das Management der Pipeline von Grund auf zu verändern und auf vielfältige Weise anzupassen. Schnelle, eindeutige Regeln für die Bewertung und Einstufung von Leads Wenn Sie automatisierte Marketingprozesse implementieren, sollten Sie möglichst genau definieren, welche Indikatoren auf die Kaufbereitschaft eines Leads hinweisen und was auf ein starkes, potenziell äußerst lukratives Interesse hindeutet. So erleichtern Sie die Arbeit Ihrer Marketing- und Vertriebsteams, die sich bei der Entscheidung, ob ein Kunde nun kaufbereit ist oder nicht, bislang womöglich an einigen vagen Kriterien oder ihrem „Bauchgefühl“ orientiert haben. Mit einheitlichen, eindeutigen Definitionen fördern Sie eine gute Zusammenarbeit mit dem Vertrieb, weil Interessenten nur dann an die Vertriebsmitarbeiter weitergeleitet werden, wenn sie – nach deren Maßstäben – zum Kauf bereit sind. Konsistente Kommunikation zum richtigen Zeitpunkt  Lead-Generierung und -Management erfordern viel Fingerspitzengefühl. Mit einem Interessenten zum passenden Zeitpunkt über den richtigen Kanal Kontakt aufzunehmen bedeutet zuweilen den Unterschied zwischen einer erfolgreichen Kundenakquise und dem vollständigen Verlust eines wertvollen Leads. Doch beim manuellen Versand von Marketingnachrichten und -materialien wird der richtige Zeitpunkt häufig verpasst. Schließlich sind die besten Marketing- und Vertriebsprofis auch nur Menschen. Automatisierte Marketinglösungen können hier Abhilfe schaffen. Automatisierte Kommunikationslösungen für Marketing und Vertrieb ermöglichen es Ihren Mitarbeitern, mit Kunden und Interessenten in Kontakt zu bleiben und zum richtigen Zeitpunkt auf sie zuzugehen. So lässt sich verhindern, dass Interessenten kurz vor der Konversion die Pipeline verlassen. Interessenten schrittweise kennenlernen, anstatt gleich zu Beginn viele Fragen zu stellen Kennen Sie das? Sie besuchen eine Landing Page, weil Sie sich über ein bestimmtes Thema informieren möchten, doch bevor Sie die relevanten Inhalte zu Gesicht bekommen, erscheint ein umfangreiches Formular auf Ihrem Bildschirm, in das Sie erst einmal Ihre gesamte Lebensgeschichte eingeben müssen. Da Ihnen das zu aufwendig erscheint, schließen Sie das Fenster und meiden die betreffende Website in Zukunft. Mithilfe automatisierter Marketinglösungen können Sie das Verhalten Ihrer Kunden und Interessenten einfacher erfassen und sukzessive ein besseres Verständnis ihrer Anforderungen und Erwartungen erlangen, ohne sie gleich am Anfang abzuschrecken. Wenn Sie die erste Kontaktaufnahme mit Ihrem Unternehmen für potenzielle Kunden so einfach und unaufdringlich wie möglich gestalten, wird eine größere Zahl von Interessenten diese Möglichkeit nutzen. Außerdem sind Ihre neuen Leads auskunftsfreudiger, weil bei jedem Kontakt nur eine oder zwei Informationen abgefragt werden. Dabei ist auch von Vorteil, dass sie nicht jedes Mal wieder ihre E-Mail-Adresse oder den Namen ihres Unternehmens eingeben müssen, da Sie immer nur nach Informationen fragen, die Ihnen noch nicht bekannt sind. Mehr Zeit für wertschöpfende Aufgaben Auch wenn die Pflege und Konversion von wertvollen Leads die persönliche Kontaktaufnahme erfordert, bedeutet dies nicht, dass Automatisierung hier keine Vorteile bietet. Wenn Sie die routinemäßigen, alltäglichen Prozesse der Lead-Generierung automatisieren, können Ihre Verkaufstalente mehr Zeit in die Konversion vielversprechender Interessenten investieren. Das bedeutet mehr Zeit für persönliche Gespräche mit potenziellen Kunden, mehr Zeit für den direkten Kontakt und mehr Zeit für detaillierte Marktanalysen, die wertvolle Erkenntnisse bringen – Kurz: mehr Zeit für wertschöpfende Aufgaben, die Ihre Teams aufgrund hoher Arbeitslasten derzeit nicht effektiv angehen können. Vereinfachte Automatisierung. Neue Ansätze zur Lead-Generierung. Die Automatisierung Ihrer Marketingprozesse verschafft Ihnen die Freiheit, fast jeden Aspekt der Lead-Generierung und des Lead-Managements neu zu gestalten. Das bedeutet jedoch nicht, dass die Umstellung zwangsläufig kompliziert und schwierig ist. Genau wie andere Initiativen zur Neuausrichtung der Unternehmensprozesse dient auch die Automatisierung des Marketings vor allem dazu, Ihnen die Arbeit zu erleichtern. Wir können Ihnen dabei helfen, die Umstellung so einfach und reibungslos wie möglich zu gestalten. Unsere Produktdemo der Oracle Integrated Cloud zeigt, wie Sie Ihren Kunden eine hervorragende Nutzererfahrung und ein konsistentes, überzeugendes Markenimage bieten. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Kai Egierski, Digital Marketing Manager Northern Europe.

Automatisierte Marketingprozesse haben den manuellen Arbeitsaufwand für die Interaktion mit Interessenten und das Management der Marketingkommunikation erheblich reduziert. Doch es geht nicht nur...

Mitarbeiterorientierte Strategien vereinfachen den digitalen Wandel

Der Erfolg jeder Neuausrichtung der Unternehmens- und Geschäftsprozesse hängt wesentlich von den Mitarbeitern ab. In vielen Unternehmen ist die cloudbasierte Zusammenarbeit von Personal- und Finanzexperten ein wichtiges Beispiel für die mitarbeiterorientierte Neuausrichtung der Prozesse mithilfe der Cloud. Dadurch wird die digitale Transformation für alle Beteiligten einfacher. Beim Begriff „digitale Transformation“ denken Sie womöglich sofort an innovative neue Technologien, moderne digitale Prozesse und die Triebfedern der vierten industriellen Revolution – KI, maschinelles Lernen, das Internet der Dinge und Automatisierung. Dabei handelt es sich zweifellos um wichtige Elemente der digitalen Zukunft Ihres Unternehmens, doch es fehlt noch ein zentrales Puzzleteil in dieser Aufzählung: Ihre Mitarbeiter. Letztlich sind sie die treibende Kraft hinter jeder noch so kleinen Veränderung. Eine digitale Transformation, die Ihren Mitarbeitern die Arbeit vereinfacht und ihnen sinnvoll erscheint, findet schnell breite Unterstützung und wird dadurch zum Erfolg. Die Konsolidierung und Integration von Personalmanagement und Finanzprozessen in der Cloud ist hierfür ein perfektes Beispiel.  durch diese Maßnahme werden die Arbeitsprozesse beider Teams gestrafft und die Effizienz beider Abteilungen gesteigert – ein überzeugendes Beispiel für den profitablen Einsatz der Cloud, das für viele Unternehmen attraktiv ist. Kurz: Die Integration gibt Personal- und Finanzexperten die Freiheit, ihre jeweiligen Aufgaben einfacher zu erledigen und Abläufe bedarfsgerecht anzupassen. Die Integration von Personalmanagement und Finanzwesen bietet vier Vorteile für Unternehmen und Belegschaften im digitalen Wandel 1. Sie können sicherstellen, dass Sie über die richtigen Mitarbeiter für die digitale Transformation verfügen. Jede geplante Umstellung und Neuausrichtung muss von entsprechend qualifizierten Mitarbeitern gemanagt werden. Bisweilen ist es dafür nötig, neue Talente einzustellen, projektspezifische Schulungen durchzuführen und zusätzliche Ressourcen hinzuzuziehen. Derartige Entscheidungen treffen Personal- und Finanzexperten am besten gemeinsam.  Durch eine Integration der beiden Teams und ihrer Prozesse bekommen alle Abteilungen einen klaren Überblick darüber, welche Ressourcen wo benötigt werden und welche Investitionen oder Neuerungen zum Erfolg führen. 2. Mit unternehmensweit geltenden Erfolgskriterien lässt sich die digitale Transformation in die gewünschten Bahnen leiten. Wenn Sie Ihre HR- und Finanzprozesse integrieren, vereinheitlichen Sie auch die in beiden Abteilungen angewendeten Erfolgskriterien. Das sorgt dafür, dass Finanz- und Personalexperten auch dann an einem Strang ziehen und dieselben geschäftlichen Ziele im Blick behalten, wenn sie gerade nicht direkt zusammenarbeiten. Mit einheitlichen Kriterien kommen Sie Ihrem geschäftlichen Erfolg viel schneller näher und vermeiden sowohl Missverständnisse als auch Zielkonflikte in der Transformationsphase. 3. Wenn Sie Routineaufgaben vereinfachen, können sich Ihre kreativen Köpfe auf die wirklich wichtigen Dinge konzentrieren. Digitalisierungsinitiativen und andere Modernisierungsprojekte sind sehr arbeitsintensiv und erfordern die Mitwirkung von Mitarbeitern aus vielen Unternehmensbereichen. Deshalb ist es ein großer Vorteil, wenn Sie Personalmanagement und Finanzwesen in der Cloud zusammenführen und dadurch die Routineaufgaben beider Teams so stark vereinfachen, dass dafür deutlich weniger Arbeitszeit aufgewendet werden muss. Diese Zeiteinsparungen entlasten Ihre Mitarbeiter, die sich dadurch verstärkt auf die wirklich wichtigen Dinge wie beispielsweise Innovationsprozesse konzentrieren können. Das bringt das Unternehmen insgesamt voran und macht die digitale Transformation für alle Angestellten und Abteilungen einfacher. 4. Gemeinsame Performanceindikatoren und eine einheitliche Datenbasis ermöglichen bessere Geschäftsergebnisse. Die Integration von Personalmanagement und Finanzwesen ist der nächste logische Schritt für Ihr Unternehmen. Da beide Abteilungen geschäftskritische Ressourcen verwalten, ist es nur konsequent, dass sie eng miteinander zusammenarbeiten, Daten austauschen und dieselbe Sprache sprechen. Durch die Implementierung dieses Ansatzes werden Personal- und Finanzteams in die Lage versetzt, dieselben finanziellen und nicht finanziell bezifferbaren Performanceindikatoren zu messen, darunter die Diversität des Arbeitsumfelds, die Lohngleichheit der männlichen und weiblichen Angestellten und der geschäftliche Erfolg. Auf zum Erfolg: erste Schritte Die cloudbasierte Integration Ihrer Personal- und Finanzprozesse ist eine einfache Möglichkeit, die bevorstehenden Anpassungen der Unternehmens- und Geschäftsprozesse für alle Mitarbeiter reibungsloser zu gestalten. Durch diese Umstellung erhalten beide Abteilungen die Freiheit, zukünftige Modernisierungsprojekte für alle Beteiligten zu vereinfachen. Berechnen Sie, wie viel Sie mit einer konsolidierten Cloud-Plattform für ERP und HCM einsparen könnten. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail und LinkedIn. Dee Houchen, Product Marketing Director.

Der Erfolg jeder Neuausrichtung der Unternehmens- und Geschäftsprozesse hängt wesentlich von den Mitarbeitern ab. In vielen Unternehmen ist die cloudbasierte Zusammenarbeit von Personal- und...

Mehr Freiheit für Innovationen durch die Industrie 4.0

Die Industrie 4.0 wird die geschäftliche Kommunikation sowie die Betriebsabläufe und Innovationsprozesse von Unternehmen grundlegend verändern – unabhängig davon, ob das Management darauf vorbereitet ist oder nicht. Wenn Sie jetzt die Initiative ergreifen und auf Technologien für die Industrie 4.0 umstellen, können Sie Ihre Produktpalette optimieren und so dafür sorgen, dass Ihr Unternehmen im Wettbewerb auch künftig die Nase vorn hat und nicht von den Mitbewerbern abgehängt wird. Die Industrie 4.0 eröffnet Ihnen neue Geschäftschancen und mehr Freiräume für Innovationen in allen Unternehmensbereichen – von der Produktentwicklung bis hin zur Kundenanalyse. Doch wie alle technologischen Revolutionen stellt auch die Industrie 4.0 Unternehmen vor die Wahl: mitgehen oder untergehen.  Nur wenn Sie darüber informiert sind, welche Möglichkeiten die Industrie 4.0 Ihrem Unternehmen eröffnet, und die Umstellung noch heute einleiten, können Sie die Freiheit zur Innovation nutzen und Ihre Produktpalette proaktiv optimieren, bevor Ihre Mitbewerber an Ihnen vorbeiziehen. Mit der Industrie 4.0 zur optimalen Produktpalette Ein ansprechendes Produkt- und Serviceangebot basiert auf ... • ... Erkenntnissen, Know-how und Ideen von Mitarbeitern aus allen Unternehmensbereichen und Lieferkettensegmenten, • ... einem aktuellen, detaillierten Überblick über die Anforderungen und Vorlieben der Kunden, • ... einem Produktteam, das über die Zeit und Ressourcen verfügt, um sich der Entwicklung innovativer Ideen und Strategien zu widmen.   Und jetzt die gute Nachricht: Die bahnbrechenden Technologien der Industrie 4.0 ermöglichen Verbesserungen in allen drei genannten Punkten und bieten Ihnen in sämtlichen Phasen des Produktlebenszyklus die nötige Freiheit zur Innovation.   Intelligentere Kommunikation für effektivere Innovationsprozesse Die besten und innovativsten Produkte entstehen dann, wenn Mitarbeiter aller Unternehmensbereiche und -standorte effektiv miteinander kommunizieren und gemeinsam Ideen entwickeln können.   Plattformen für die digitale Kommunikation und Zusammenarbeit ermöglichen es Herstellern von Konsumgütern, die für die Branche typischen Silostrukturen zu überwinden und damit den standortübergreifenden Austausch zwischen Teams und Mitarbeitern in aller Welt zu stärken.   Indem sie von Anfang an mehr Mitarbeiter in die Produktentwicklung und -optimierung einbeziehen, können Unternehmen die Fachkenntnisse und Einblicke von Experten aus verschiedenen Abteilungen, Hierarchieebenen und Lieferkettensegmenten zur Optimierung ihres Angebots und ihrer Prozesse nutzen.   Eine gemeinsame Datenbasis für bessere Zusammenarbeit und mehr Innovationen Die Verbesserung der abteilungs- und standortübergreifenden Zusammenarbeit ist jedoch nur der erste Schritt auf dem Weg zur optimierten Produktpalette. Zusätzlich sind zentralisierte Daten- und Analyseplattformen erforderlich, die allen Teams die Auswertung sämtlicher Geschäfts-, Unternehmens- und Kundendaten ermöglichen.   Damit können Ihre Mitarbeiter die Erkenntnisse gewinnen, die sie als Grundlage für fundierte Entscheidungen benötigen. Außerdem sind der Informations- und Wissensaustausch mit verschiedenen Unternehmensbereichen und die Interpretation der erfassten Daten aus verschiedenen Blickwinkeln der ideale Nährboden für innovative Ideen.    Automatisierte Analysen   Künstliche Intelligenz (KI) und maschinelles Lernen sind die treibenden Kräfte der vierten industriellen Revolution. Bei der Entwicklung eines erfolgreichen Produktangebots spielen KI und maschinelles Lernen eine Schlüsselrolle, da sie riesige Datenmengen verarbeiten und diese als nutzbare Information automatisch an die relevanten Personen weiterleiten können.   KI und maschinelles Lernen versetzen Sie in die Lage, die von Kunden und aus Ihrer Lieferkette gewonnenen Daten schnell zu analysieren und gewonnene Erkenntnisse praktisch umzusetzen. So können Sie lukrative neue Geschäftschancen vor Ihren Mitbewerbern nutzen. Die Wettbewerbsvorteile, die Ihnen die Technologien der Industrie 4.0 verschaffen, lassen sich nur mit KI und maschinellem Lernen dauerhaft sichern.   Mehr Zeit für Kernaufgaben   Die robotergestützte Prozessautomatisierung (RPA) und ausgereifte neue Plattformen ermöglichen die Automatisierung eines großen Teils der im Verlauf des Produktlebenszyklus anfallenden Routineaufgaben. Dadurch können sich Ihre Mitarbeiter auf Innovationen, neue Strategien und die Produktoptimierung konzentrieren.   In einem auf die Industrie 4.0 ausgerichteten Unternehmen werden beispielsweise die Verwaltungsteams von der manuellen Eingabe von Daten und die für ein bestimmtes Produkt zuständigen Entscheidungsträger von der Berichterstellung entlastet, damit alle Fachkräfte die neue Freiheit zur Innovation voll und ganz ausschöpfen können.   Optimale Produkte zur richtigen Zeit auf die richtige Weise bereitstellen Haben wir Ihr Interesse geweckt? Möchten Sie mehr darüber erfahren, wie Sie mit den Technologien der Industrie 4.0 eine für Ihre Kundenbasis und Ihre Geschäftsmodelle optimierte Produktpalette bereitstellen können?   Nutzen Sie das Online-Tool von Oracle, um einen personalisierten Bericht über die Vorteile der Oracle SCM Cloud für Ihr Unternehmen zu erstellen.         Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, Xing, LinkedIn oder Twitter. Ulf Köster, Solution Director Oracle Innovate.  

Die Industrie 4.0 wird die geschäftliche Kommunikation sowie die Betriebsabläufe und Innovationsprozesse von Unternehmen grundlegend verändern – unabhängig davon, ob das Management darauf...

Die richtigen Systeme ebnen den Weg zur DSGVO-Compliance

Wenn es um die DSGVO-Compliance geht, reicht Datenbank-Sicherheit allein bei Weitem nicht aus. Die Verantwortlichen in Unternehmen müssen auch Produktionssysteme unter die Lupe nehmen, denn dort sind Daten häufig deutlich anfälliger als in Data Warehouses. Ein guter erster Schritt ist der Einsatz von Systemen, die mit robusten Sicherheitsfunktionen für die DSGVO-Compliance ausgestattet sind. Im Zusammenhang mit der neuen Datenschutz-Grundverordnung (DSGVO) denken viele von uns zuerst an die großen Datenmengen, die in Datenbanken und Data Warehouses gespeichert sind. Doch mit dem Schutz dieser Daten ist es noch längst nicht getan, denn Datenbanken enthalten nur einen relativ kleinen Teil der Daten eines Unternehmens – deutlich mehr werden in Produktionssystemen verwendet. Dort sind sie deutlich anfälliger für Hackerangriffe und Datendiebstahl. Um sicherzustellen, dass Ihre Maßnahmen zur DSGVO-Compliance wirklich alle Daten in Ihrem Unternehmen einschließen, müssen Sie über Ihre Datenbanken hinaus blicken und die Datensicherheit auch auf Systemebene angehen. Geeignete Systeme mit der nötigen Sicherheit und Robustheit können den Ausschlag dafür geben, ob Sie lediglich das Restrisiko von Sicherheitsvorfällen managen müssen oder aber äußerst anfällig für Angriffe sind. Dieser Blog-Artikel erläutert die vier zentralen Kriterien, die ein System für mittelgroße Unternehmen meiner Meinung nach erfüllen muss, damit die DSGVO-Compliance so einfach und effizient wie möglich erreicht werden kann. 1.Vertraulichkeit (Zugriff auf Daten wird nur Personen und Prozessen gewährt, die ihn unbedingt benötigen.) Wenn Sie dafür sorgen, dass nur die Personen und Prozesse auf Daten zugreifen können, die diese Daten zwingend benötigen, haben Sie das Risiko eines Datenlecks im Sinne der DSGVO bereits deutlich reduziert. Je weniger Personen auf bestimmte Daten zugreifen können, desto geringer ist das Risiko, dass diese Daten in falsche Hände gelangen. Und desto leichter ist es, im Falle eines Datenlecks die Quelle ausfindig zu machen. Strenge Sicherheitsrichtlinien sind ein Schritt in die richtige Richtung, reichen aber allein nicht aus. Damit die Daten wirklich rundum geschützt sind, muss das System sie automatisch ver- und entschlüsseln können, ohne die Prozessoren übermäßig zu beanspruchen. Die CPUs der SPARC-Systeme von Oracle verfügen über eigene Krypto-Kerne für die Entschlüsselung, damit die Sicherheit nicht zu Lasten der Leistung geht. Sie können die Hardwareverschlüsselung mit nur einem Mausklick aktivieren. Einfacher geht es nicht. Zusätzlich können Sie anhand der rollenbasierten Zugriffsbeschränkung steuern, wer auf welche Daten zugreifen darf, und die Zugriffe protokollieren. Dies ist von größter Wichtigkeit, um die DSGVO-Anforderungen zur Überprüfbarkeit zu erfüllen. Eine zeitbasierte Zugriffssteuerung ermöglicht ein noch höheres Maß an Kontrolle. Darüber können Sie nicht nur festlegen, wer was bearbeiten darf, sondern auch, wann. Diese Möglichkeit ist besonders wertvoll, um das Worst-Case-Szenario eines Sicherheitsvorfalls außerhalb der Bürozeiten – wenn die Systeme besonders anfällig sind – zu verhindern. 2.Integrität (Datenkorrektheit ist überprüfbar und Änderungen sind nachvollziehbar.) Wir generieren pausenlos neue Daten, mehr als je zuvor. Ein Großteil dieser Daten muss jederzeit abgerufen und geändert werden können, rund um die Uhr an jedem einzelnen Tag im Jahr. Herkömmliche Verfahren zur Integritätsprüfung versagen bei diesen Datenmengen. Speichersysteme der Reihe Oracle ZFS nutzen beispielsweise Prüfsummen, um unautorisierte Datenmanipulationen zu erkennen und rückgängig zu machen. Wenn ein Datenträger vorübergehend fehlerhafte Daten liefert, erkennen die ZFS-Systeme dies und wiederholen den Lesevorgang. Wenn der Datenträger Teil eines gespiegelten Systems oder einer RAID-Z-Gruppe ist, korrigiert das ZFS-System den Fehler außerdem. Dazu ermittelt es anhand der Prüfsumme, welche der verfügbaren Kopien unbeschädigt ist, liefert diese an die Anwendung und repariert die beschädigte Kopie. 3.Verfügbarkeit (Daten sind bei Bedarf jederzeit verfügbar.) Die DSGVO fordert, dass die personenbezogenen Daten, die Sie zu Einzelpersonen speichern, jederzeit leicht verfügbar sind. Die Erfüllung dieser Anforderung kann jedoch schwierig werden, wenn die Verfügbarkeit einiger Systeme Ihnen ohnehin Probleme bereitet. Glücklicherweise haben moderne Systeme Vorgänge wie das Einspielen von Patches (die Systemausfälle verursachen können) erheblich vereinfacht. Bei Oracle-SPARC-Systemen mit Solaris können Sie zum Beispiel Schnappschüsse der Produktionsumgebungen anfertigen. An einem solchen Schnappschuss können Sie Patches testen und Systemänderungen ausprobieren. Wenn alles in Ordnung ist, kann der aktualisierte Schnappschuss im Handumdrehen als neue Produktionsumgebung eingesetzt werden. Die Vorteile: keine Ausfallzeiten beim Einspielen des Patches, weniger Patch-Fehler in Produktionsumgebungen und letztlich eine bessere Verfügbarkeit von System und Daten. 4.Überprüfbarkeit (Es ist nachvollziehbar, wer wann was getan hat.) Die Aufzeichnung aller Datenzugriffe und ‑änderungen und eine entsprechende Berichterstellung sind seit Jahren gängige Best Practices im Bereich der Datensicherheit. Mit der DSGVO werden sie nun zur Pflicht. Angesichts der sich kontinuierlich zuspitzenden Bedrohungslage ist es zudem ratsam, Aktivitäten nicht nur aufzuzeichnen, sondern die Logdateien außerdem kontinuierlich an ein anderes Rechenzentrum zu senden und dort zu speichern. Damit verhindern Sie die Manipulation der Logdateien und machen es Eindringlingen sehr schwer, ihre Spuren im System zu verwischen. DSGVO-Compliance sollte sich nicht von Best Practices für Datensicherheit und Datenschutz unterscheiden Ihre Systeme sind ein wichtiger Baustein im Gefüge Ihrer Maßnahmen zur Einhaltung der DSGVO-Vorgaben. Man könnte sogar sagen, Systeme mit den richtigen Funktionen und Konfigurationen sind bereits die halbe Miete, um die Vorgaben der DSGVO zu erfüllen. Obendrein können sie viele besonders komplexe Anforderungen enorm vereinfachen. Zudem sollten die Best Practices der Datensicherheit in Unternehmen ohnehin angewendet werden, und letztlich geht es bei der DSGVO genau darum. Beschränken Sie sich bei Ihren Vorbereitungen auf die DSGVO also nicht auf die Datenbanken, sondern prüfen Sie, wie anspruchsvollere und sicherere Systeme die ganzheitliche Umsetzung von Compliance und Datensicherheit vorantreiben könnten. Die nächsten Schritte  Melden Sie sich für unser Live-Webinar an: Dort erfahren Sie mehr über die hier vorgestellten Funktionen und lernen die Systeme besser kennen, die Ihrem Unternehmen die Freiheit zur Vereinfachung von Sicherheit und DSGVO-Compliance geben. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter, Martien Ouwens, Enterprise Architect, Architecture and Cloud Enablement EMEA.  

Wenn es um die DSGVO-Compliance geht, reicht Datenbank-Sicherheit allein bei Weitem nicht aus. Die Verantwortlichen in Unternehmen müssen auch Produktionssysteme unter die Lupe nehmen, denn dort sind...

Erfolgreiche Verknüpfung von Anwendungen und Daten mit APIs

Co-Autor:  Kulvinder Har und Barry O’Reilly Ein vollständig vernetztes Unternehmen kann schneller innovative Lösungen entwickeln und einsetzen, um das herausragende Kundenerlebnis zu bieten, das seine Kunden erwarten. Mit optimierten Cloud-Plattformen und APIs können Unternehmen jeder Größe einfacher und schneller skalierbare Verbindungen aufbauen, um sich komplett zu vernetzen, ihre Dienste auszuweiten und dabei während des gesamten Integrationslebenszyklus alles unter Kontrolle zu behalten. Wir haben die Zusammenhänge zwischen Integration und Innovation bereits in früheren Beiträgen behandelt. Eine wirklich innovative Idee muss nicht unbedingt eine für Ihr Unternehmen völlig neue Lösung oder ein neues Tool sein. Oft ist eine neue Verbindung zwischen bereits vorhandenen Systemen, Schnittstellen und Daten genauso innovativ und erfolgreich. Doch auch die Art und Weise, wie Unternehmen die dazu erforderlichen Integrationspunkte einrichten und verwalten, ändert sich derzeit grundlegend. Es gibt inzwischen Plattformen, mit denen Innovationen beschleunigt und bereits getätigte Investitionen genutzt werden können, um einen umfassenden Überblick über alle relevanten Faktoren zu gewinnen und schnell fundierte Geschäftsentscheidungen zu treffen. Die Integration beginnt in der Cloud Die Integration spielt bei On-Premises-Umgebungen schon seit geraumer Zeit eine wichtige Rolle, doch in der Geschäftswelt von heute erlangt sie durch die Cloud einen deutlich höheren Stellenwert. In der Cloud können Sie neue Integrationstools viel einfacher erwerben, testen und nutzen, um mehr unterschiedliche Services zu verknüpfen als je zuvor – und das mit deutlich weniger Aufwand. Zudem bieten Cloud-Plattformen zusätzliche visuelle Tools, mit denen Sie Geschäftsbereichsleiter mit intuitiven Benutzeroberflächen in die Integrationsprozesse einbeziehen, maschinelles Lernen und künstliche Intelligenz zur Automatisierung von Geschäftsabläufen nutzen und • Ihren Nutzern, Prozessverantwortlichen und Administratoren mehrere Kanäle für die unkomplizierte Interaktion anbieten können.  In der Cloud ist es heute einfacher als je zuvor, Kundenportale mit Back-End-Zahlungssystemen zu verknüpfen, Performancedaten aus dem Personalwesen mit Finanzberichten in Bezug zu setzen oder andere nützliche Verbindungen innerhalb des Unternehmens herzustellen. Cloud-Plattformen vereinfachen jedoch nicht nur die Integration und stellen mehr Unternehmen leistungsstarke Funktionen zur Verfügung. Sie unterstützen Firmen außerdem bei der Entwicklung ausgefeilter, einheitlicher Integrationsstrategien, mit denen sie ihre Daten und Services – sowie die Verbindungen dazwischen – erfolgreich vermarkten können. Die Rolle der API In unserer von der schnelllebigen digitalen Wirtschaft beherrschten Welt sind APIs mittlerweile eine beliebte Technologie zum Verbinden und Erweitern von Anwendungen. APIs verbergen die Funktionsweise und machen nur die für eine Integration relevanten Informationen sichtbar. Dies vereinfacht und beschleunigt die Erstellung sicherer neuer Verbindungen zwischen verschiedenen Services. Infolgedessen können die Services miteinander interagieren und einem größeren Kundenkreis angeboten werden. Eine erfolgreiche cloud-native Architektur braucht beispielsweise eine robuste API für die Verknüpfung mit der Anwendung als Ganzes. Eine API-Managementlösung vereinfacht die Verbindung zwischen Daten und Geschäftsfunktionen, sodass Unternehmen den Zugriff auf Anwendungen über mobile, cloudbasierte und lokale Umgebungen aktivieren und eine Vielzahl von Integrationsszenarien über Standardschnittstellen automatisieren können. Doch wie alle Integrationspunkte, die Sie einrichten und bereitstellen, müssen auch API-Anbindungen dauerhaft verwaltet werden. Wenn die Zahl der von einem Unternehmen erstellten APIs wächst, muss das Unternehmen sicherstellen, dass seine API-Umgebungen sichtbar, einfach zu verwalten, standardisiert und ordnungsgemäß gesichert sind. Oracle API Platform Cloud nutzt beispielsweise ein bewährtes API-Gateway, um Administratoren eine völlig neue Oberfläche für das API-Management – von API-Design und -Standardisierung bis hin zu Sicherheit, Erkennung, Nutzung und Überwachung – zu bieten. Warum ist das API-Management so wichtig? Durch effektives API-Management können Unternehmen das volle Potenzial ihrer vorhandenen Ressourcen ausnutzen. Ein gutes API-Managementsystem bietet eine unkomplizierte, aber robuste Plattform zum Erstellen, Dokumentieren und Veröffentlichen von APIs. Außerdem vereinfacht es das Auffinden und Verständnis bereits vorhandener Anwendungsdienste und ihre Einbindung in neue Anwendungen. Mit cloudbasiertem API-Management können Unternehmen einen wirklich heterogenen Integrationsansatz einsetzen, um bereits getätigte Investitionen optimal zu nutzen und gleichzeitig die verfügbare Funktionalität zu erweitern. Neue Denkweisen zur Integration Ein bemerkenswertes Beispiel für ein Unternehmen, das seine Dienstleistungen mit der API-Integration radikal verbessern konnte, ist Trunk Club. Trunk Club ist ein personalisierter Online-Shopping-Service, der seinen Käufern individuell ausgewählte Kleidungsstücke nach Hause liefert. Die Kunden teilen Trunk Club online ihre Stilvorlieben mit und sprechen per Telefon oder online mit einem Stilberater, der eine Kleidungsauswahl für sie zusammenstellt. Anschließend können sie diese Auswahl auf TrunkClub.com oder in einer Mobilgeräte-App einsehen und bestätigen, bevor sie ihnen nach Hause geliefert wird. Trunk Club basiert auf einer API-zentrierten Microservices-Architektur. Alle Komponenten, die zum Erstellen einer Kleidungsauswahl für einen Kunden erforderlich sind – Daten über Kunden, Produkte, Preise usw. – stammen aus Diensten von Trunk Club. Die API führt diese Daten zusammen und bringt sie in eine Form, die das Front-End verarbeiten kann. Da Trunk Club den Oracle Apiary Cloud Service verwendet, können seine Entwickler mühelos und ohne Programmierung API-Modelle erstellen, was die gemeinschaftliche Entwicklung und alle Bereiche des API-Managements deutlich einfacher gestaltet. Dieses intelligente und unkomplizierte API-Management hat Trunk Club in die Lage versetzt, eine einzigartige Dienstleistung anzubieten, die genau auf die Erwartungen und Anforderungen moderner Kunden zugeschnitten ist. Sie entscheiden, was Sie verbinden, nicht, wie Sie es verbinden Cloud-Plattformen, API-basierte Integration und Strategien zu ihrer gemeinsamen Nutzung haben Unternehmen wie Trunk Club völlig neue Möglichkeiten zum Einsatz miteinander verknüpfter Services eröffnet. Früher ging es hauptsächlich um das „Wie“. Die Überlegungen waren primär technologischer Natur: Wie kann man die inkompatiblen Punktlösungen in der eigenen IT-Infrastruktur miteinander verbinden? Mittlerweile stehen uns nutzerfreundliche Cloud-Integrationstools zur Verfügung und die Frage lautet nun: „Was wollen wir integrieren?“ Wir wissen, dass die erforderliche Technologie in der Cloud bereitsteht, und können uns auf die Frage konzentrieren, was integriert werden sollte, um innovative, erfolgsversprechende Verbindungen im Unternehmen herzustellen. In den IT-Umgebungen von heute kann fast alles integriert werden, um neue Mehrwerte zu erschließen. Sobald Sie eine Vorstellung davon haben, was Sie integrieren möchten, brauchen Sie nur noch ein überzeugendes Anwendungsszenario zu entwerfen, bevor die Innovation zur Realität wird. Doch wenn Ihr Integrationsportfolio wächst und Sie immer mehr APIs und Microservices verwalten, müssen Sie Ihr Portfolio im Griff behalten. Durch neue Verbindungen können Sie eine besser vernetzte Zukunft gestalten – das Integrationsmanagement sorgt dabei dafür, dass alles, was Sie entwerfen, während des gesamten Integrationslebenszyklus seinen gewünschten Zweck erfüllt. Die nächsten Schritte Finden Sie heraus, wie Sie die Integration noch weiter vorantreiben können. Melden Sie sich für unseren Webcast Getting a 360-degree connection with your business (in englischer Sprache, „So schaffen Sie eine 360° vernetztes Unternehmen“) an und erfahren Sie, wie Sie Anwendungen, Daten und Geräte systemübergreifend vernetzen können. Kontakt: Ein spannendes Thema, über das wir, Joost Volker, Director Cloud Platform Business Development EMEA, Barry O’Reilly, Director, PaaS Business Process Management EMEA und Kulvinder Hari, Senior Director Cloud Integration EMEA, gerne mit Ihnen sprechen. So erreichen Sie uns: Joost Volker: E-Mail, LinkedIn oder Twitter Barry O’Reilly: E-Mail oder LinkedIn Kulvinder Hari: E-Mail oder LinkedIn  

Co-Autor:  Kulvinder Har und Barry O’Reilly Ein vollständig vernetztes Unternehmen kann schneller innovative Lösungen entwickeln und einsetzen, um das herausragende Kundenerlebnis zu bieten, das seine...

Business Analytics

Die neue Oracle Autonomous Data Warehouse Cloud ist Garant für superschnelle Analytics

Oracle Autonomous Data Warehouse Cloud ist ab sofort verfügbar – als der erste offizielle Service von Oracle in der "Autonomous"-Klasse, die wir Anfang des Jahres angekündigt haben. Für diese Mitteilung trat extra Larry Ellison, Executive Chairman und CTO von Oracle, in der Oracle-Zentrale auf die Bühne. Das folgende Video demonstriert die vielen beeindruckenden Funktionen und Vorteile für Unternehmen, die automatisierte Prozesse für sich nutzen möchten: Mehr als 100 Funktionen ohne notwendige IT-Administration Die Autonomous Data Warehouse Cloud basiert auf der Oracle Database 18c. Sie umfasst über 100 Funktionen – während beim Kunden dafür keinerlei IT-Administration erforderlich wird. Zugleich wird Oracle noch in diesem Jahr Autonomous Analytics veröffentlichen. Kennzeichnend für die Autonomous Data Warehouse Cloud ist nun, dass in dieser ersten Version bereits derart viele Analytics-Features enthalten sind. Die Software verwendet maschinelles Lernen, um eine sich selbst verwaltende, selbst sichernde und selbst reparierende Datenbank über die Oracle Cloud bereitzustellen. Das folgende Video zeigt diese Features von A bis Z, einschließlich derer, die sich auf Analysen beziehen. Von diesen hunderten Features ist das wichtigste eine freie (wie in "Freibier") Version von Data Visualization Desktop. Mit der Datenvisualisierung können Sie Muster, Trends und Korrelationen erkennen, die sonst in herkömmlichen Berichten, Tabellen oder Tabellenkalkulationen leicht untergehen. Oracle Data Visualization ermöglicht die Analyse von Daten aus mehreren Quellen und die einfache Erstellung intelligenter Integrationen einschließlich der Übertragung an mobile Geräte. Enorm schnelle analytische Abfragen Eine Funktion, die sich sicher viele Freunde machen wird, ist die enorme Schnelligkeit dieser analytischen Abfragen – so schnell eben, wie Ihr Unternehmen sie benötigt. Mit der Autonomous Data Warehouse Cloud können Sie die Berechnungsgeschwindigkeit Ihrer Analysen entsprechend der Anzahl der zugewiesenen CPUs skalieren. Ein Schieberegler (siehe unten) greift auf eine REST-Instanz zu, die bei Bedarf mehr Rechenleistung aufbringt und dann entweder nach Abschluss der Aufgabe oder während bestimmter Zeiten zurückskaliert. Das spart Zeit und Geld, da Sie nur für die CPUs bezahlen, die Sie auch tatsächlich benutzen. "In einer datengetriebenen Organisation sind Business Intelligence (BI) - und Analyse-Engines die besten Werkzeuge, um die Performance zu messen - dafür werden aber qualitätsgesicherte Daten benötigt", sagt Alan Zeichick, Chefanalyst bei Camden Associates. "Und das erklärt, warum Data Warehouse Systeme im Geschäft immer noch eine so entscheidende Rolle spielen. Data Warehouses diese Datenqualität, indem sie wichtige Informationen aus einer Vielzahl von Quellen konsolidieren und aggregieren." Oracle Autonomous Data Warehouse in Aktion erleben Wenn Sie das Autonomous Data Warehouse in Aktion erleben möchten, laden Sie die kostenlose Testversion herunter. Um die späteren Kosten abschätzen zu können, lassen sich diese mit dem Total Cost of Ownership (TCO)-Rechner ermitteln, den wir Ihnen ebenfalls an die Hand geben. Wir präsentieren Oracle Autonomous Database Cloud außerdem auf einer Welttournee, wo Sie bei Veranstaltungen in über 30 Städten – darunter am 19. April 2018 auch in München – mehr erfahren und den neuen Service testen können: Künstliche Intelligenz und Autonomous-Technologie sind auch außerhalb des Wissenschaftsbetriebs ein hochgradig relevantes Thema. Bei dieser exklusiven Veranstaltung erfahren Sie, wie Autonomous Data Management hilft, Ihr Unternehmen aus der Masse hervorzuheben. Von den Experten bei Oracle bekommen Sie Informationen aus erster Hand und erleben, wie Sie mit wenigen Klicks Daten in der Cloud aufrufen und analysieren können und so zu besseren und schnelleren Unternehmensentscheidungen kommen. Melden Sie sich hier an! Kostenloses eBook zum Download Sie wollen mehr über das Thema Autonomous Datenbank und Autonomous Data WareHouse Cloud lernen, dann laden Sie folgendes eBook kostenlos herunter: Infos und Kontakt: Für weitere Informationen zur Autonomous Datenbank und Autonomous Data WareHouse Cloud klicken Sie bitte hier oder sprechen Sie mit mir über dieses spannende Thema, per E-Mail, LinkedIn, Xing oder Twitter. Sabine Leitner, Sr. Marketing Manager.

Oracle Autonomous Data Warehouse Cloud ist ab sofort verfügbar – als der erste offizielle Service von Oracle in der "Autonomous"-Klasse, die wir Anfang des Jahres angekündigt haben. Für diese Mitteilun...

Business Analytics

Data Management Solutions: Erfolgreich vom Rechenzentrum bis in die Cloud – sagt Gartner

Oracle hat auch 2018 wieder einen beeindruckenden Start hingelegt. Der Branchenanalyst Gartner bezeichnete Oracle zum wiederholten Mal als führend unter den  Technologieanbietern. Bewertet hatte Gartner dazu 22 Anbieter und deren Angebote für Lösungen im Bereich Datenmanagement und Analytics, und zwar anhand von Kriterien wie Performance bei der Ausführung und Vollständigkeit der Vision. Basierend auf diesen Parametern hat Gartner im Februar 2018 seinen neuesten „Magic Quadrant“ für Datenmanagementlösungen im Bereich Analytics veröffentlicht. Wir finden, dass sich Oracle von der Konkurrenz mit wirklich relevanten Technologien abhebt. Und mit der Ankündigung der Oracle Autonomous Database und der Autonomous Data Warehouse Cloud ist Oracle in der Lage, echte Innovationen bei der Automatisierung für cloudbasierte Datenmanagement-Services zu liefern. Gartners Magic Quadrant im Februar 2018 – Datenmanagementlösungen im Bereich Analytics: Das umfassende und einheitliche Datenverwaltungsportfolio von Oracle ist hochgradig automatisiert und eröffnet Kunden einen bruchlosen Weg in die Cloud. Sobald ein Kunde damit vertraut ist und erkennt, welche Vorteile ihm Oracle Database oder der Oracle Database Cloud Service bringt, gibt es organische Erweiterungen hin zu gängigen Cloud-Services wie Datenbank-Backup oder IaaS, aber auch Daten-Monetarisierungslösungen wie Data Warehousing, BI, Analytics oder sogar Big Data. Oracle-Lösungen für den Daten-Lebenszyklus: Ein massives Problem für Kunden ist, dass viele Public-Cloud-Anbieter keine Unterstützung für eine echte Hybrid-Cloud-Installation im Programm haben – und das, obwohl dieses Modell für die meisten Unternehmen bis Ende 2018 die Norm sein wird. Oracle bietet Cloud-Lösungen, die wirklich für Unternehmen ausgelegt sind und die für eine vollständig kompatible Hybrid-Cloud-Installation entwickelt wurden. Es macht dabei keinen Unterschied, ob Ihre Daten lokal gespeichert, in Ihrem Rechenzentrum verwaltet oder in der Cloud bereitgestellt werden müssen – mit Oracle haben Sie praktisch überall Zugriff auf die unternehmensweit gleiche Datenverwaltungstechnologie. Lesen Sie den Gartner-Report: http://www.gartner.com/reprints/?id=1-4O3NVDI&ct=180109&st=sb Weitere Informationen zu Oracle Data Management Cloud Services finden Sie unter https://cloud.oracle.com/de_DE/data-management Gartner Magic Quadrant for Data Management Solutions for Analytics, Adam M. Ronthal, Roxane Edjlali, Rick Greenwald, 13. Februar 2018. Diese Grafik wurde von Gartner Inc. als Teil einer größeren Forschungsarbeit veröffentlicht; sie sollte im Zusammenhang mit dem gesamten Dokument interpretiert werden. Die Forschungsarbeit ist auf Anfrage von Oracle erhältlich. Gartner unterstützt keine Anbieter, Produkte oder Dienstleistungen, die in seinen Forschungspublikationen genannt werden, und empfiehlt Nutzern ausdrücklich nicht, nur die Anbieter mit den höchsten Bewertungen bzw. anderen Bezeichnungen auszuwählen. Forschungspublikationen von Gartner geben die Ansichten von Gartners Forschungsorganisation wider. Sie sollten nicht als Tatsachenfeststellungen interpretiert werden. Gartner lehnt jede ausdrückliche oder stillschweigende Garantie in Bezug auf diese Untersuchung ab, einschließlich jeglicher Gewährleistung der Marktgängigkeit oder Eignung für einen bestimmten Zweck.   Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Sabine Leitner, Sr. Marketing Manager.   

Oracle hat auch 2018 wieder einen beeindruckenden Start hingelegt. Der Branchenanalyst Gartner bezeichnete Oracle zum wiederholten Mal als führend unter den  Technologieanbietern. Bewertet hatte...

Business Analytics

Maschinelle Sprachverarbeitung mischt die Vorstandsetagen auf

Sie kennen ja solche Meetings: Irgendwer fragt irgendwas zur Strategie; der Datenfreak zückt sein Smartphone, tippt ein paar Überschlagsrechnungen ein und sagt dann als Antwort: „42!“. – Wie bitte? Mit welchen Annahmen denn? Und wie kommt er so schnell darauf? Ich gebe zu, dass manchmal ich dieser Datenfreak bin. Wie ein großer Mentor von mir einmal gesagt hat: Traue keiner Durchschnittsangabe! Weil, wenn du heiße Füße und gefrorene Finger hast, fühlst du dich ja deshalb noch lange nicht im Durchschnitt ganz OK. Aber weil ich ein Datenfreak bin, erkenne ich normalerweise als Erster, dass es für eine ausgearbeitete Analyse, die auf einer breiten Auswahl möglicher Szenarien beruht, eben keinen Ersatz gibt. Gut formulierte strategische Fragen sind nun einmal fast immer mehrdimensional, leider! Und eine kritische Analyse hat – wenn überhaupt jemals – nur selten bloß zwei Dimensionen. Dennoch versuchen wir immer noch, die Szenarien in unser liebstes Format zu pressen: die gute alte Excel-Tabelle. Verstehen Sie mich nicht falsch, Excel-Tabellen sind gut und schön – aber halt nicht, um die Machbarkeit strategischer Geschäftsszenarien zu bewerten. Schauen wir der schrecklichen Wahrheit ins Auge: Pivot-Tabellen werden nur von den wenigsten Leuten verwendet. Und auch wenn es noch so gut gemeint ist, sie eignen sich einfach nicht für die Abbildung von Szenarien. Warum? Für Einsteiger: Die Daten werden dort in zwei Dimensionen gespeichert … Ich könnte da jetzt stundenlang weitermachen, aber für dieses Mal erspare ich Ihnen das – noch! Was in vielen, vielen Management- und Vorstandsmeetings fehlt, sind agile Szenarien, also solche, die wirklich die gesamten Unternehmensdaten mit einrechnen. Szenarien, die auch noch die Feinheiten des Gewinnmodells und der dazugehörigen Treiber richtig einbeziehen. Szenarien, die Währungsschwankungen und eine ganze Reihe weiterer relevanter Faktoren berücksichtigen, damit die Analyse überhaupt längerfristig hält und belastbar bleibt. Wenn ich mich so in den Entwicklungslabors von Oracle umschaue, dann werden Vorstandssitzungen zukünftig ziemlich anders gestrickt sein. Ich sehe eine Vorstandsetage kommen, die von gerade entstehenden Technologien wie digitalen Assistenten, Cloud Computing und Verarbeitung natürlicher Sprache geprägt sein wird. Ich sehe Meetings, bei denen die Ansicht der HiPPO (Highest Paid Person's Opinion) endlich einmal durch Fakten ergänzt wird. Die in die API integrierte Oracle Analytics Cloud ermöglicht es Entwicklern, eine Vielzahl von Dialogschnittstellen schnell mit der Plattform zu verbinden. Digitale Assistenten, Chatbots und sprachgesteuerter Smartphone-Zugriff sind nur der Anfang. Mit Oracle Essbase Cloud können sich Führungskräfte und Vorstände nicht nur über Dinge in der Vergangenheit unterhalten, sondern auch die Plausibilität verschiedener Zukunftsszenarien beurteilen. Deloitte zum Beispiel hat bereits eine innovative Lösung entwickelt, die Alexa in den Oracle Planning and Budgeting Cloud Service integriert. Damit helfen sie auch Experten, die mit dem Finanzwesen nichts am Hut haben, sich intensiver in Planungs- und Prognoseprozesse einzubringen. Diese Gesprächs-Schnittstellen werden den Ton und das Tempo in Management-Meetings deutlich verändern, soviel ist sicher. Was mich betrifft: Ich kann es kaum erwarten! Wollen Sie Oracle Analytics Cloud oder Oracle Essbase Cloud selbst erleben? Dann nehmen Sie an einer unserer Quick-Touren oder Simulationen teil. Sie finden außerdem weitere nützliche Hinweise auf unserer Seite "Angepasste Inhalte". Wenn Sie dann so weit sind, eine kostenlose Testversion auszuprobieren, besuchen Sie die Business Analytics-Website. Kontakt: Oder sprechen Sie mit mir über dieses spannende Thema, per E-Mail, LinkedIn, Xing oder Twitter. Sabine Leitner, Sr. Marketing Manager.   

Sie kennen ja solche Meetings: Irgendwer fragt irgendwas zur Strategie; der Datenfreak zückt sein Smartphone, tippt ein paar Überschlagsrechnungen ein und sagt dann als Antwort: „42!“. – Wie bitte?...

Customer Experience

Warum AAR Corp mit intelligenten Bots bessere Antworten liefert und weniger Rückfragen bekommt

Wenn ein Global Player eine innovative Technologie implementiert, dann ist das keine Spielerei, sondern weitreichendes Kalkül. In diesem Fall geht es um die Oracle Mobile Cloud Enterprise und die Einführung intelligenter Bots. AAR (für Allen Aircraft Radio, heute AAR Corp) ist ein global agierender Dienstleister in der Luftfahrtbranche, der mit seinen Services über 100 Länder abdeckt. Regierungsstellen gehören ebenso zu den Kunden wie unterschiedlichste Unternehmen. AAR wartet Flugzeuge, sorgt für Ersatzteile und betreibt Fuhrparklogistik sowie eigene Lufttransporte. Vom Know-how des Unternehmens hängen die Agenden vieler Kunden ab, und täglich laufen Millionen von Geschäftsvorgängen durch die Systeme. AAR weiß daher sehr gut, dass die interne Kommunikation und der Zugang zu Informationen und Prozessen für alle Mitarbeiter so einfach wie möglich gestaltet sein muss. Wie bleibt man unter diesen Umständen im laufenden Betrieb technologisch up-to-date? Natürlich könnte AAR seinen Altlasten-Mix von Backend-Systemen Stück für Stück ersetzen oder erhebliche IT-Ressourcen auffahren, um neue Dashboards für Analytics Kommunikation zu erstellen – das tun sie aber wohlweislich nicht! Stattdessen baut AAR Prototyp-Chatbots mit Oracle Mobile Cloud Enterprise (MCE). Diese intelligenten Chatbots verwenden natürliche Sprachverarbeitung und künstliche Intelligenz, … um Mitarbeiteranfragen im Kontext zu verstehen, Mitarbeiter mit relevanten Antworten zu zu versorgen, basierend auf Informationen aus den aktuellen Back-End-Systemen von AAR, um dann aus den Fragen zu lernen, die den Bots gestellt wurden, damit zukünftige Anfragen besser vorauszusehen sind und die Bots entsprechend darauf reagieren. Die Mitarbeiter bekommen so über ihren bevorzugten Kommunikationskanal (Mobile Messaging) die erforderlichen Informationen, und AAR erspart es sich, kurzfristig teure neue IT-Infrastruktur zu akquirieren, nur um aktuellen Erwartungen der Mitarbeiter gerecht zu werden. „Die Chatbots bieten eine großartige Möglichkeit, Informationen auch an Personen weiterzugeben, die unsere Systeme normalerweise nicht nutzen: unser Senior Management, VPs, General Manager usw. – Antworten auf ausgefallene, einmalige Fragen, die sie vielleicht nie wieder in demselben Kontext stellen," sagt Serdar Yorgancigil, Vice President of MRO Solutions and User Experience bei AAR. Er stellt fest, dass in der Praxis unterschiedliche Benutzer kaum mit denselben Formulierungen nach einer bestimmten Information fragen. Eine große Hilfe ist dann ein Chatbot, der nuancierte Varianten der gleichen Frage versteht und der sich vor allem an den Kontext einer laufenden Konversation erinnert: "Du fängst eine Chatbot-Konversation an, und es ist klar, dass es jetzt um die Möglichkeiten in Oklahoma geht. Dann reicht es, wenn du ein paar Fragen später nur sagst: Gib mir den Status des Fliegers – und der Chatbot weiß, dass wir von Oklahoma reden. Das benutzt er als Filter, statt dich wieder zu fragen: Meinen Sie den Status für Miami, Oklahoma oder Indianapolis." AAR wird die neu eingeführten Bot-Prototypen wahrscheinlich zuerst auf Facebook Messenger und auf seinem eigenen internen System bereitstellen. Bereits geplant ist aber, zusätzliche Bots mit zusätzlichen Back-Ends zu verbinden und sie auch für weitere Kanäle freizuschalten. Oracle Intelligent Bots ermöglicht es Benutzern, sich einfach mit Back-End-Systemen über APIs zu verbinden und Code nur einmal zu schreiben, der aber auf mehreren Kanälen bereitgestellt wird. So kann ein Unternehmen wie AAR die Mitarbeiterkommunikation und das Sammeln von Informationen relativ einfach testen und skalieren, auch wenn sich Anforderungen ändern. Kontakt: Wenn Sie mehr über die Pläne von AAR für Chatbots und über Oracle Mobile Cloud Enterprise erfahren wollen, lesen Sie den vollständigen Forbes-Artikel. Oder Sie sprechen mit mir über dieses spannende Thema, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Wenn ein Global Player eine innovative Technologie implementiert, dann ist das keine Spielerei, sondern weitreichendes Kalkül. In diesem Fall geht es um die Oracle Mobile Cloud Enterprise und die...

Industrie 4.0 – Chancen für Sie

Die vierte industrielle Revolution hat begonnen und bietet Fertigungsunternehmen unzählige Möglichkeiten für kontinuierliche Innovationen. Doch eine echte digitale Transformation verträgt sich nicht mit dem klassischen Product-Lifecycle-Management (PLM). Künstliche Intelligenz, das Internet der Dinge, Roboter, Automatisierung – neue Technologien eröffnen gänzlich neue Möglichkeiten für Produktinnovationen. Die vierte industrielle Revolution hat begonnen und schon jetzt zeigt sich, dass Unternehmen in aller Welt ihre Kunden und ihre Produkte dadurch mit ganz anderen Augen sehen.  Kunden erwarten heute mehr. Sie erwarten individuelle Angebote, Vernetzung und die umgehende Erfüllung ihrer Aufträge. Das können Unternehmen jedoch nur leisten, wenn sie das Thema Innovation flexibel angehen und unentwegt daran arbeiten. In vielen zukunftsorientierten Unternehmen ist bereits bekannt, dass die vierte industrielle Revolution – Industrie 4.0 – die Möglichkeit zur vollkommenen Umgestaltung von Lieferkette, Produktentwicklung und Fertigungsprozessen bietet: durch einen digitalen „roten Faden“, der über den gesamten Produkt-Lebenszyklus mitläuft und wichtige Produktdaten liefert.  So liegen von den ersten Entwürfen bis zur Einstellung eines Produkts Daten vor, die Rentabilität und Wettbewerbsfähigkeit verbessern und den Grundstein für eine fortlaufende Innovationstätigkeit liefern. Dieser Wandel bedeutet jedoch das Aus für das konventionelle Product-Lifecycle-Management (PLM). Die Blickrichtung ändern  Das traditionelle PLM war immer durch die finanziellen, technischen oder geographischen Rahmenbedingungen im Unternehmen eingeschränkt. Die Produkte wurden unter Berücksichtigung dieser Bedingungen möglichst effizient entwickelt. Dabei gingen die Entwickler von der Unternehmensperspektive aus.  In einer kundenzentrierten Welt ist damit kein Blumentopf zu gewinnen.  Viele Unternehmen setzen bereits Online-Systeme ein (z. B. KI, IoT, Social Listening), um die Kundenperspektive als Maßstab der Customer Experience zu nutzen. Mithilfe dieser Technologien können sie nicht nur besser auf neue Kundenerwartungen reagieren, sondern erhalten auch wertvolle Anregungen von außerhalb ihrer Branche. In der Industrie 4.0 kann das PLM vom Kostenfaktor zu einer wertvollen Ressource werden. Wie das? Indem Sie es zu einer Plattform für fortlaufende und datengestützte Innovationen machen, die Anregungen von außen umsetzen.  Die Verknüpfung von Daten aus verschiedenen Quellen (z. B. Produkt-, Kunden- und Produktionsdaten) schafft die Grundlage für gezielte Investitionen in die richtigen Innovationen, die Entwicklung profitablerer Produkte und effizienteres Qualitätsmanagement. So können Sie zur richtigen Zeit die richtigen Produkte zum richtigen Preis entwickeln – ohne, dass die Wirtschaftlichkeit darunter leidet. Alle Daten über den gesamten Lebenszyklus eines Produkts zu erfassen und zu analysieren, ist allerdings eine Riesenaufgabe. Deswegen arbeiten besonders zukunftsorientierte Unternehmen mit modernen Cloud-Plattformen, um ab den allerersten Anfängen eines Produktes alle für das Unternehmen wichtigen Daten zu erfassen. Schnellere Innovationen Wenn Sie alle Daten aus dem Produkt-Lebenszyklus in ein zentrales digitales Repository einspeisen, wird es selbstverständlich, dass Sie in der Produktentwicklung jederzeit fundierte strategische Entscheidungen treffen können. Wichtig ist: Die alten, isolierten PLM-Daten haben ausgedient und müssen einem unternehmensweiten Produktdatensatz weichen, der Daten aus allen Phasen enthält:   Konzeption und erste Entwürfe Produkt- und Systementwicklung Herstellung und Vertrieb Verkauf und Versand Produktnutzung und Kundendienst   Wenn Sie diese Daten aus dem gesamten Unternehmen zusammenführen, besteht Innovation nicht mehr aus isolierten Einzelaktivitäten, die auf internen Annahmen beruhen. Stattdessen wird sie zu einem fortlaufenden Prozess, der überall präsent ist: bei den Produkten, bei der Arbeit Ihrer Mitarbeiter und bei der Customer Experience.   Maßgeblich ist nicht mehr, was am einfachsten, billigsten oder effizientesten ist, sondern was Ihren Kunden – und natürlich Ihrer Geschäftsbilanz – den größten Nutzen bringt. Und im Zusammenspiel mit der passenden cloudgestützten PLM-Plattform können Sie Ihre Strategie mit Leichtigkeit entwickeln, implementieren und monetarisieren. So bringen Sie zuverlässig immer die richtigen Produkte zum richtigen Zeitpunkt auf den Markt.   Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, Xing, LinkedIn oder Twitter. Ulf Köster, Solution Director Oracle Innovate.

Die vierte industrielle Revolution hat begonnen und bietet Fertigungsunternehmen unzählige Möglichkeiten für kontinuierliche Innovationen. Doch eine echte digitale Transformation verträgt sich nicht...

HR und Finanzen – neue beste Freunde

Personal- und Finanzwesen sind in Unternehmen eng miteinander verknüpft. Trotzdem ist das Verhältnis zwischen diesen beiden Bereichen bislang häufig von stockender Kommunikation und Problemen bei der gemeinsamen Nutzung von Daten geprägt. Die Cloud könnte dies ändern und die Zusammenarbeit radikal verbessern.   Zwischen Personal- und Finanzwesen hat es immer eine enge Zusammenarbeit gegeben, und da die beiden Abteilungen ähnliche Ziele verfolgen, sind sie in den meisten Unternehmen eng miteinander verbunden.  Da die Unternehmensführung die Verbesserung der Kollaboration zunehmend als strategische Notwendigkeit sieht, hat die Vereinheitlichung der Arbeitsabläufe nun eine höhere Priorität als je zuvor. Doch trotz der inzwischen eng aufeinander abgestimmten Ziele ist es oft schwierig, dieselben Arbeitsabläufe in beiden Abteilungen durchzusetzen.  Laut dem in Zusammenarbeit mit Oracle erstellten MIT Technology Review Custom’s Report planen 35 % der befragten Unternehmen die Einrichtung einer kombinierten Finanz- und Personalabteilung im kommenden Jahr. 42 % gaben zudem an, dass sie diese Änderung vornehmen wollen, um die Produktivität und die Leistung zu steigern.  Angesichts der Vorteile einer engen Zusammenarbeit von Personal- und Finanzwesen in der Cloud ist es naheliegend, dass viele Unternehmen die beiden Abteilungen auch im Unternehmen zusammenlegen wollen, um eine engere Zusammenarbeit zwischen den Teams zu fördern. Tendenz zu engerer Zusammenarbeit  Managern sowohl im Personal- als auch im Finanzwesen sind die Vorteile einer engen Zusammenarbeit seit Langem bewusst. Angesichts der sehr ähnlichen und oft identischen Ziele der beiden Abteilungen überrascht das auch nicht. Die Personalabteilung muss über Budgets und strategische Prioritäten informiert sein, um offene Stellen richtig zu besetzen und bewährte Mitarbeiter zu halten. Die Finanzabteilung wiederum benötigt fundierte Kenntnisse über die Prozesse für die Besetzung offener Stellen und die Beschaffung von Ressourcen, um die strategischen Prioritäten des Unternehmens mitgestalten zu können.  Dennoch nutzen die Personal- und Finanzabteilung oft vollständig getrennte Systeme und erschweren sich damit die gemeinsame Nutzung von Daten und Ressourcen. Da ist es kein Wunder, dass beide Abteilungen überlastet sind und ihre Ziele oft verfehlen.   Dennoch sind die Grundlagen für gemeinsame Abläufe aufgrund der sehr ähnlichen Ziele beider Abteilungen bereits gelegt. Der Übergang zu einem gemeinsam genutzten, cloudbasierten System ist also der logische nächste Schritt. Eine bessere Zusammenarbeit würde beide Teams in die Lage versetzen, schneller bessere Entscheidungen zu treffen – mit positiven Auswirkungen auf Geschäftsergebnisse, Komplexität und Kosten.  Weniger Komplexität in der Cloud Der Druck, die Kosten konstant zu halten oder sogar zu senken, ist allgegenwärtig. Zudem sind viele Unternehmen aufgrund des akuten Fachkräftemangels nicht in der Lage, ihre bestehenden Systeme effektiv zu betreiben. Wenn Abteilungen, die eigentlich zusammenarbeiten sollten, dann noch voneinander isolierte Systeme nutzen, wird der Datenaustausch zwischen den Abteilungen zum Albtraum. Dieser Datenaustausch ist jedoch eine Grundvoraussetzung für die digitale Transformation.  Glücklicherweise bietet die Cloud eine hervorragende Gelegenheit, diese Herausforderungen mit einer einzigen Lösung – und vor allem mit einem einzigen „Point of Truth“, einer zentralen, gemeinsamen Datengrundlage – in Angriff zu nehmen.  Da Unternehmen der Speicherung auch vertraulicher Daten in der Cloud mittlerweile positiver gegenüberstehen, sind wachstumsorientierte Unternehmen zu Vorreitern der Cloud-Nutzung geworden. Erfreulich ist dabei, dass 94 % der Teilnehmer der MIT-Umfrage angaben, dass die Cloud ihre Erwartungen erfüllt oder übertroffen habe.  Nehmen wir ein Beispiel. Für Ballard, ein kanadisches Unternehmen, das Lösungen für die saubere Energieversorgung anbietet, war die Verlockung eines einfachen, einheitlichen Systems, das zudem ständig weiterentwickelt wird, der entscheidende Beweggrund für den Wechsel in die Cloud. Ballard hat seine Personal- und Finanzlösungen miteinander kombiniert und erwartet nun Einsparungen in Höhe von mehr als 2 Millionen US-Dollar innerhalb von fünf Jahren – Grund genug für das Unternehmen, alle Betriebsabläufe in die Cloud zu verlagern.  Die Cloud lohnt sich für Personal- und Finanzteams … und nicht nur finanziell Vor dem Wechsel in die Cloud waren viele Personal- und Finanzteams nicht flexibel genug, um ein digitales Geschäftsmodell im Unternehmen umzusetzen. Aber nach Einführung eines einheitlichen Systems stellen viele Teams fest, dass sich ihre Prozesse verbessert und ihre Ausgaben reduziert haben – und dass sie nun viel mehr Zeit für Innovationen haben. So waren 41 % der befragten Führungskräfte der Meinung, dass sie seit dem Wechsel in die Cloud mehr Zeit für Tätigkeiten haben, die Umsatz generieren.  Wenn früher zum Beispiel die Personalkosten berechnet werden sollten, nahm das Exportieren und Verarbeiten von Daten aus isolierten Systemen Stunden in Anspruch. Damit ging nicht nur wertvolle Zeit verloren, sondern es entstanden auch unnötige Kosten – in einem Unternehmensbereich, der ohnehin für teure Abläufe notorisch ist.  Die Cloud hingegen bietet sofortigen Zugriff auf wertvolle Analysen und Erkenntnisse. Personal- und Finanzprofis entwickeln dadurch ein besseres Verständnis für Kosten, Risiken und Chancen im gesamten Unternehmen. Das Ergebnis? Die überwältigende Mehrheit der Befragten (71 % der Personal- und 80 % der Finanzprofis) erwartet eine Verbesserung der Beziehungen zwischen den beiden Abteilungen.  Nächste Schritte Weitere Erkenntnisse über die Zusammenarbeit von Personal- und Finanzwesen in der Cloud finden Sie im MIT Technology Review Custom Report. Der Report fasst die Ergebnisse einer Befragung von 700 Personal- und Finanzfachleuten aus der ganzen Welt über ihre Erfahrungen mit der Nutzung von Cloud-Lösungen zusammen. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Laurence Feuillet, Senior Marketing Manager Applications EMEA.  

Personal- und Finanzwesen sind in Unternehmen eng miteinander verknüpft. Trotzdem ist das Verhältnis zwischen diesen beiden Bereichen bislang häufig von stockender Kommunikation und Problemen bei der...

Die DSGVO – eine Weiterentwicklung der Datenschutzrichtlinie von 1995

Entscheidungsträger in Unternehmen sind derzeit bemüht, sich schnellstens Klarheit über die Auswirkungen der neuen Datenschutz-Grundverordnung der Europäischen Union (DSGVO) zu verschaffen. Die DSGVO wird die Datenschutzrichtlinie 95/46/EG ersetzen und soll die Datenschutzgesetze in Europa vereinheitlichen, den Datenschutz für alle EU-Bürger stärken und durchsetzen und den Datenschutzansatz von Unternehmen und Institutionen in der Region ändern. Durch ein weitreichendes Aufsichtsspektrum hat die DSGVO unter anderem folgende Auswirkungen: » Mögliche Bußgelder in Höhe von bis zu 4 % des Jahresumsatzes » Überprüfung und Änderung von Prozessen, Anwendungen und Systemen innerhalb des Unternehmens » Neue und strengere Datenschutz- und Sicherheitsanforderungen für Unternehmen, die personenbezogene Daten von EU-Bürgern erfassen und verarbeiten Die DSGVO-Compliance erfordert eine koordinierte Strategie und die Zusammenarbeit verschiedener Unternehmensbereiche, von der Rechtsabteilung über Personalwesen, Marketing und Sicherheit bis hin zur IT-Abteilung. Eine nahtlose und sichere Informationsstrategie für alle Unternehmensbereiche ist unverzichtbar. Diese wiederum setzt gut koordinierte Leitlinien und Technologien voraus. Unternehmen müssen eine klare Strategie und einen Aktionsplan zur Erfüllung der DSGVO-Anforderungen erarbeiten, um auf das Inkrafttreten der DSGVO am 25. Mai 2018 vorbereitet zu sein. DSGVO und Sicherheitsanforderungen Artikel 25 der DSGVO trägt die Überschrift „Datenschutz durch Technikgestaltung und durch datenschutzfreundliche Voreinstellungen“ und fordert unter anderem „geeignete technische und organisatorische Maßnahmen … die dafür ausgelegt sind, die Datenschutzgrundsätze wie etwa Datenminimierung wirksam umzusetzen und die notwendigen Garantien in die Verarbeitung aufzunehmen, um den Anforderungen dieser Verordnung zu genügen und die Rechte der betroffenen Personen zu schützen“.   Dieses Abstraktionsniveau gibt den Verantwortlichen, die Hand in Hand mit ihren Auftragsverarbeitern vorgehen, die Flexibilität, die notwendigen Sicherheitsmaßnahmen im  Kontext der jeweiligen Situation auszuwählen. Dabei wären zum Beispiel die Sensibilität und der Umfang der personenbezogenen Daten zu berücksichtigen.  Der verwandte Artikel 32 der Datenschutz-Grundverordnung, „Sicherheit der Verarbeitung“, findet sich auch in der Datenschutzrichtlinie (Artikel 17) wieder, ist dort allerdings weniger präskriptiv formuliert und hauptsächlich auf den Verantwortlichen bezogen. In der DSGVO finden wir folgende Formulierung: „der Verantwortliche und der Auftragsverarbeiter [treffen] geeignete technische und organisatorische Maßnahmen, um ein dem Risiko angemessenes Schutzniveau zu gewährleisten; diese Maßnahmen schließen unter anderem Folgendes ein: a) die Pseudonymisierung und Verschlüsselung personenbezogener Daten; b) die Fähigkeit, die Vertraulichkeit, Integrität, Verfügbarkeit und Belastbarkeit der Systeme und Dienste im Zusammenhang mit der Verarbeitung auf Dauer sicherzustellen; (c) die Fähigkeit, die Verfügbarkeit der personenbezogenen Daten und den Zugang zu ihnen bei einem physischen oder technischen Zwischenfall rasch wiederherzustellen; d) ein Verfahren zur regelmäßigen Überprüfung, Bewertung und Evaluierung der Wirksamkeit der technischen und organisatorischen Maßnahmen zur Gewährleistung der Sicherheit der Verarbeitung.“ Es ist klar, dass sowohl Verschlüsselung als auch Pseudonymisierung (z. B. Datenmaskierung) als offensichtliche Kandidaten für eine Implementierung präsentiert werden. Ebenso klar ist jedoch, dass die Entscheidung über deren Notwendigkeit vom Verantwortlichen und dessen Auftragsverarbeiter anhand ihrer Risikobewertung zu treffen ist. Risiken sollten in erster Linie aus Sicht der betroffenen Personen bewertet werden, aber offensichtlich gehen in die Erwägungen beider Parteien die Risiken ein, die sich für ihr eigenes Unternehmen ergeben, wenn der Risikofall für eine betroffene Person eintritt (an anderer Stelle verlangt die DSGVO von den Verantwortlichen eine Datenschutz-Folgenabschätzung – Anleitungen hierzu bietet die auch als „Artikel 29 Datenschutzgruppe“ bekannte Gruppe für den Schutz von Personen bei der Verarbeitung bezogener Daten der EU. In Artikel 32(1) geht es um die konventionelle Sicherheit, denn der Text bezieht sich auf Vertraulichkeit, Integrität und Verfügbarkeit sowie die Notwendigkeit, den Stand der Technik und sogar die Kosten zu berücksichtigen. Wie in Artikel 25 gibt es auch hier keine genauen Vorgaben zur Absicherung der Datenverarbeitung.  Dadurch wird sichergestellt, dass die DSGVO auf Unternehmen jeder Größe und die Verarbeitung aller Arten von personenbezogenen Daten anwendbar ist und technologieunabhängig bleibt.  Der Kunden muss jedoch entscheiden, was angemessen ist, und wenn es zu einem Problem – etwa einer Datenverletzung – kommt, muss mit hoher Wahrscheinlichkeit angenommen werden können, dass die eigene Interpretation der Angemessenheit mit der Ansicht der Aufsichtsbehörde übereinstimmt. Artikel 83 besagt, dass die Aufsichtsbehörde bei einer Verletzung des Datenschutzes unter anderem die technischen und organisatorischen Vorkehrungen zu berücksichtigen hat, die gemäß den Artikeln 25 und 32 getroffen wurden.  Wie tragen Oracle Lösungen zur DSGVO-Compliance bei?  Aus unseren bisherigen Betrachtungen ergeben sich mehrere Fragen: Was ist „Stand der Technik“ im Bereich der Sicherheit? Was ist angemessen oder zumindest ein guter Ausgangspunkt für den Schutz personenbezogener Daten? Um mit der Verschlüsselung zu beginnen: Oracle ermöglicht die Verschlüsselung beliebiger sensibler Bereiche einer Oracle Datenbank.  Kunden sollten diese Möglichkeit nutzen, um personenbezogene Daten sowohl „im Ruhezustand“ auf Datenträgern als auch während der Übertragung von und zur Datenbank zu verschlüsseln.  Oracle Datenbanken können personenbezogene Daten maskieren oder pseudoanonymisieren. Dies kann entweder dynamisch in Echtzeit beim Abruf von Datenattributen aus der Datenbank erfolgen – z. B. Ändern des Geburtsdatums von TT.MM.JJJJ nach **.MM.JJJJ – oder aber statisch/permanent auf eine vollständige Kopie der Datenbank angewendet werden, etwa um personenbezogene Daten in einer Tabelle zu pseudoanonymisieren, bevor die Tabelle für Anwendungstests oder zur Verwendung in der Softwareentwicklung exportiert wird.  Die Datenbank verhindert unbefugte Datenzugriffe durch Datenbankadministratoren und andere Benutzer – z. B. das Lesen oder gar Ändern von personenbezogenen Daten – und enthält Funktionen zur Erkennung und Abwehr von SQL-Injection-Angriffen sowie zur Speicherung detaillierter Auditprotokolle etwa über Änderungen von personenbezogenen Daten. Angesichts des klaren Bezugs zu Artikel 32(a) bilden Verschlüsselung und Datenmaskierung den Startpunkt für die meisten Kunden. Seit mehreren Jahren werden personenbezogene Daten (von Oracle und anderen Anbietern) in der Cloud gespeichert und verarbeitet.  In Public Clouds kam es bereits mehrfach zu schlagzeilenträchtigen Datenschutzverletzungen, und viele Beobachter waren überrascht, als sich herausstellte, dass diese Vorfälle nicht auf Fehlverhalten des Cloud-Serviceanbieters, sondern auf die mangelhafte Erfüllung der Sicherheitsverpflichtungen des Kunden zurückzuführen waren. Beispiele für sehr einfache Fehlern sind, dass Kunden ihre Anwendungen nicht sachgemäß konfigurieren oder die Verschlüsselung nicht aktivieren.  Im Sommer 2017 wurden in den USA drei folgenschwere Verstöße bekannt, bei denen große Mengen an personenbezogenen Daten in unbefugte Hände geraten waren. Zum Schutz von öffentlichen Cloud-Services (IaaS, PaaS und SaaS) bietet der IT-Sektor eine eigene Lösungskategorie namens CASB (Cloud Access Security Broker) an.  Alle Unternehmen, die der DSGVO unterliegen, sollten dringend den Einsatz einer CASB-Lösung erwägen.   Die CASB-Lösung von Oracle nutzt maschinelles Lernen, um maximalen Schutz für Cloud-Services zu bieten. CASB kann sowohl zur Prävention als auch zur Erkennung eingesetzt werden. Zusatzlösungen, die ebenfalls auf maschinellem Lernen basieren, können in einer Hybrid Cloud (Oracle und Fremdanbieter) eingesetzt werden, um die korrekte Konfiguration von Anwendungen und Services zu gewährleisten und auffälliges Benutzerverhalten zu erkennen.  Diese hochentwickelten Lösungen können CASB ergänzen, um für eine Sicherheitszentrale moderne Tools bereitzustellen, mit denen  Cyberbedrohungen gegen personenbezogene oder sonstige vertrauliche Daten sowohl vor Ort als auch in heterogenen Clouds erkannt und abgewehrt werden können. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail oder LinkedIn. Patrick McLaughlin, Security Architect and Oracle Fellow EMEA.

Entscheidungsträger in Unternehmen sind derzeit bemüht, sich schnellstens Klarheit über die Auswirkungen der neuen Datenschutz-Grundverordnung der Europäischen Union (DSGVO) zu verschaffen. Die DSGVO...

Der Personalchef muss die Unternehmensstrategie mitbestimmen. Kann KI dabei helfen?

Moderne KI- und Analysetools unterstützen HR-Manager dabei, auf Vorstandsebene Gehör zu finden und ihrem Unternehmen einen Wettbewerbsvorsprung zu verschaffen. Der größte Kostenfaktor eines Unternehmen sind nicht die IT-Infrastruktur, die Materialien oder die Büroflächen, sondern die Mitarbeiter. Auch der Geschäftserfolg hängt wesentlich von den Mitarbeitern ab. Dennoch spielt das Personalwesen bei der langfristigen strategischen Planung in Unternehmen oft nur eine untergeordnete Rolle. Neue Analysetechniken, maschinelles Lernen und KI-Technologien verbessern die Transparenz und eröffnen der Personalführung damit neue Möglichkeiten, frisch eingestellten und langjährigen Mitarbeitern zu helfen, ihr volles Potenzial zu entfalten. Das sollte für Personalchefs der Anlass sein, auch im Vorstand aktiver mitzuwirken. Einleitung des strategischen Wandels Strategische Personalführung ist heute wichtiger denn je zuvor. In der aktuellen, technologiebasierten Geschäftswelt können neue Marken in jeder Branche schnell Fuß fassen – und mit einem hohen Innovationstempo etablierten Unternehmen Marktanteile abnehmen. Wenn Sie nicht zum Opfer solcher Umbrüche werden wollen, müssen Sie ebenfalls innovativ sein. Die Transformation der Personalabteilung muss daher mit der Ausrichtung an den wichtigsten Unternehmenszielen und der gezielten Unterstützung ihrer Umsetzung beginnen. Effektive Innovationen sind jedoch nur möglich, wenn Unternehmen die richtigen Mitarbeiter ins Boot holen –und wenn die Personalabteilung sie vom ersten Tag an bei der Entfaltung ihrer Talente unterstützt. Damit Spitzenkräfte dem Unternehmen einen echten Mehrwert bringen, brauchen sie die richtige Mischung aus Unternehmenskultur, Mitarbeiterunterstützung und Entscheidungsnähe. Nur die Personalabteilung kann ein solches Umfeld schaffen und eine Kultur fördern, in der die Talente der Mitarbeiter und die strategischen Ziele des Unternehmens aufeinander abgestimmt sind. Mitwirkung im Vorstand Obwohl die Personalabteilung einen entscheidenden Beitrag zum Mitarbeiter- und Unternehmenserfolg leistet, finden Personalchefs im Vorstand oft kaum Gehör.  Analysetools können ihnen Argumentationsgrundlagen liefern, unter anderem in Form von genaueren und relevanteren KPIs sowie detaillierteren Berichten über Personalaktivitäten und den Mehrwert, den sie erzielen. Die Analyse historischer Performancedaten ist ein guter Ausgangspunkt, reicht aber oft nicht aus, um das Personalwesen als Strategiepartner zu positionieren. Der Grund ist einfach: Historische Daten ermöglichen nur Aussagen über die Vergangenheit, nicht aber über die Zukunft des Unternehmens. Personalisierung der Mitarbeitererfahrung Prognosemethoden wie maschinelles Lernen können heute dazu beitragen, die Mitarbeitererfahrung persönlicher und damit effizienter und erfüllender zu gestalten. Wenn Mitarbeiter etwa zu Compliance und Weiterbildung nur solche Informationen erhalten, die ihre jeweiligen Rollen betreffen, können sie sich auf das konzentrieren, was für ihre Rolle im Unternehmen relevant ist. Die Vorteile reichen aber noch weiter. So kann das Verhalten des einzelnen Mitarbeiters sowie anderer Mitarbeiter mit ähnlichen Rollen und Funktionen berücksichtigt werden, um die Nutzererfahrung und die Aufgaben an die jeweilige Rolle anzupassen. Ausblick  Durch Prognosetechnologien wie maschinelles Lernen und KI können Entscheidungsträger im Personalwesen nicht nur die Vergangenheit analysieren, sondern auch in die Zukunft blicken. Zukunftsorientierte Entscheidungsträger in der Personalabteilung sehen voraus, welche Kenntnisse und Fähigkeiten das Unternehmen in Zukunft benötigen wird, und planen entsprechend, um das Wachstum und die Wettbewerbsfähigkeit des Unternehmens zu fördern.  Analysetools können der HR auch bei der Risikominimierung im gesamten Unternehmen helfen. Durch die Analyse der demografischen Merkmale und Schlüsselqualifikationen der Mitarbeiter kann das Personalwesen bevorstehende Herausforderungen – etwa eine starke Abwanderungsgefahr oder eine alternde Belegschaft – vorhersehen und ihnen entgegenwirken, bevor sie sich auf das Geschäft auswirken.  Stärker auf Prognosen ausgerichtete Tools wie maschinelles Lernen können sogar die Mitarbeiterbindung stärken und dem Unternehmen helfen, die Talente bestimmter Mitarbeiter zu erkennen und interne Karriere- und Entwicklungsmöglichkeiten für sie zu finden. Indem Sie versuchen, offene Stellen intern zu besetzen, bevor Sie sie extern ausschreiben, vermeiden Sie nicht nur teure Einstellungsverfahren, sondern bieten Ihren Mitarbeitern zudem eine bessere und differenziertere Mitarbeitererfahrung.  Parallel dazu ermöglicht KI eine Verhaltensanalyse, um negative Verhaltensweisen und Auswirkungen zu verstehen und ihnen entgegenzuwirken, während positive Verhaltensweisen, die der Mitarbeitererfahrung zugute kommen, gefördert werden. Dies trägt zu einer Unternehmenskultur bei, die Spitzenkräfte langfristig anzieht, fördert und an das Unternehmen bindet. Umsetzung der Transformation Wandel – gleich welcher Art – bedeutet erst einmal Herausforderungen. Wenn Sie jedoch einige Schritte befolgen, können Sie diese Hindernisse überwinden und die Neuausrichtung Ihrer Personalabteilung effektiv umsetzen:   1. Sichern Sie sich die Unterstützung der Unternehmensführung – Ein strategischer Wandel in der Personalabteilung benötigt Protagonisten, die den Ball ins Rollen bringen und dafür sorgen, dass Sie mit den Unternehmenszielen auf einer Linie sind. 2. Beschaffen Sie sich gute Daten – Unbereinigte Daten aus Punktlösungen können Analysen und KI-Projekte torpedieren, noch bevor sie richtig in Gang kommen. 3. Drücken Sie sich klar aus – Für einen erfolgreichen Übergang muss gewährleistet sein, dass alle Geschäftsbereiche mitziehen und eine gemeinsame Sprache sprechen. 4. Stellen Sie die Vorteile unter Beweis – Führen Sie anhand eines kleinen Testfalls vor, welchen Mehrwert Analysen Ihrem Unternehmen bieten, und bauen Sie auf diesem Erfolg auf. 5. Finden Sie die richtigen Mitstreiter in der Personalabteilung – Damit sind nicht nur Analysten gemeint, die Erkenntnisse aus Ihren Daten gewinnen können, sondern auch Leute, die diese Erkenntnisse klar und überzeugend präsentieren und ihre Bedeutung für die Geschäftsergebnisse erläutern können.   Ganz gleich, wie Sie an diese Schritte herangehen, sollten Sie darauf achten, dass Ihre HR-Tools gut verzahnt sind. Durch Punktlösungen für die Mitarbeitergewinnung, Schulungen, Leistungsbewertungen und HR-Kernaufgaben werden wichtige Daten oft voneinander isoliert und stehen dann nicht oder nur eingeschränkt für Analysen und KI-Lösungen zur Verfügung.   Analysen und HR-Neuausrichtung: die nächsten Schritte Eine Personalabteilung, die als strategischer Partner fungiert, kann ein Wettbewerbsvorteil sein und sogar das Risiko unerwarteter Änderungen im geschäftlichen Umfeld eines Unternehmens minimieren. Die strategische Personalführung setzt jedoch aussagekräftige Analysen und leistungsstarke KI-Technologien voraus. Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail oder LinkedIn. Richard Cheeseman, Director HCM Applications Marketing EMEA.

Moderne KI- und Analysetools unterstützen HR-Manager dabei, auf Vorstandsebene Gehör zu finden und ihrem Unternehmen einen Wettbewerbsvorsprung zu verschaffen. Der größte Kostenfaktor eines Unternehmen...

Customer Experience

Automatisierung: ein Gewinn für jeden DBA

Sowohl das Volumen als auch die Bedeutung der in Unternehmen gespeicherten Daten nehmen unaufhörlich zu – und Datenbankadministratoren bekommen die Mehrbelastung zu spüren. Lesen Sie im Folgenden, wie ein neuer Ansatz für das Datenmanagement Ihre Mitarbeiter entlastet – und Ihnen gleichzeitig die Freiheit für eine datengesteuerte Transformation gibt. Anschließend können Sie sich für unser bevorstehendes Live-Webinar anmelden, um mehr über die Bewältigung aktueller Herausforderungen im Bereich Datenmanagement zu erfahren. Daten, wir haben ein Problem! Es ist kein Geheimnis, dass Daten für Unternehmen wertvoll sind. Daten sind das neue Kapital – sie sind Ihr wichtigstes Gut. Die gute Nachricht ist, dass es mehr davon gibt als jemals zuvor. Die große Herausforderung liegt heute nicht in der Beschaffung von Daten, sondern in ihrer optimalen Nutzung – gerade bei begrenzten Ressourcen. Unternehmen, die riesige Datenmengen vorhalten und verwalten, sind zwar bereit, diese Daten für eine Neuausrichtung zu nutzen, aber mangelnde Ressourcen und alternde, wartungsintensive Datenbankumgebungen geben ihnen einfach nicht die Möglichkeit dazu. Dadurch entgehen ihnen große Chancen. Ein grundlegend neuer Ansatz Es gibt aber auch eine gute Nachricht: Ein neuer Ansatz für das Datenbankmanagement kann diese Probleme lösen, Ihre Datenbankadministratoren effizienter und produktiver werden lassen und Ihnen die Freiheit geben, Ihre Unternehmensabläufe neu auszurichten. Das Zauberwort heißt Datenbankautomatisierung. Damit ist gemeint, dass die Datenbank sich selbst verwaltet. Das vereinfacht nicht nur das Datenmanagement, sondern verbessert auch die Zuverlässigkeit, Sicherheit und Betriebseffizienz und senkt die Kosten. Einfach ausgedrückt bedeutet dies, dass Sie Ressourcen freisetzen können, um mehr aus Ihren Daten herauszuholen – unabhängig von der Größe Ihres Unternehmens. Von den zahlreichen und vielfältigen Vorteilen wollen wir hier nur zwei wichtige Punkte herausgreifen. Der erste Punkt ist die einfache Bedienung. Normalerweise dauert es Wochen, bis ein Data Warehouse oder Data Mart eingerichtet und an Ihre Datenquellen angeschlossen ist. Erst dann können durch Analysen praktische Erkenntnisse gewonnen werden. Ein autonomes, cloudbasiertes Data Warehouse ist in wenigen Minuten einsatzbereit. Dadurch können Sie schneller auf neue Marktbedingungen reagieren und Rückschlüsse aus Ihren Daten ziehen, die die Wettbewerbsfähigkeit Ihres Unternehmens steigern. Angesichts der rasanten Marktumwälzungen der heutigen Zeit ist die Fähigkeit, Umbrüche abfedern zu können, ein nicht zu unterschätzender Vorteil. Der zweite wichtige Vorteil besteht darin, dass Ihre Datenbankadministratoren viel weniger Zeit für routinemäßige Wartungsaufgaben und reaktive Problemlösung aufwenden müssen. In vielen Unternehmen kämpfen DBAs größtenteils an mehreren Fronten gleichzeitig – sie sorgen beispielsweise für die Einhaltung der Servicelevel und erledigen „nebenbei“ zeitraubende, aber absolut notwendige Administrationsaufgaben. In einem autonomen Data Warehouse erfolgen die Feinabstimmung der Konfiguration, die Skalierung, das Einspielen von Sicherheitspatches und ähnliche Routineaufgaben automatisch. Somit können sich Ihre Mitarbeiter auf die Dinge konzentrieren, die Ihrem Unternehmen unmittelbar zu Wachstum und Erfolg verhelfen. Der Zeitaufwand für Administrationsaufgaben wird erheblich reduziert, und es bleibt wesentlich mehr Freiraum für Innovationen und wichtige Datenanalysen.  Gleichzeitig werden auch Bedienfehler bei Routinetätigkeiten ausgeschlossen und dadurch eine Reihe unnötiger Risiken vermieden. Im Endeffekt versetzt dieses zukunftsweisende Datenmanagement Sie in die Lage, Ihre Grenzen zu überwinden und ohne Verzögerung die Daten bereitzustellen, die für Ihr Unternehmen von entscheidender Bedeutung sind. Sie können ganz nach Bedarf skalieren, schnell praxistaugliche Erkenntnisse gewinnen und die Fähigkeiten Ihrer Mitarbeiter effizienter und produktiver nutzen. Mit anderen Worten: Sie haben die Freiheit, Ihr Unternehmen neu zu strukturieren. Hinzu kommt, dass ein autonomes Data Warehouse in der Cloud gehostet wird – dadurch werden die Anschaffungskosten von Hard- und Software in Betriebskosten umgewandelt, und Sie müssen schlagartig weniger Investitionsausgaben stemmen. Hört sich das gut an? Sie können gern mehr über die Bewältigung aktueller Herausforderungen im Datenmanagement erfahren. Melden Sie sich dazu für unser bevorstehendes Live-Webinar an. Dort geht es darum, wie Sie durch Automatisierung von Routineaufgaben im Datenbankmanagement realen Mehrwert schaffen und mit begrenzten Datenbankressourcen mehr erreichen. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Jon Tutcher, Cloud & Core Technology Director, EMEA.

Sowohl das Volumen als auch die Bedeutung der in Unternehmen gespeicherten Daten nehmen unaufhörlich zu – und Datenbankadministratoren bekommen die Mehrbelastung zu spüren. Lesen Sie im Folgenden, wie...

Customer Experience

Was halten Ihre Kunden eigentlich von ihrer Customer Experience?

Sie wissen, dass die Customer Experience besser werden muss. Bloß wie? Dieser Artikel erläutert, wie Sie mit Customer Journey Mapping den Weg finden, den Ihr Unternehmen bei der digitalen Transformation einschlagen sollte. Im digitalen Zeitalter entscheidet die Customer Experience, die ein Unternehmen seinen Kunden bietet, über Erfolg oder Misserfolg. Dass sich das Kundenverhalten durch neue Technologien geändert hat, ist gebührend bekannt. Dennoch versteht längst nicht jedes Unternehmen seine neuen, digitalen Kunden wirklich. Um das Verhalten Ihrer Kunden zu verstehen und um zu wissen, was sie wirklich wollen, müssen Sie sich in ihre Lage versetzen. Ein hervorragendes Mittel ist das Customer Journey Mapping. Im zweiten Webcast unserer Serie In 5 Schritten zur besseren CX untersuchen wir, wie Customer Journey Mapping Unternehmen hilft, ihre Kunden besser zu verstehen, und warum es eine so wichtige Rolle bei der digitalen Transformation spielt. Die Umsetzung Ihrer CX-Vision Im ersten Webcast dieser Serie ging es darum, wie Sie eine Vision für eine neue Customer Experience entwickeln, die auf moderner digitaler Technologie beruht, sich aber an den Anforderungen der Nutzer orientiert.  Customer Journey Mapping ist der nächste Schritt: Es zeigt Ihnen, wie Ihr digitales Angebot in der Realität auf Nutzer wirkt, und wie weit Sie noch von Ihrem Ziel entfernt sind. Sobald Sie ganz genau wissen, wie Ihre Kunden die Interaktion mit Ihrem Unternehmen erleben, können Sie die Prioritäten für die digitale Transformation festlegen, um die gewünschten Ergebnisse zu erzielen. Bestandsaufnahme per Workshop Ein Workshop zur Analyse der aktuellen Customer Journey ist ein unverzichtbarer Schritt bei der Erstellung einer Roadmap für eine erfolgreiche digitale Transformation. Wie Sie den Workshop gestalten, liegt ganz bei Ihnen, allerdings sollte er folgende Fragen beantworten: 1: Wo finden Interaktionen mit Ihren Kunden statt? Definieren Sie alle Situationen, in denen Kunden mit Ihrem Unternehmen in Kontakt kommen: von der Produktsuche und -recherche über den Kauf und die Lieferung bis hin zu Rücksendungen. 2: Welche Erfahrungen machen Ihre Kunden jeweils? Ermitteln Sie genau, was den Kunden in jeder Situation abverlangt wird. Sind diese Aktionen einfach, schnell und selbsterklärend – oder komplex, langwierig und unübersichtlich? Sind irgendwo zu viele Aktionen erforderlich? Sind die Erfahrungen bei allen Etappen der Customer Journey konsistent? Welche Mitarbeiter und Systeme Ihres Unternehmens sind an den einzelnen Interaktionen beteiligt?  3. Welche Gedanken und Gefühle lösen diese Interaktionen bei Ihren Kunden aus? Vergleichen Sie die emotionalen Reaktionen Ihrer Kunden auf die verschiedenen Etappen der Customer Journey. Finden Sie heraus, welche als besonders lästig und zeitraubend empfunden werden – und wo Sie die Abläufe zuerst verbessern sollten. Ihre Roadmap für die digitale Transformation Nach Abschluss Ihres Workshops zur Customer Journey sollten Sie sehr genau wissen, was Ihre Kunden im Kontakt mit Ihrem Unternehmen erleben und welche Reaktionen das auslöst. Außerdem sollte klar sein, welche Änderungen vorgenommen werden müssen, um die dringendsten Herausforderungen zu bewältigen und Verbesserungsmöglichkeiten zu nutzen. Eine solcher Soll-Ist-Vergleich zwischen Ihrer Vision und der Customer Experience, die Ihre Kunden derzeit erleben, zeigt Ihnen, was Sie bei der Planung der digitalen Transformation berücksichtigen müssen. Anschließend sind Sie bestens gerüstet für die dritte Phase unseres fünfstufigen Umgestaltungsprozesses: die Ermittlung des digitalen Reifegrads Ihres Unternehmens. Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Mark de Groot, Marketing Director EMEA - Digital Customer Experience.  

Sie wissen, dass die Customer Experience besser werden muss. Bloß wie? Dieser Artikel erläutert, wie Sie mit Customer Journey Mapping den Weg finden, den Ihr Unternehmen bei der...

Innovationsförderung durch die Verbindung und Erweiterung alter und neuer Anwendungen

Co-Autor:  Kulvinder Har und Joost Volker Mit Innovation ist nicht nur die Entwicklung vollkommen neuer Anwendungen und Services gemeint. Zu Innovationen kommt es auch, wenn Unternehmen die Freiheit haben, sich über die Grenzen zwischen alten und neuen Services hinwegzusetzen und Technologie zu nutzen, um sie miteinander zu verknüpfen und zu erweitern. Unternehmen, die erfolgreich sein wollen, müssen innovationsfreudig sein. Für einige Unternehmen bedeutet das die Erfindung völlig neuer Anwendungen und Services. Aber eine Innovation kann auch eine neue Verbindung zwischen zwei Dingen sein, die es schon gab. Nur wenige Unternehmen können Innovationen so frei und unvoreingenommen angehen wie Start-ups. Und die meisten wollen das auch gar nicht. Für die meisten Unternehmen bedeutet Innovation vielmehr, Altes mit Neuem zu verknüpfen, um ihr vorhandenes Angebot zu erweitern und zu verbessern.   Moderne Tools und Funktionen können helfen, vorhandene Ressourcen mit neuen Services zu verknüpfen, um Innovationen zu beschleunigen und alte wie neue Anwendungen rentabler zu nutzen. Innovation hat unterschiedliche Gesichter Innovation kann man sich gut als kompromisslose Kundenorientierung vorstellen. Einige der bekanntesten Beispiele von Innovationen aus jüngerer Zeit sind unglaublich kundenorientiert, wie etwa der bequeme kassenlose Supermarkt Amazon Go oder die konsequent am Fahrer ausgerichtete Benutzeroberfläche in Tesla-Fahrzeugen, die den Fahrer per App und API mit der Außenwelt vernetzt. Die bahnbrechendsten Innovationen mit dem größten Potenzial für Veränderungen sind keine reinen Gimmicks. Sie nutzen die Stärke und Leistungsfähigkeit eines Unternehmens auf einem neuen  Kommunikationskanal, in einem neuen Service oder auf einer neuen Plattform. Sie nutzen und festigen also die bereits bekannte Stärke und Zuverlässigkeit einer Marke, indem sie Kunden auf neue und innovative Art ansprechen und bedienen. So können etablierte Unternehmen Start-ups aus dem Feld schlagen.  Zudem können sie neue Integrationstools nutzen, um vorhandene Ressourcen auf neue Weise zu verknüpfen und so die Effizienz zu steigern. So hält Innovation Einzug in internen und externen Prozessen und Kanälen und erhöht die Rentabilität vorhandener Investitionen. Gute Voraussetzungen für Innovationen Moderne Märkte sind so schnelllebig, dass die Innovation sowohl in großen als auch in kleinen Unternehmen die oberste Priorität haben muss. In allen Branchen und bei Unternehmen jeder Größe lässt sich daher beobachten, wie mit Start-up-Modellen versucht wird, schnell und kostengünstig Innovationen zu entwickeln. Denn genau wie Start-ups müssen auch etablierte Unternehmen Neues ausprobieren. Viele dieser neuen Ideen werden sich zwar als Sackgasse erweisen, aber einige könnten zum nächsten revolutionären Trend werden. In einer Innovationskultur à la Start-up sind Brainstorming sowie Ideen und Verbesserungsvorschläge von allen Unternehmensangehörigen, gleich welcher Hierarchieebene, erwünscht. Die vielversprechendsten Ideen werden zunächst in Versuchsläufen oder Pilotprojekten schnell und mit geringem Kostenaufwand umgesetzt. Was sich bewährt, wird dann im größeren Maßstab bereitgestellt.  Damit dieser Ansatz funktioniert, wechseln Unternehmen von herkömmlichen IT-Systemen zu Innovationsplattformen, die zwei wichtige Anforderungen erfüllen: • die Möglichkeit, Innovationen schnell und kostengünstig auszuprobieren • die Möglichkeit, erfolgreich getestete Pilotprojekte zu skalieren   So agiert jedes Unternehmen wie ein Start-up und bedient die ständige Nachfrage nach Innovationen. Wenn Sie dieselben cloudgestützten Innovationsplattform nutzen wie Start-ups, sie aber mit Ihren vorhandenen Ressourcen kombinieren, können Sie Ihre Konkurrenz hinter sich lassen. Das Innovationstempo steigt Egal, ob eine Innovation ihren Ursprung im Kreis erfahrener IT-Profis hat, von engagierten Teams eines Geschäftsbereichs ausgeht oder der Zusammenarbeit beider Gruppen entstammt: Neue Technologien erleichtern und beschleunigen in jedem Fall die Erweiterung und Zusammenführung alter und neuer Systeme. Viele moderne Innovationstools haben selbstlernende Funktionen, die es sehr einfach machen, Schnittstellen für die Erweiterung und Interoperabilität in Anwendungen einzufügen. Funktionsreiche Analysetools können detaillierte Auskunft über die Leistung dieser Erweiterungen und Integrationen geben und eventuell weitere erfolgversprechende Möglichkeiten aufzeigen. Cloudbasierte Tools und Innovationsplattformen bieten zudem eine Reihe zeit- und kostensparender Funktionen, mit denen sich Systeme noch besser verknüpfen und erweitern lassen. In der Cloud können Sie zudem stufenlos skalieren, um Innovationen zum Beispiel zunächst in einer Region zu testen und im Erfolgsfall auszubauen. Mit einer umfassend vernetzten Cloud-Plattform lässt sich der Code auch ganz einfach systemübergreifend zur Verfügung stellen – so müssen Sie das Rad nicht für jede Erweiterung oder Integration neu erfinden.  Die vielleicht größte Rolle spielt hierbei der Erfolgszug von Entwicklung und Integration auf API-Basis. APIs, zu deutsch Anwendungsprogrammierschnittstellen, sind die unverzichtbare Grundlage für das Tempo und die Größenordnung, die für einen Erfolg in der digitalen Welt erforderlich sind. Es gibt Großunternehmen, die ihr gesamtes Geschäftsmodell und ihre gesamten Einkünfte auf APIs aufgebaut haben: So generieren Expedia und Ebay 90 bzw. 60 Prozent ihrer Einnahmen über APIs. Die Chancen liegen also auf der Hand, aber es kann schwierig sein, APIs tatsächlich ins Unternehmen zu integrieren. Je mehr APIs eingesetzt werden, desto komplexer werden die Systeme und das API-Management. Das kann die Integration, Transparenz und Standardisierung beeinträchtigen. Das API-Management muss daher in Ihrer Integrationsstrategie eine wichtige Rolle spielen, damit Sie die von APIs gebotenen Chancen nutzen und Ihre Umgebung optimal gestalten und verwalten können. Die Wahl der richtigen Integrationsplattform Die Aussicht, Ihr Unternehmen durch den Kauf innovativer Anwendungen und Systeme innovationsfähiger zu machen, ist nur zu verlockend. Aber wenn diese Anwendungen und Systeme für jedes Unternehmen verfügbar sind, werden sie Ihnen kaum einen Vorteil verschaffen, der Ihr Unternehmen zum alleinigen Spitzenreiter macht. Mit einer umfassenden Integrationsplattform können Sie hingegen genau die für Ihr Unternehmen erforderlichen Verknüpfungen herstellen und wirklich neuartige Erweiterungen entwickeln. Damit setzen Sie sich von der ständig anwachsenden Masse der Mitbewerber ab, meistern Ihre größten Herausforderungen und behaupten sich auf immer stärker umkämpften Märkten. Die nächsten Schritte Wenn Sie mehr darüber erfahren möchten, wie Sie mit der Integration von Systemen Innovationen fördern, melden Sie sich für unseren Webcast  Integration als Mittel, um flexibler und innovativer zu agieren an! Kontakt: Ein spannendes Thema, über das wir, Joost Volker, Director Cloud Platform Business Development EMEA, Barry O’Reilly, Director, PaaS Business Process Management EMEA und Kulvinder Hari, Senior Director Cloud Integration EMEA, gerne mit Ihnen sprechen. So erreichen Sie uns: Joost Volker: E-Mail, LinkedIn oder Twitter Barry O’Reilly: E-Mail oder LinkedIn Kulvinder Hari: E-Mail oder LinkedIn.   

Co-Autor:  Kulvinder Har und Joost Volker Mit Innovation ist nicht nur die Entwicklung vollkommen neuer Anwendungen und Services gemeint. Zu Innovationen kommt es auch, wenn Unternehmen die Freiheit...

Her mit der Cloud: AT&T migriert riesige unternehmenskritische Datenbanken in die Oracle Cloud

AT&T ist das umsatzstärkste Kommunikationsunternehmen der Welt. Um in einer schnelllebigen Branche weiter innovativ an der Spitze zu bleiben, geht AT&T, wie andere Global Player, in die Cloud. Das Unternehmen war bereits Anführer der Telekommunikations- und Pay-TV-Branche bei der Virtualisierung und Software-Steuerung des globalen Area Networks. Damit schuf AT&T die Grundlage dafür, neue Dienste einzuführen und schneller auf Kundenbedürfnisse zu reagieren. Das Unternehmen betreibt eine Private Cloud auf Basis proprietärer Virtualisierung, um die softwaredefinierten Netzwerkdienste zu unterstützen. Und es hat tausende seiner kleineren Oracle-Datenbanken in eine andere virtualisierte Private Cloud verschoben, die eher für allgemeine Mehrzweck-Nutzungen gedacht ist. Bis vor kurzem fehlte AT&T jedoch eine cloudbasierte Lösung, um die rund 2000 größten unternehmenskritischen Oracle-Datenbanken – mehr als als 8 TB – zu betreiben. Die Private Cloud von AT&T bietet zwar bereits eine agile, automatisierte IT-Umgebung. Dennoch liefert sie nicht die erforderliche Leistung für diese sehr großen, transaktionsintensiven Datenbanken. Viele davon enthalten Kundendaten. Sie müssen daher aus regulatorischen und sicherheitstechnischen Gründen sowie zum Schutz der Privatsphäre vor Ort bleiben. AT&T entschied sich für Oracle Cloud at Customer. Dabei handelt es sich um dieselbe Hard- und Softwareplattform, die Oracle in seinen eigenen Cloud-Rechenzentren verwendet und in eine "Cloud-Maschine" im Rechenzentrum des Kunden stellt, um die größten geschäftskritischen Oracle-Datenbanken zu betreiben. Als „geschichtsträchtig“ bezeichnete Oracle-CEO Mark Hurd die Vereinbarung zwischen AT&T und Oracle: Eine strategische fünfjährige Partnerschaft sieht vor, die großen, leistungsstarken Datenbanken von AT&T mit Oracle Cloud at Customer in Oracle Cloud zu transferieren. Die Vereinbarung umfasst auch den weltweiten Zugriff auf das Cloud-Portfolio von Oracle, einschließlich des Cloud-Dienstes „Oracle Field Service“. Diesen Service wird AT&T einsetzen, um Planung und Disposition seiner mehr als 70.000 Außendiensttechniker zu optimieren. Mit Oracle Cloud at Customer kann AT&T jetzt unternehmenskritische Datenbanken mit einer Größe von bis zu 100 TB in einer von Oracle verwalteten Cloud betreiben. Die ist genauso flexibel und skalierbar wie eine öffentliche Cloud – aber sie befindet sich eben in AT&T-Einrichtungen. Diese Datenbanken werden auf Oracle Database Exadata Cloud at Customer ausgeführt, also der am besten skalierbaren und zugleich zuverlässigsten Plattform für die Ausführung von Oracle Database. „Das Faszinierende an Oracle Cloud at Customer ist, dass hier alle Vorteile einer öffentlichen Cloud und zugleich die Sicherheit und Leistung einer privaten Cloud gegeben sind", sagt Claude Garalde, leitender technischer Architekt bei AT&T. Zugleich wird die Anwendungsleistung optimiert, denn Oracle Cloud at Customer ist direkt mit der Netzwerkinfrastruktur von AT&T verbunden. „Um die Performance zu verbessern, wollen Sie natürlich, dass sich die Datenbank wirklich in der Nähe der Anwendungs- und Middleware-Schichten befindet. Sie wollen sicher nicht über eine öffentliche Internet-Verbindung oder sogar ein VPN gehen", sagt er. „Das Faszinierende an Oracle Cloud at Customer ist, dass hier alle Vorteile einer öffentlichen Cloud und zugleich die Sicherheit und Leistung einer privaten Cloud gegeben sind“ - Claude Garalde, leitender technischer Hauptarchitekt, AT&T Durch die Verlagerung der Datenbanken in Oracle Cloud erhöht sich die geschäftliche Flexibilität und Automatisierung deutlich: AT&T erwartet für die Implementierung großer, komplexer Datenbanken, dass sich die erforderliche Zeit halbiert. Und man wird die Kapazität schnell erhöhen können, um Bedarfsspitzen zu decken bzw. die Nutzung reduzieren, wenn die Nachfrage nachlässt. „Wir wollen mit dieser Lösung ein elastisches Umfeld, in dem wir bei Bedarf genauso hinauf wie hinunter skalieren können", sagt Venkat Tekkalur, Leiter der Technologieentwicklung bei AT&T. Dial-up-Datenbanken AT&T hat insgesamt über 17.000 Oracle-Datenbanken und speichert gigantische 19 PB Daten. Das Unternehmen hat vor gut fünf Jahren im Rahmen einer umfassenden Initiative begonnen, diese Datenbanken schrittweise in die Cloud zu migrieren. Bis heute sind etwa 5.000 davon in die General-Purpose-Cloud verschoben. Diese Cloud kann Datenbanken mit einer Größe von bis zu 8 TB unterstützen, sagt Tekkalur. Aber bis jetzt benötigten größere und leistungsfähigere Datenbanken immer noch eine Bare-Metal-Konfiguration. Obwohl dieser Ansatz die erforderliche Leistung lieferte, sah sich AT&T laut Tekkalur mit Herausforderungen konfrontiert, die für viele große Unternehmen typisch sind. Zusätzlicher Zeitaufwand für die Bestellung, Lieferung und Installation von Hardware und Software, das bedeutete: Die Implementierung einer großen Datenbank in einer Bare-Metal-Konfiguration vor Ort dauerte etwa doppelt so lange wie die Implementierung von Datenbanken in der Cloud. Der Prozess war auch schwieriger zu automatisieren – ein Hindernis für die Bemühungen von AT&T, seine Agilität zu erhöhen. „Die durchschnittliche Implementierungszeit passte nicht zur Agile-Methode oder zum DevOps-Modell", sagt Tekkalur. Der Ansatz schränkte auch die Kapazität ein, schnell zu skalieren, um Änderungen der Nachfrage zu erfüllen. „Wir müssen oft große Markteinführungen, wie z. B. neue Telefone, mit sehr wenig Zeit zur Vorbereitung unterstützen", fügt Tekkalur hinzu. Darüber hinaus waren die großen Datenbanken und ihre unterstützende Hardware häufig für ganz bestimmte Anwendungen vorgesehen. Es war also schwierig, durch den Austausch der Infrastruktur Einsparungen zu erzielen. „Sobald wir diese Hardware eingeführt hatten, gab es keine Möglichkeit mehr, sie für irgendetwas anderes zu nutzen", sagt er. Laut Claude Garalde, leitender Technical Architect bei AT&T, will das Unternehmen langfristig die Agilität weiter steigern, indem große, monolithische Anwendungen durch mehrere Microservices ersetzt werden. Mit Oracle Cloud at Customer hat AT&T vor, diese Herausforderungen zu schultern, die Implementierungszeiten für Datenbanken mit einer Größe bis 100 TB zu verkürzen und gleichzeitig die Flexibilität zu erhöhen. Eine flexible gemeinsame Umgebung erleichtert die Skalierung und macht es einfacher, Ressourcen neu zuzuweisen. Oracle Database Exadata Cloud at Customer bietet die Leistung, die für die großen transaktionsintensiven Datenbanken erforderlich ist. Und weil diese Datenbanken in AT&T-Einrichtungen hinter der Firewall des Unternehmens laufen, erfüllen sie auch die Anforderungen von Behörden, Datenschutz und Sicherheit. Darüber hinaus integriert AT&T Oracle Cloud beim Kunden so, dass es für die Nutzer wie ein Teil der gesamten Cloud-Umgebung von AT&T aussieht und sich auch so verhält. Von einem einzigen AT&T-Portal aus können Benutzer Datenbanken bereitstellen – in Oracle Cloud at Customer, in der universellen Private Cloud von AT&T oder in öffentlichen Clouds. Um diese Integration zu erreichen, wird eine Abstraktionsschicht unterhalb des Portals einen hochautomatisierten Bereitstellungsprozess über die AT&T-Clouds orchestrieren. Dabei dienen die Open-Cloud-APIs von Oracle zur Verbindung mit Oracle Cloud. Beschleunigung der Migration Zur Planung und Implementierung der Migration arbeitet AT&T eng mit Oracle Consulting zusammen. Von dort kommt ein Toolset, das den Migrationsprozess vereinfacht und dabei hilft, die erforderliche Konfiguration der Cloud-Datenbank zu bestimmen sowie die Datenbankbereitstellung zu automatisieren. AT&T hat auch erfolgreich aus seiner Private-Cloud-Erfahrung gelernt, um den Prozess zu beschleunigen und zu automatisieren, sagt Andy Ferretti, leitender Systemingenieur bei AT&T. Unter dem Strich erwartet AT&T mindestens eine Halbierung der Zeit, die jetzt noch für den gesamten Beschaffungs- und Bereitstellungsprozess bei großen, komplexen Datenbanken erforderlich ist. Der zeitliche Aufwand für die Implementierung dieser großen Datenbanken in Oracle Cloud at Customer ist nicht höher als bei der Implementierung viel kleinerer Datenbanken in der privaten Cloud von AT&T! Aber auch die bei früheren Migrationen erlernten Techniken nutzt AT&T, um die Ausfallzeit dieser unternehmenskritischen Datenbanken auf dem Weg zum Kunden zu minimieren, so Ferretti. Nach dem Aufbau einer Zieldatenbankinstanz in Oracle Cloud erstellt AT&T eine Momentaufnahme der lokalen Daten der Quelle und verschiebt sie in ihr neues Zuhause in der Cloud. Während der Zeit, in der die Multi-Terabyte-Datenbanken verschoben werden, erfasst AT&T weiterhin die Änderungen an der lokalen Live-Datenbank. Sobald der Snapshot in die Cloud kopiert wurde, kommt eine Synchronisierungsmethode wie Oracle Active Data Guard oder Oracle GoldenGate zum Einsatz, um die Zieldatenbank mit den neuesten Änderungen zu aktualisieren. Der Effekt: AT&T kann schnell auf Oracle Cloud umschalten und die Live-Anwendung unterstützen. Falls die ursprüngliche Datenbank wiederhergestellt werden muss, richtet man eben eine umgekehrte Synchronisierungsmethode ein. Nach Tests mit Early Adopters Ende 2017 gehen die ersten Oracle Cloud-at-Customer-Datenbanken Anfang 2018 in Betrieb, sagt Ferretti. Danach werden die Datenbanken schrittweise in Oracle Cloud verschoben. Der Plan ist am Ende des Tages, Oracle Cloud at Customer an rund 19 AT&T-Standorten zu implementieren. Geringes Risiko, hoher ROI AT&T ebenso wie viele andere große Unternehmen sehen Oracle Cloud at Customer als eine Möglichkeit, Bedenken hinsichtlich Datensicherheit und Performance bei der Migration in die Cloud gegenstandslos zu machen, sagt Andrew Mendelsohn, Executive Vice President für Datenbankserver-Technologien bei Oracle. „Für Unternehmen, die regulatorische Bedenken oder Datenschutzbedenken bezüglich Kundendaten haben, ist dies ein äußerst risikoarmer Weg. Kunden erhalten volle Agilität und das Geschäftsmodell der Cloud, aber das läuft alles in ihrem eigenen Rechenzentrum.“ „Wir wollen mit dieser Lösung ein elastisches Umfeld, in dem wir bei Bedarf genauso hinauf wie hinunter skalieren können“ - Venkat Tekkalur, Direktor für Technologieentwicklung, AT&T Die Datenbanken befinden sich im Rechenzentrum des Kunden und im gleichen Netzwerk wie die Geschäftsanwendungen des Unternehmens; das "beseitigt die Leistungsverzögerung, die zwischen einer lokalen Anwendung und einer Datenbank in der öffentlichen Cloud auftreten würde", fügt Mendelsohn hinzu. "Und es ist ein Sprungbrett in eine öffentliche Cloud. Wenn die Public Cloud für ein Unternehmen OK ist, kann es diese Datenbanken problemlos verschieben." Laut Garalde will AT&T langfristig die Flexibilität weiter erhöhen, indem große, monolithische Anwendungen durch mehrere Microservices ersetzt werden. Jeder davon verfügt dann möglicherweise über eine eigene Datenbank, die wiederum über offene APIs miteinander verbunden sind. Dieser Ansatz würde es AT&T ermöglichen, neue Dienste schneller zu erstellen und zu aktualisieren – einfach, indem verschiedene Kombinationen von Microservices verbunden werden. Für AT&T ist die Cloud-Partnerschaft mit Oracle ein entscheidender Schritt auf dem Weg zu einer nahtlosen und intuitiven Erfahrung für Kunden und zur Aufrechterhaltung der Marktführerschaft. „Wir glauben, die Zukunft des Netzwerks sollte auf Daten basieren, auf Software zentriert sowie schnell und reaktionsfähig sein", sagt John Donovan, CEO von AT&T Communications. „Diese Zusammenarbeit mit Oracle beschleunigt unsere Netzwerktransformation und die Migration in die Cloud.  So steigern wir Effizienz und Leistung, senken die Kosten und verbessern den Kundenservice insgesamt." Weitere Infos: Erfahren Sie mehr zu Oracle Cloud at Customer. Testen Sie Oracle Cloud. Kontakt: Eine spannende Sache, über die ich gerne mit Ihnen spreche, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.   Foto Claude Garalde: Bob Adler/The Verbatim Agency

AT&T ist das umsatzstärkste Kommunikationsunternehmen der Welt. Um in einer schnelllebigen Branche weiter innovativ an der Spitze zu bleiben, geht AT&T, wie andere Global Player, in die Cloud. Das...

Business Analytics

Data Visualization: Wie Oracle mit AI hilft, Herzkrankheiten zu erkennen

Herzfehler besser zu erkennen und Erkrankungen zu prognostizieren - das könnte helfen, gravierenden Komplikationen wie Herzinfarkt oder Schlaganfall vorzubeugen. Moderne Datenverarbeitung ist ein neuer und vielversprechender Weg dorthin. Mit den richtigen Daten und einem einfachen Tool wie Oracle Data Visualization in Kombination mit unserem Machine Learning-Plugin bekommen Experten jetzt einen Schlüssel zur Lösung dieses Problems in die Hand.  In den USA etwa sind laut American Heart Association Herzerkrankungen (einschließlich Herzkranzgefäßerkrankungen, Bluthochdruck und Schlaganfall) für rund ein Drittel der Todesfälle verantwortlich. Das entspricht einer jährlichen Rate von fast 801.000. Und weltweit sind Herz-Kreislauf-Erkrankungen die führende Todesursache überhaupt: Im Jahr 2013 waren es mehr als 17,3 Millionen Todesfälle - eine Zahl, die bis 2030 auf mehr als 23,6 Millionen steigen soll. Nun kann zwar ein einigermaßen gesunder Lebensstil - die üblichen Verdächtigen wie bewusste Ernährung, Bewegung, nicht rauchen - die Wahrscheinlichkeit einer Herzerkrankung verringern. Aber gezielter vorgehen könnte man doch, wenn Daten, basierend auf spezifischen Markern, die Probleme und die Wahrscheinlichkeit von Herz-Kreislauf-Erkrankungen aufzeigen könnten. Quetschen wir also die Zahlen aus und lüften den Schleier der Risikofaktoren. Das folgende Demo-Video haben unsere US-Kollegen dem Valentinstag und dem jährlichen American Heart Month (Februar 2018) gewidmet. Es zeigt, wie Oracle Data Visualization und Machine Learning-Algorithmen Gesundheitsdaten von Patienten so in die Mangel nehmen, dass das individuelle Risiko für Herzerkrankungen genauer bestimmbar wird. Eingesetzt wird dabei eine maschinelle Lerntechnik mit mehreren Klassifizierungen. Der Prozess läuft zusammengefasst etwa so ab: Zunächst werden Daten von Patienten mit einer diagnostizierten Herzerkrankung erhoben. Diese Datensätze enthalten Informationen, die typischerweise mit Herzerkrankungen zusammenhängen, z. B. Blutzucker, Cholesterin und andere physiologische Daten. Mithilfe dieser Daten wird ein neuronales Netzmodell mit mehreren Klassifizierungen erstellt. Dieses Modell wird dann verwendet, um die Wahrscheinlichkeit einer Herzerkrankung bei anderen Personen vorherzusagen, deren medizinische Vorgeschichte bzw. medizinische Daten bekannt sind. Das Beispiel für maschinelles Lernen im Video steht im Oracle Analytics Store unter „Example DV project: Heart Disease Prediction“ zum Download zur Verfügung. Sie finden es mit dem Suchbegriff „Heart Disease“: Was bringt diese Methode an Vorteilen? Nicht nur in solchen Fällen, sondern ganz generell verfügen Individuen ebenso wie Unternehmen Zugriff auf Daten aus ihrer Vergangenheit, also darüber, ob ein bestimmtes Ereignis stattgefunden hat oder nicht: Unter welchen Bedingungen ist es passiert? Welche Rolle hatten andere Faktoren usw.? Da liegt es doch auf der Hand, diese historischen Daten zu benutzen, um vorherzusagen, ob ein bestimmtes Ereignis in der Zukunft eintritt oder nicht – Wahrscheinlich? Weniger wahrscheinlich? Höchstwahrscheinlich? Definitiv? Damit das funktioniert, muss man ein Modell regelrecht trainieren, und zwar indem man tatsächlich bekannte Werte einer Spalte verwendet, um den Spaltenwert für unbekannte Fälle vorherzusagen. Dieses Verfahren fällt in den Bereich des überwachten maschinellen Lernens. Oracle Data Visualization verfügt über integrierte Algorithmen, die in der Lage sind, unter anderem solche überwachten Multi-Klassifizierungen durchzuführen. Anwender können diese Algorithmen je nach Bedarf einzeln auswählen. Der folgende Screenshot zeigt eine Liste der integrierten Algorithmen in Oracle Data Visualization, die diese Mehrfachklassifizierung durchführen können: Mithilfe diesen Methoden kann sogar ein einfach zu bedienendes Datenvisualisierungs-Tool helfen, komplexe Fragen zu beantworten und das Wesentliche an einem Problem richtig zu verstehen. Um das selbst auszuprobieren und so mehr über maschinelles Lernen zu erfahren, laden Sie Oracle Data Visualization Desktop herunter – und dann erzählen Sie Ihrem Vorgesetzten, wie begeistert Sie davon sind. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Sabine Leitner, Sr. Marketing Manager.   

Herzfehler besser zu erkennen und Erkrankungen zu prognostizieren - das könnte helfen, gravierenden Komplikationen wie Herzinfarkt oder Schlaganfall vorzubeugen. Moderne Datenverarbeitung ist ein...

Softwareentwicklung: Dramatische Veränderung durch Cloud - Anforderungen an Entwickler ändern sich rapide

Im Januar des vergangenen Jahres machte der Vice President für Produkt Management und Strategie bei Oracle, sieben Prognosen für das Jahr 2017 und darüber hinaus. Diese basierten auf Rückmeldungen von Oracle Kunden. Diese Vorhersagen geben Entwicklern Einblicke in die neuen Anforderungen für ihren Job und die notwendigen Kenntnisse und Fähigkeiten, Anwendungen schneller und effizienter zu entwickeln. Überprüfen wir nun nun diese sieben Prognosen. Vergleichen wir sie mit aktuellen Daten und sprechen wir darüber, was für Entwickler notwendig ist, um mit den sich rasant entwickelnden Technologien und Geschäftsanforderungen mithalten zu können. 1. Deutlich mehr künstliche Intelligenz (AI) in Anwendungen - AI wird zur neuen Benutzeroberfläche: Soviel war klar: Die Algorithmen, die von Entwicklern geschrieben werden, würden eine wichtige Rolle spielen – aber mehr noch die Daten, die die AI-Anwendungen speisen. Wettbewerbsvorteile werden von den Entwicklern geliefert, die wissen, welche Daten die besten sind und wie sie zur Erreichung der Geschäftsziele eingesetzt werden können. Ein kürzlich erschienener Bericht von Technavio zeigt, dass AI tatsächlich drauf und dran ist, bis 2021 um mehr als 50 % der durchschnittlichen jährlichen Wachstumsrate (CAGR) zu wachsen – während ein Artikel von Quartz auf einen immer größeren Mangel an qualifizierten Arbeitskräften hinweist, die aber gebraucht werden, um diese Nachfrage zu befriedigen. 2. 2018 werden Chatbot-Apps mit Verständnis für natürliche Sprache Standard sein: Die Entwickler würden sich 2017 stark auf diese Domäne konzentrieren und nach Cloud-Plattformen suchen, um Chatbot-Funktionen zu nutzen. So könnten sie z. B.  eine einzige Schnittstelle schreiben, die über mehrere Messaging-Plattformen hinweg funktioniert. Aktuelle Berichte von Technavio und Market Research Future sehen bereits bis 2021 und 2023 einen Anteil von 37 % am Chatbot-Markt, während Business Insider annimmt, dass 80 % der Unternehmen erwarten, schon 2020 Chatbots im Einsatz zu haben. Dementsprechend prognostiziert auch ein Servion-Bericht, dass bis 2025 künstliche Intelligenz 95 % der Interaktionen mit Kunden erledigt und dass diese nicht einmal mehr in der Lage sein werden, den Bot als solchen zu identifizieren. 3. Container sind im Jahr 2018 beliebter als VMs: Angetrieben von einer Masse an Entwicklungs- bzw. Testumgebungen, die bis zu zehn Mal größer sein können als die Produktion, würden Entwickler Container verwenden, um die Agilität zu verbessern. In Produktionsumgebungen würden sich Entwickler Container-as-a-Service-Lösungen zuwenden, um die Verwaltung von Infrastrukturelementen wie Orchestrierung, Planung und Ressourcenzuweisung zu vermeiden. Ein aktueller Bericht von Technavio sagt, dass der globale Containermarkt bis 2021 um mehr als 31 % ansteigen soll, während 451 Research von einem Containermarkt im Jahr 2020 im Wert von 2,7 Milliarden US-Dollar spricht. 4. Verdopplung der Anwendungsversionen im Jahr 2017: Mit Bedrohungen durch  Cloud-Innovationen eines Mitbewerbers im Nacken wären Geschäftsbereichsleiter gezwungen, den Markt ständig mit neuen Apps und Funktionen zu testen, was zusätzlichen Druck auf die Entwickler ausüben würde. Software.org stellte fest, dass der US-Softwaremarkt derzeit fast dreimal schneller wächst als die US-Wirtschaft und 1,14 Billionen US-Dollar erreicht. Die Nachfrage nach Entwicklern ist im vergangenen Jahr weiter gestiegen und steigt weiter, während insbesondere Java-Fähigkeiten zunehmend nachgefragt werden. 5. Bis 2020 kommen alle neuen Apps aus der Cloud: Durch die Verlagerung von Entwicklungs- bzw. Testumgebungen in die Cloud profitieren Entwickler davon, Ressourcen schnell hochfahren zu können und gleichzeitig vorhandene Cloud-Ressourcen zu nutzen: APIs, Tools für die fortlaufende Integration und Collaboration-Apps. Damit können CIOs die Entwicklungs- bzw. Testkosten senken, die ja 30 % ihrer Budgets ausmachen, indem sie nur für die von den Entwicklern genutzte Kapazität zahlen – und stattdessen in Innovationen investieren. Gartner rechnet damit, dass sich die "Cloud-Verschiebung" bis 2020 auf über eine Billion US-Dollar an IT-Ausgaben auswirken wird, wobei sich die Investitionen in Cloud-Dienste verdoppeln werden. 6. Wachstumsrate der Citizen Entwickler toppt bis 2020 die traditionellen Java-/.NET-Entwickler: Die Leichtigkeit, mit der neue Funktionen in der Cloud entwickelt werden, wird die Anzahl der nicht-traditionellen Entwickler erhöhen, die aus LOBs kommen. Sie werden Low-Code-Plattformen und eine Drag-and-Drop-Schnittstelle verwenden, um schnell Web- oder Mobile-Business-Apps entwickeln zu können. Gartner prognostiziert, dass bis 2020 60% aller Fast-Mode-Anwendungsentwicklungsprojekte außerhalb der IT erfolgen werden, während ein kürzlich erschienener Forrester-Bericht zu dem Schluss kam, dass Low-Code-Entwicklungsplattformen hier sind, um zu bleiben". 7. 60% der IT-Organisationen verlagern das Systemmanagement bis 2020 in die Cloud: Entwickler sind gezwungen, Apps ständig zu verbessern und zu experimentieren, ohne Ausfallzeiten zu riskieren oder die Leistung für die Kunden zu beeinträchtigen. Genau daher wird es eine Umstellung auf cloud-basiertes Systemmanagement geben, bei der sich mit maschinellem Lernen Probleme zuverlässiger erkennen lassen. Laut marketsandmarkets.com wird der Markt für  Cloud-System-Management-Software zwischen 2016 und 2021 von 4 Mrd. US-Dollar auf 15 Mrd. US-Dollar anwachsen. Darüber hinaus schätzt IDC, dass bereits 2018 60 % der IT-Workloads außerhalb von Geschäftsräumen angesiedelt sein werden und dass 85 % der Unternehmen sich zu einer Multi -Cloud-Architektur zuwenden werden. Man muss kein Prophet sein, um zu sehen, dass sich der Bereich Entwicklung und die damit verbundenen Aufgaben in den kommenden Monaten rasant entwickeln werden. Somit ist es unumgänglich, Ihr Wissen und Ihre Kompetenzen entsprechend weiter zu entwickeln. Oracle University Cloud Subscriptionen und Kurse bereiten Sie gezielt vor, bestehende und aufkommende geschäftliche und technische Herausforderungen der Cloud zu meistern. Kontakt Gerne unterhalte ich mich auch mit Ihnen darüber, per E-Mail oder LinkedIn. Ottmar Kugelmann, Senior Director Oracle University - Cloud, EMEA

Im Januar des vergangenen Jahres machte der Vice President für Produkt Management und Strategie bei Oracle, sieben Prognosen für das Jahr 2017 und darüber hinaus. Diese basierten auf Rückmeldungen von...

Business Analytics

Panama Papers: Wie man mit Oracle 11,5 Mio. Dokumente analysiert

Big-Data-Analysen entziehen sich meist dem Blick von Normalsterblichen. Eine anschauliche Vorstellung davon, welche Massen von Daten mit welchen Instrumenten in (möglichst) verwertbare Aussagen verwandelt werden, ist kaum je zu gewinnen. Der Skandal um die Panama Papers (und in ihrem Gefolge die Paradise Papers) gibt Gelegenheit, den Deckel der Black Box, in der solche Analysen stattfinden, zu heben. Voilà, das Ausgangsmaterial: 214.488 Briefkastenfirmen 11,5 Mio. E-Mails, PDFs, Faxe, Urkunden usw. 2,6 Terabyte an Daten 109 Medien in 76 Ländern präsentierten am 3.4.2016 gleichzeitig erste Ergbenisse. Wie war ers überhaupt menschenmöglich, ein so großes Konvolut unterschiedlichster Daten und Unterlagen aus diversen Quellen zu sinnvollen Informationen zu verarbeiten und zu analysieren – zumal es sich um nicht offensichtliche und (teilweise) sogar bewusst verschleierte Informationszusammenhänge über Briefkastenfirmen, handelnde Personen und Banken handelte? Quelle: Süddeutsche Zeitung: “Das sind die Panama Papers”.  Es ist leicht nachvollziehbar, dass die Datenverarbeitung vom Lesen der Rohdaten bis zur Visualisierung der Analyseergebnisse und der Schlussfolgerungen äußerst aufwändig ist und unterschiedlichste Technologien benötigt.  Zunächst geht es darum, die aus den Rohdaten extrahierten Informationseinheiten und deren wechselseitige Zusammenhänge abzubilden. Dazu eignen sich besonders Graph-Datenbanken; sie stellen ein Datenmodell bereit, das auf die Beschreibung von Beziehungen zwischen Objekten der realen Welt spezialisiert ist und bringen auch die Werkzeuge und Algorithmen für die Analyse der Graphen mit. So können Muster in den miteinander vernetzten Objekten erkannt werden. Außerdem lassen sich semantische Suchen ausführen und neues Wissen ableiten. Bei diesem Prozess kommt zusätzliches Wissen in Form von Thesauri, semantischen Netzen und Ontologien zum Einsatz. Dr. Thorsten Liebig, Karin Patenge: “Visuelle Analyse von komplexen Daten am Beispiel der Panama Papers”, IT Tage 2017.   Graph Datenbanken Die Oracle Datenbank ist eine multi-modale Datenbank. Sie unterstützt also bereits nativ unterschiedliche Datenmodelle wie Relational, XML, JSON, Geodaten oder Messages. Ab der Version 12.2 unterstützt sie nativ auch zwei Arten von Graph-Datenmodellen, nämlich RDF Graph[1] und Property Graph. Die Analyse passiert nun direkt in der Datenbank mit Algorithmen, die für den jeweiligen Datentyp spezifisch vorimplementiert wurden und über die Abfragesprache SQL abrufbar sind. Dabei kann vorteilhafterweise die Oracle Datenbank im eigenen Rechenzentrum (on premises) betrieben, aber genauso gut auch als Cloud Service gemietet werden. RDF Graph RDF (Resource Description Framework) ist ein System von Ressouren, in dem logische Aussagen als „Subjekt-Prädikat-Objekt“-Sätze (engl. Triples) formuliert werden. Die Oracle Datenbank (Triple Store) dient bei der Nutzung des RDF Datenmodells zum Speichern dieser Aussagen. Die Aussagen sind maschinenlesbar und lassen sich von Programmen einfach erzeugen und verarbeiten. RDF ist ein grundlegender Baustein des so genannten Semantischen Web. Der wesentliche Unterschied zum HTML-basierten Internet ist, dass Daten mit ihrem Kontext und ihrer Bedeutung in Zusammenhang gebracht werden. Die Standard-Abfragesprache für die Analyse von RDF Graphen ist SPARQL. Visuelle Graph-Analyse Für die Präsentation und die zusätzliche visuelle Analyse werden Open Source Werkzeuge wie Cytoscape oder kommerzielle Lösungen wie SemSpect (derivo GmbH) eingesetzt. Diese greifen direkt auf die Graphen in der Oracle Datenbank zu. Derivo GmbH. http://panama.semspect.de Weiterführende Informationen: Technical Whitepaper: Spatial and Graph Analytics with Oracle Database 12.2 Graph Features in Oracle Spatial and Graph Blog (Englisch) Graph Features in Oracle Big Data Spatial and Graph Blog (Englisch) BIWA Summit 2017: Beitrag von Robin Moffat, Rittman Mead „Analysing the Panama Papers with Oracle Big Data Spatial and Graph” Offshore Leaks Database: https://offshoreleaks.icij.org/pages/database Dr. Thorsten Liebig, Karin Patenge: "Verborgenes sichtbar machen: Visuelle Analyse komplexer Daten am Beispiel der Panama Papers" in Business News 3-2017 SemSpect: http://www.semspect.de Analytics and Data Summit 2018 vom 20.-22. März 2018 in San Francisco   Kontakt: Wenn Sie mit mir über dieses spannende Thema diskutieren möchten, dann erreichen Sie mich per Email, XING, LinkedIn oder Twitter. Karin Patenge, Business Development Manager, Technology and Cloud Platform.  

Big-Data-Analysen entziehen sich meist dem Blick von Normalsterblichen. Eine anschauliche Vorstellung davon, welche Massen von Daten mit welchen Instrumenten in (möglichst) verwertbare Aussagen...

Schneller und günstiger: Microservices statt Monolithen

Auf einem Dinosaurier gewinnt man kein Polo-Turnier. Denn Mächtigkeit ist zwar nicht schlecht, aber wenn Agilität gefragt ist … Agile Unternehmen brauchen agile digitale Lösungen. Apps, die schnell sind, wendig, flexibel, skalierbar. Software, die innerbetrieblich genauso tauglich ist wie in der Cloud. Unternehmen müssen disruptive Innovationen auf den Markt bringen und auf Disruptionen reagieren können. Die Elastizität der Cloud und cloudbasierte Ansätze sowie eine IT-Architektur auf der Basis von Microservices schaffen die Voraussetzungen dafür. Anwendungen können so direkt in der Cloud entwickelt und angepasst werden. Services werden schneller bereitgestellt, Innovationen einfacher entwickelt, neue Produkte bedarfsgerecht skaliert – und das alles kostengünstiger als zuvor. Kurz: Mit Microservices wächst die Wettbewerbsfähigkeit. Dennoch ist vielen Unternehmen noch unklar, wo wirklich der Vorteil liegt, wie die Abläufe beim Programmieren vereinfacht werden und was das alles mit der nötigenTransformation des Geschäftsmodells zu tun haben soll. Die Migration in die Cloud vollziehen inzwischen ohnehin Unternehmen jeder Größe, ob etabliert oder Start-up. Sie ersparen sich damit kapitalintensive Investitionen sowie Betriebs- und Wartungskosten. Und sie bekommen schier unbegrenzte Rechen- und Speicherkapazitäten mit hohen Übertragungs- und Verarbeitungsgeschwindigkeiten. Start-ups und junge, expandierende Unternehmen konkurrieren mit dieser Technologie plötzlich mit Großunternehmen auf Augenhöhe. Dank des bedarfsorientierten, nutzungsbasierten Modells, das herkömmliche Kostenhürden beseitigt, können sie neue Ideen praktisch sofort auf den Markt bringen. Die Gründe dafür sind vielfältig. Small is smart Traditionelle monolithische IT-Systeme sind über die Jahre hinweg gewachsen und umfassen teilweise mehrere Millionen Code-Zeilen. Will ein Programmierer hier auch nur kleine Änderungen vornehmen, muss er die gesamte Software aus dem internen Source-Verwaltungssystem ziehen, sie bearbeiten und anschließend wieder komplett zurückschieben. Dieser Prozess ist aufgrund der Dateigröße äußerst langwierig.  Selbst Experten müssen sich oft erst wieder in den Code einarbeiten. Cloud-native Apps hingegen verwenden oft das Microservices-Konzepts. Diese extrem kleinen Softwarekomponenten lassen sich deutlich schneller überblicken bzw. bearbeiten. Allerdings hat auch der Umgang mit solchen Codebestandteilen seine Tücken. So muss kontinuierlich geprüft werden, ob die einzelnen Komponenten noch miteinander kompatibel sind. Darum sind regelmäßige automatische sog. Unit- und Integrationstests Pflicht, sobald die Arbeit daran abgeschlossen ist. Diese Tests brauchen immer wieder nur temporär Computing-Ressourcen, daher finden sie idealerweise wiederum in der Cloud statt – Stichwort: Elastizität. Außerdem: Reduzierte Komplexität und minimale Ausfallzeiten Cloud-Plattformen machen die Entwicklung von Anwendungen schlanker und einfacher. Entwickler können sich also auf die eigentliche Programmierung und die Bereitstellung konzentrieren, statt Zeit mit der Einrichtung einer Entwicklungsinfrastruktur zu verschwenden. Entwicklung und Betrieb sollten über einen gut abgestimmten DevOps-Mechanismus enger miteinander verknüpft sein, um Kommunikation, Zusammenarbeit und Kohäsion zwischen den beiden Bereichen zu optimieren. Vorteil: mehr Servicestabilität und ein Minimum an Ausfallzeiten. Schnellere Einführung neuer Funktionen bei höherer Mobilität Wer schneller auf Marktentwicklungen und neue Kundenanforderungen regieren will, bekommt mit Microservices einen schlanken, integrierten Prozess für die kontinuierliche Integration und Bereitstellung. Zugleich heißt moderne Anwendungsentwicklung auch, Lösungen sowohl für stationäre als auch für Mobilgeräte zu entwickeln. Mit einem „API-first“-Ansatz lassen sich Schwerpunkte ganz nach Bedarf setzen, also auf Anwendungen für Mobilgeräte oder stationär oder für die Erweiterung gebrauchsfertiger Lösungen. Maßgeschneiderte Erweiterungen und Anpassungen bei effizienter Verwaltung und stärkerer Sicherheit Eigene cloud-native Anwendungen ermöglichen es, erforderliche Funktionen zielgenau zu entwickeln und diese schnell zu implementieren. Betriebsprozesse lassen sich straffen und Kosten senken, und zwar durch die Verwaltung eigener Anwendungen über vollständig integrierte Überwachungs- und Analysedienste sowie die Migration der Anwendungen in eine vertrauenswürdige und robuste Cloud bei der nötigen physischen Netzwerk- und Systemsicherheit … auf einem Niveau, das die meisten Unternehmen kaum erreichen können. Außerdem gibt es weitere Vorteile durch automatisierte Prozesse für Failover, Backup, Wiederherstellung u.v.a. Weitere Infos in unserer Broschüre "Managing Containers Easily on Oracle Public Cloud"  und in diesen Videos: Kontakt: Eine spannende Sache, über die ich gerne mit Ihnen spreche, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Auf einem Dinosaurier gewinnt man kein Polo-Turnier. Denn Mächtigkeit ist zwar nicht schlecht, aber wenn Agilität gefragt ist … Agile Unternehmen brauchen agile digitale Lösungen. Apps, die schnell...

Zeit für Wandel: jetzt in bessere Kundenerlebnisse und eine profitablere Zukunft investieren

Die Kundenzufriedenheit ist für Ihr Unternehmen wichtiger denn je, doch es wird immer schwieriger, Kunden wirklich zu beeindrucken. Was können Sie tun, um dies zu erreichen? Positive Kundenerlebnisse sind wichtig für den Erfolg einer Marke.  97 Prozent der Führungskräfte nennen dies als „erfolgskritischen Faktor“.1 Wenn Sie hier alles richtig machen, knüpfen Sie eine Kundenbindung, die Sie vom Wettbewerb abhebt. Fehler dagegen schaden Ihrem Ruf, kosten Sie Aufträge und schmälern die Erlöse. Aber warum ist es so schwierig, alles richtig zu machen? Es ist einfach so, dass Kunden heute höhere Erwartungen haben. Warum? Weil diese Erwartungen in jedem anderen Bereich ihres Lebens erfüllt werden – in den sozialen Netzwerken, die sie zuhause nutzen und durch die Supercomputer, die sie in den Händen halten. Sie sind daran gewöhnt zu bekommen, was sie möchten und wann und wie sie es möchten. Sie erwarten mehr und dies schneller. Wenn die Kundenerlebnisse, die Ihr Unternehmen bietet, diesen Erwartungen nicht gerecht wird, dann sehen Sie im Vergleich alt aus. Überraschenderweise ist dies nicht nur die Einstellung einer jungen und technikaffinen Bevölkerungsgruppe. Unser Forschungsprojekt  Customer Experience der nächsten Generation: die digitale Kluft existiert nicht mehr, hat gezeigt, dass eine große Zahl von Kunden aller Altersgruppen den digitalen Auftritt von Marken wenig wertschätzt. Aber ist das denn so schlimm? Was kann schlimmstenfalls passieren? Die Studie zeigt, dass 89 % der Kunden die Marke wechseln würde, wenn das Kundenerlebnis schlecht war. Da haben Sie schon die Antwort.   Wie sieht ein positives Kundenerlebnis aus? Was sollten Sie also bieten? Personalisierung ist heute nur die Mindestanforderung. Um wirklich erfolgreich zu sein, müssen Sie mehr bieten. Sie müssen Ihre Daten beherrschen, um Ihren Kunden über alle Berührungspunkte hinweg – sowohl digital wie auch analog – ein konstant positives Kundenerlebnis zu bieten. Das ist der Unterschied zwischen gut und hervorragend. „Gut“ bedeutet, dass das Kundenerlebnis auf einem beliebigen Kanal für sich genommen stimmt. Doch um als „hervorragend“ eingestuft zu werden, muss ein Kundenerlebnis kanalübergreifend und nahtlos sein. Zwei Dinge sind hier wichtig zu beachten. Als erstes benötigen Sie Zugriff auf die Daten, mit denen Sie eine professionelle, maßgeschneiderte digitale Betreuung bereitstellen, damit Kunden wieder kommen und mehr wollen. Weil jedoch viele Daten aus vielen verschiedenen Quellen kommen, ist das Schwierigste daran wohl, genau diejenigen Daten zu identifizieren, die Sie benötigen. Welche Daten helfen Ihnen, Ihre Kunden, deren Gewohnheiten und Vorlieben zu verstehen? Mit welchen Daten bieten Sie das höchst individualisierte Engagement, das Kunden wollen? Wenn Sie die Antworten auf diese Fragen finden und sich gezielt darauf konzentrieren, können Sie Ihre Kundenkontakte genau so gestalten, wie Ihre Kunden sich das wünschen.   Die Summe ist größer als die Teile Das Zweite, was Sie brauchen, ist eine Idee des großen Ganzen – ein Verständnis aller einzelnen Komponenten, die zum gesamten Kundenerlebnis beitragen. Denn wenn Sie nach Konsistenz streben, dann ist jedes Teil so wichtig wie die anderen. Was bedeutet das in der Praxis? Es bedeutet, dass Sie Ihre Zeit und Ihr Kapital gleichermaßen in Vertrieb über alle Kanäle, Servicekontakte, E-Commerce-Einrichtungen, Daten und Analysemethoden und soziale Kompetenzen investieren müssen. Es sind diese fünf Elemente, die das moderne Kundenerlebnis ausmachen. Wenn Sie eines davon dem Zufall überlassen, kann das ganze Gerüst zusammenbrechen wie ein Kartenhaus. Erfahren Sie auf ganz praktische Weise, wie Sie Ihr Unternehmen in die digitale Zukunft führen, und sehen Sie sich unser Semi-Live-Webinar „5 Schritte zur digitalen Transformation“ an. Webinar anschauen   Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Mark de Groot, Digital CX Evangelist.

Die Kundenzufriedenheit ist für Ihr Unternehmen wichtiger denn je, doch es wird immer schwieriger, Kunden wirklich zu beeindrucken. Was können Sie tun, um dies zu erreichen? Positive Kundenerlebnisse...

Wie die Finanzabteilung Agilität und Wachstums eines Unternehmens vorantreiben kann

Im digitalen Zeitalter wird Agilität zum kritischen Faktor für Unternehmen. Deshalb nutzen die meisten zukunftsorientierten Finanzteams ein neues Hochleistungsmodell, mit dem die Herausforderungen einfacher zu meistern sind und der Erfolg maximiert wird. Laut neuen Forschungserkenntnissen von Oracle und dem American Institute of CPAs (AICPA) verfügen Organisationen mit solchen Teams mit größerer Wahrscheinlichkeit als andere über Agilität und erzielen ein profitables Wachstum. Sich wandelnde Kundenerwartungen und die schnellere Innovationsfolge haben die Arbeitswelt bereits umgekrempelt und werden dies auch weiter tun. Wandel ist keine Option mehr – er ist zum Muss geworden. Finanzprofis – als flexible Anführer mit den breit gefächerten Kompetenzen, die ein modernes Unternehmen erfordert – sind entweder Schrittmacher dieser Entwicklung oder werden vom Wettbewerb abgehängt. Wo ist also Ihr Finanzteam positioniert? Und wo sind Sie? Sind Sie Anführer oder Nachzügler? Oracle und AICPA untersuchten das Verhalten der erfolgreichsten Finanzorganisationen und stellten fest, dass diejenigen die besten Leistungen gezeigt haben, die selbst hochgradig agil waren – effizienter und automatisierter und in der Lage, schneller zu reagieren, auf Basis besserer und verlässlicherer Informationen, und mit mehr Zeit zur Strategieentwicklung und Beeinflussung der Richtung ihres jeweiligen Unternehmens. Darüber hinaus waren Unternehmen mit agilen Finanzteams insgesamt erfolgreicher als solche Wettbewerber, die weniger zukunftsorientierte Finanzabteilungen hatten. Welche Eigenschaften unterscheiden Anführer von Nachzüglern? Exzellenzzentren Agile Finanzmanager sind ihren Kollegen in der Regel weit voraus, wenn es um die Umsetzung von Exzellenzzentren für Finanzplanung und Analyse (FP&A) geht, um den Einsatz von Cloud-Services wie dem Enterprise Performance Management (EPM) und die Einführung einer breiten Palette an sonstigen Innovationen, z. B. Prozessautomation mithilfe von Robotern (RPA). Breites Kompetenzspektrum Agile Finanzmanager bewerten auch öfter als andere die Kompetenzen ihrer Finanzteams als „ausgezeichnet“, insbesondere in Bezug auf nicht traditionelle Fähigkeiten wie z. B.: Datenvisualisierung (60% gegenüber 24% bei anderen) Big Data (60% gegenüber 21% bei anderen) Influencer-Kompetenzen (55% gegenüber 23% bei anderen) Standardisierte Prozesse in der Cloud 45% der agilen Finanzteams verfügen überdies über standardisierte Finanzprozesse in cloud-basierten ERP-Systemen gegenüber von nur 17% bei den Nachzüglern, und haben so ein riesiges Potenzial an Produktivitätszuwächsen. Der Forschungsbericht nennt noch viele andere Unterschiede zwischen Anführern und Nachzüglern. Das neue Hochleistungsmodell Zusätzlich wird über das neue Hochleistungsmodell für den Finanzbetrieb berichtet, wie es funktioniert und wie das interne Rechnungswesen die Agilität unterstützen kann. Man fand, dass das neue Modell im Prinzip nach bewährtem Muster funktioniert: die übergeordnete Organisation investiert in die Kompetenzen ihrer Finanzprofis zur Verbesserung der Fähigkeiten und des strategischen Einflusses der Abteilung. Trotzdem lassen sich mit einem Umstieg drastische Ergebnisse erzielen: mehr Effizienz im Unternehmen durch operative Einsparungen und verbesserte Arbeitsabläufe, größere Flexibilität durch besseren Umgang mit Marktkomplexität und mehr Agilität sowie schließlich erheblich gesteigerte Erträge. Lesen Sie den vollständigen Bericht „Agile Finanzen offengelegt – das neue Betriebsmodell für moderne Finanzfunktionen“ und nehmen Sie an unserem Webinar teil, um einen Überblick über das neue Betriebsmodell für moderne Finanzen zu erhalte Webinar ansehen Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Lynne Sampson, Principal Product Marketer.

Im digitalen Zeitalter wird Agilität zum kritischen Faktor für Unternehmen. Deshalb nutzen die meisten zukunftsorientierten Finanzteams ein neues Hochleistungsmodell, mit dem die Herausforderungen...

Fünf Trends im Bereich HR im Jahr 2018

Beschäftigungsmodelle stehen unter Druck wie nie zuvor. Die Kommunikation zwischen Mitarbeitern und Management gestaltet sich immer schwieriger, sodass Personalabteilungen immer mehr unter Druck stehen, flexiblere und produktivere Arbeitsumgebungen zu schaffen. Wie werden Sie diese Herausforderung angehen? Hier haben wir fünf wichtige Trends im Personalwesen im Jahr 2018 zusammengestellt, mit denen Sie sich auf die kommenden Herausforderungen vorbereiten und die Talente Ihres Unternehmens weiterentwickeln können.   1. Entwickeln Sie eine moderne Teamkultur Die Förderung des „Mitarbeiterengagements“ hatte in den letzten Jahren hohen Stellenwert – mit positiven Ergebnissen. Sie zählt heute zu den wichtigen Faktoren der internen Entscheidungsfindung, und die entsprechenden KPIs sprechen für Auswirkungen auf Produktivität und die Effektivität des Managements. Doch wenn Unternehmen über dieses Engagement nachdenken, geht es nach wie vor nur um einzelne Mitarbeiter. Die Mitarbeiter wollen sich jedoch zugehörig fühlen – Teil einer Gemeinschaft sein, die ihr Bestes möchte und ihrer Arbeit einen emotionalen Anker bietet. Die Schaffung einer modernen Mitarbeiter- und Teamkultur ist eine der wichtigen Initiativen für das nächste Jahr.   2. Einstellung nach Kompetenz statt nach „Bauchgefühl“ Langwierige und oftmals irrelevante Vorstellungsgespräche zur Findung des „richtigen“ Bewerbers für ein Unternehmen sollten überdacht werden.  Personalchefs wissen, dass sie sich nicht nur darauf verlassen können, wie selbstbewusst ein Kandidat auftritt und dass sie zuverlässigere Methoden benötigen, um die Eignung festzustellen. Einige erproben bereits neue Strategien bei der Einstellung von Mitarbeitern. Personalbeschaffungssysteme, die beispielsweise Daten aus dem gesamten Profil eines Bewerbers zusammenfassen und auswerten, erlauben bereits ein weit objektiveres Auswahlverfahren – anhand von Werdegang, Qualifikationen, zurückliegenden Vorstellungsgesprächen, Auftritt in den sozialen Medien, usw.   3. Neue Technologien in Ergänzung zu menschlichen Fähigkeiten Neue Technologien wie KI und die Möglichkeit, sie zur Gewinnung von Wettbewerbsvorteilen zu nutzen, haben enorme Auswirkungen auf die Rolle des Menschen am Arbeitsplatz. Die weit verbreiteten pessimistischen Vorhersagen  zu diesem Thema sind sicher übertrieben, aber Führungskräfte im Personalwesen werden das richtige Gleichgewicht zwischen dem Einfallsreichtum ihrer Mitarbeiter und der Effizienz der Technologie finden müssen. Es gilt, technologisches Potenzial zu verstehen und dann auf Vorstandsebene Entscheidungen zur Optimierung der geschäftlichen Ressourcen zu treffen.   4. Den Umgang mit Freiberuflern neu überdenken Die Dynamik der „Gig Economy“ ist weiterhin ungebrochen, so dass Freiberufler bald so häufig anzutreffen sein werden wie Festangestellte. Das wird Einfluss darauf haben, wie Sie Ihre Mitarbeiter einstellen, managen und schulen. In Großbritannien glauben z. B. 40 % der Entscheidungsträger, dass Freiberufler selbst für ihre Schulungen aufkommen sollten. Doch ist vielleicht ein neuer Ansatz angebracht, wenn der Anteil dieser Mitarbeiter und die Bedeutung dieser Mitarbeiter weiter steigen?   5. Prämien sollen echte Belohnungen sein Mitarbeiter messen einem guten Arbeitsklima heute oft mehr Bedeutung zu als einem hohen Gehalt. Insbesondere schätzen sie persönlichen Wertschätzung, gute Beförderungsaussichten, das Gefühl, Teil eines Gewinnerteams zu sein, den Glauben, etwas Gutes zu tun, die Möglichkeit, flexibel zu arbeiten usw. Untersuchungen auch von Oracle haben gezeigt, dass die Teams mit der höchsten Motivation und Leistung durchgehend eine positive Dynamik zwischen Teammitgliedern und effektiven Vorgesetzten aufwiesen. Belohnung wird dabei als Teil einer Strategie für Mitarbeiterengagement und -bindung statt einfach nur als Bezahlung begriffen. Der fünfte wichtige Trend ist daher die Berücksichtigung dieser immateriellen Elemente und die Entwicklung von Entlohnungspaketen, die den Bedürfnissen Ihrer Mitarbeiter entsprechen und zu mehr Mitarbeiterengagement beitragen. Mehr dazu lesen Sie in unserem Digibook „HR im Jahr 2018: das Jahr des Mitarbeiters“. Finden Sie heraus, wie Oracle Sie in Ihrem Wachstum im kommenden Jahr unterstützen kann. Mehr erfahren   Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail oder LinkedIn. Richard Cheeseman, Director HCM Applications Marketing EMEA.

Beschäftigungsmodelle stehen unter Druck wie nie zuvor. Die Kommunikation zwischen Mitarbeitern und Management gestaltet sich immer schwieriger, sodass Personalabteilungen immer mehr unter Druck...

Get smart – die neue Welt von Industrie 4.0

Es gilt inzwischen als Tatsache, dass wir dank neuer Technologien auf eine vierte industrielle Revolution zugehen, die so genannte Industrie 4.0. Big-Data-Technologien, künstliche Intelligenz (KI) und Prozessautomation mittels Robotern (RPA) werden erwachsen und leiten eine ganz neue Ära fortschrittlicher Funktionen ein, die mit Riesenschritten in der Industrie Einzug halten. Aber warum ist dies ein so einschneidender Moment? Worin unterscheidet sich dies von der Implementation zusätzlicher technischer Automatisierung? Was genau ist der Kern von Industrie 4.0? Zum ersten Mal haben Big Data und Analytik-Technologie maschinelles Lernen in einem Maßstab möglich gemacht, mit dem die Umsetzung vielversprechender KI-Funktionen erstmals in greifbare Nähe rückt. Es können nun nicht nur weit komplexere Prozesse automatisiert werden, sondern man kann sich auch darauf verlassen, dass sie während der Tätigkeit dazulernen und über die Zeit ihre eigene Leistung verbessern. Sowohl Menschen als auch Maschinen haben nun digitale Alter Egos. Das bedeutet, dass sie vollständiger in digitale Prozesse integriert werden können, so dass die Produktion für die perfekte Mischung aus Mensch und Maschine optimiert werden kann und die gesamte Lieferkette um die Produktion herum ebenfalls. Dies hat massive Auswirkungen und macht es möglich, dass die Produktion präzise auf die Kundennachfrage abgestimmt werden kann. Fortschritte beim Internet der Dinge (IoT) wie Roboter, die Daten senden und empfangen können, ermöglichen jetzt eine vollständigere Automatisierung jedes Produktionsprozesses. Dies bedeutet geringere Kosten, erhöhte Effizienz und verbesserte Sicherheit. Außerdem tun sich nun ganz neue Möglichkeiten auf. Ein gutes Beispiel dafür ist der vermehrte Einsatz hoch entwickelter Roboter für besonders gefährliche Aufgaben, z. B. im Umgang mit Gefahrstoffen oder in der Exploration der Tiefsee. Ein weiteres Beispiel sind additive Fertigungsverfahren mithilfe von 3D-Druckern zur Produktion durch Aufbau von Materialschichten anstelle abfallintensiver Prozesse. Zusätzlich zur Verknüpfung von Produktion und Lieferkette in einem einzigen Prozess verbindet das Prinzip der Industrie 4.0 jedoch auch die Phasen des gesamten Lebenszyklus eines Produktes. So entstehen neue Synergien und Feedback-Schleifen über die gesamte Lebensdauer eines Produktes – Beschwerden werden z. B. vom Kundendienst zurück an die Produktentwicklung geleitet oder es werden Verkaufsdaten in Echtzeit ans Marketing gemeldet – für höhere Rentabilität und längere Produktlebensdauer. Es sind vielfältige Szenarien für die Umsetzung der Prinzipien der Industrie 4.0 vorstellbar. Logistikunternehmen können mit GPS-Sensoren Artikel präzise verfolgen. Produktionsunternehmen können nach einer größeren Reorganisation von Produktionslinien die sukzessive Effizienzsteigerung der Betriebsabläufe aufgrund maschinellen Lernens beobachten und die Linien dann auf Basis der neuen Erkenntnisse noch weiter überarbeiten. Echtzeit-Verkaufsdaten können ganz an den Anfang der Lieferkette zurückgemeldet werden – aus dem Auftrags- über das Beschaffungssystem bis zurück zum Lieferanten. Dies ermöglicht ein zeitnahes Abfangen von Bedarfsspitzen bei gleichzeitiger Optimierung der Bestände. Marketingteams können intelligente Werbeaktionen schaffen, die Interessenten von einer digitalen Anzeige zur weiteren Qualifizierung an einen intelligenten Messaging-Bot weiterleiten, worauf dann ein Anruf eines Vertriebsmitarbeiters ausgelöst wird, bevor letztlich ein Weblink zur Anforderung einer Gratisprobe zugesandt wird. Die gesamten Aktivitäten werden anhand intelligenter Analysen von einer Back-End-KI-Plattform gesteuert, die mit der Zeit dazulernt. Dies sind nur einige Beispiele dessen, was möglich ist. Mehr dazu erfahren Sie in unserem Webcast „Industrie 4.0: Vernetzung von Produkt, Produktion und Service“. Entdecken Sie das volle Potenzial der Industrie 4.0 für Ihre Wettbewerbsfähigkeit. Webinar ansehen   Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail oder LinkedIn.Paul Buliga, Marketing Campaign Manager.

Es gilt inzwischen als Tatsache, dass wir dank neuer Technologien auf eine vierte industrielle Revolution zugehen, die so genannte Industrie 4.0. Big-Data-Technologien, künstliche Intelligenz (KI) und...

Die Überwachung und Verwaltung von Anwendungen und IT-Infrastrukturen beginnt mit einer einheitlichen Plattform

Auf einer einheitlichen Plattform mit Funktionen für Analysen und maschinelles Lernen können Sie mehr Daten verarbeiten und schneller Einblick in die Anwendungsleistung nehmen. Programme und IT-Systeme in Unternehmen generieren eine ganze Menge Daten – von der Nutzung über die Performance bis hin zu auftretenden Problemen. Die anfallenden Datenmengen sind gewaltig: Menschen bräuchten Monate, um die ganzen Maschinendaten und Protokolldateien durchzusehen und zu analysieren. Aus diesem Grund werden maschinell lernende Tools eingesetzt, da sie eine kostengünstige und einfache Lösung zur Analyse der vielen Leistungsdaten sind. Wenn Ihr Tool jedoch nur einen Datentyp analysieren kann, sind die gewonnenen Erkenntnisse stark eingeschränkt – und damit letztendlich auch die Anwendungsleistung.   Begrenzte Analyse, begrenzter Einblick Kann Ihr Überwachungstool beispielsweise nur Betriebssystem- oder Netzwerkdiagnosedaten analysieren, entgehen Ihnen zahlreiche Optimierungschancen. Nicht nur fehlen Ihnen Informationen zu anderen Bereichen der Anwendungsleistung, sondern Sie können auch keine Schlüsse aus den Interaktionen, Vernetzungen und Abhängigkeiten von Infrastrukturbereichen und Anwendungen ziehen. Diese haben jedoch einen erheblichen Einfluss auf die Funktionsweise Ihrer Anwendungen. Noch problematischer ist es, wenn Sie Daten separat voneinander analysieren, da die gewonnenen Erkenntnisse dann kein ganzes Bild ergeben. Sie können also die Ergebnisse nicht mit anderen Teams teilen, sodass Ihnen die Vorteile von DevOps, Agile-Teams und anderen Entwicklungsmodellen, die auf geschäftsbereichsübergreifende Zusammenarbeit setzen, entgehen.   Die Lösung: eine Plattform für alles Um derartige Situationen zu vermeiden, benötigen Sie für Ihre Leistungsanalyse eine Plattform, die diverse Daten aus unterschiedlichen Systemen, Anwendungen und Infrastrukturen einheitlich auslesen und analysieren kann. Dazu gehören auch Unternehmensdaten und Geschäftskennzahlen. Wenn Sie alle Daten in demselben Tool verarbeiten können, gelangen Sie zügiger zu umfassenden Erkenntnissen in puncto Leistung. Außerdem können Sie mit einer solchen Plattform auch Aufgaben durchführen, die mit isolierten Analyselösungen nicht möglich sind: Sie können Trends und Muster zwischen Systemen vergleichen – in und außerhalb des Unternehmens. Sie können die Kapazität für Ihre gesamte IT-Infrastruktur planen und zu hohe Ausgaben für Ressourcen vermeiden. Wenn Sie bereits Systeme für eine zügige Fehlerbehebung betreiben, können Sie auf diese Weise Entwicklungstools schneller einrichten und Entwicklungszeiten verkürzen.   Die Auswahl der idealen Plattform Viele Plattformen aus einem Guss bieten zahlreiche neue und verbesserte Tools für die Leistungsanalyse, doch wie gut integriert die Plattform ist, lässt sich auf den ersten Blick häufig schwer erkennen. Bei der Auswahl einer geeigneten Plattform für die Leistungsanalyse sollten Sie also auf die folgenden Punkte achten: Eine einheitliche Architektur, die eine Vielfalt an Daten unterstützt: Kennzahlen zu Endbenutzern und Containern, Anwendungsprotokolle, Konfigurationsänderungen, Systemprüfungen, Prüfpfade, Sicherheitsereignisse, externe Bedrohungen und andere Geschäfts- und Anwendungsdaten. Eine Lösung, die unterschiedliche Probleme erkennt, wie Anomalien in Bezug auf die Leistung, Verfügbarkeit, Sicherheit und Compliance für Endbenutzer, Anwendungen und Infrastrukturen. Die flexible Bereitstellung vor Ort oder in der Cloud. Cloud-Plattformen beschleunigen die Analyse häufig und geben Ihnen besonders schnellen Zugriff auf Ihre Leistungsdaten.   Informieren Sie sich jetzt Weitere Informationen zur optimalen Plattform für das Management der Anwendungsleistung erhalten Sie in unserem Webcast Die Überwachung von Anwendungen und IT-Infrastrukturen beginnt mit einer einheitlichen Plattform. Registrieren   Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Dennis van Soest, Director Business Development Cloud Security and Systems Management, EMEA.

Auf einer einheitlichen Plattform mit Funktionen für Analysen und maschinelles Lernen können Sie mehr Daten verarbeiten und schneller Einblick in die Anwendungsleistung nehmen. Programme und IT-Systeme...

Die 4 Möglichkeiten erfolgreicher Analytik

Die Wahl einer modernen Datenanalyseplattform stellt viele Unternehmen vor eine Herausforderung. Anhand von vier Kriterien können Sie eine bessere Auswahl treffen und die ideale Plattform für Ihr Unternehmen finden. Wir erzählen Ihnen vermutlich nichts Neues: Es gibt Unmengen von Daten. Um sie interpretieren zu können, legen sich viele Unternehmen eine Analyseplattform zu. Diese muss allerdings Systeme, Anwender und Prozesse optimal berücksichtigen können, sonst hat die Analyse wenig Sinn. Die Wahl der passenden Plattform ist nicht einfach. Anhand der vier folgenden Kriterien können Sie das Angebot besser eingrenzen. Umfassend Um die modernen Analyseverfahren optimal zu nutzen, sollten Sie nur eine Plattform verwenden. Wenn Sie separate Produkte einsetzen, können Sie die Daten aus verschiedenen Geschäftsbereichen, Branchen oder Regionen nicht zusammenführen. Sie erhalten keinen umfassenden Überblick und die Gefahr der Dateninkonsistenz nimmt zu. Noch wichtiger: Alle Mitarbeiter im Unternehmen sollten auf die Analysefunktionen der Plattform zugreifen können. Heutzutage werden Analysen nicht mehr nur von Analysten durchgeführt. Ihre Plattform sollte allen Geschäftsanwendern zur Verfügung stehen, damit die Daten von den jeweiligen Experten analysiert werden können. Vernetzt Eine wirklich moderne Analyseplattform muss Daten aus allen Quellen verknüpfen können: vor Ort, in der Cloud, auf Altsystemen oder aus externen. Umgebungen. Außerdem muss sie sowohl strukturierte als auch unstrukturierte Daten verarbeiten können. Wenn Ihre Plattform nicht alle Datentypen verknüpfen kann, erhalten Sie keinen umfassenden Überblick und Ihre Entscheidungsfindung wird beeinträchtigt. Teamfördernd Analyseplattformen sind dazu da, Daten in Erkenntnisse zu verwandeln. Doch das ist nur die halbe Miete. Ebenso wichtig ist es, dass die jeweils Verantwortlichen Zugang zu diesen Erkenntnissen haben. Sie müssen sie jederzeit und überall abrufen können – mobil oder im Büro. Achten Sie bei der Auswahl Ihrer Plattform daher auf Zusammenarbeitsfunktionen, die den problemlosen Austausch der zu Tage geförderten Erkenntnisse ermöglichen. Flexibel Einige Anbieter von Analyselösungen stellen ausschließlich lokal installierbare Produktversionen bereit, andere haben das Potenzial der Cloud erkannt und bieten ihre Lösungen folgerichtig nur aus der Cloud an. Wie praktisch die Cloud ist, wissen Sie sicherlich. Möglicherweise verstößt aber die Nutzung eines Cloud-Rechenzentrums in Ihrer Branche, in Ihrem eigenen oder einem anderen Land gegen die Datenschutzvorschriften. Sie sollten also auf jeden Fall eine flexible Wahl treffen können: Kann die potenzielle Lösung in der Cloud, vor Ort oder als Hybridlösung bereitgestellt werden? Können Sie die Daten selbst verwalten, wahlweise aber auch einen Serviceanbieter damit beauftragen? Ihre Plattform: umfassend, vernetzt, teamfördernd und flexibel Mit einer Plattform, die diese vier Kriterien erfüllt, können Sie all Ihren Mitarbeitern Zugang zu aussagekräftigen Informationen geben. Die Oracle Analytics Cloud (OAC) ist eine solche Plattform. Sie ist problemlos in jede Umgebung integrierbar und bewältigt so viele Analysen wie möglich über die Cloud. Gleichzeitig bietet sie Ihnen einfachen Zugriff auf alle Datenquellen – unabhängig von ihrem Speicherort. OAC bietet zahlreiche Analyseoptionen und kommt ohne unnötig komplexe Bereitstellung und Verwaltung aus. Sie bietet einer größeren Zahl von Anwendern die Möglichkeit zur Datenanalyse, was letztlich dem Wissenszuwachs in Ihrem Unternehmen dient. Wenn Sie mehr über die Einsatzmöglichkeiten der OAC erfahren möchten, nehmen Sie an unserem Webcast teil. Registrieren   Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Gherardo Infunti, Solution Director.  

Die Wahl einer modernen Datenanalyseplattform stellt viele Unternehmen vor eine Herausforderung. Anhand von vier Kriterien können Sie eine bessere Auswahl treffen und die ideale Plattform für Ihr...

Kann Ihre mobile Plattform KI-Bots unterstützen?

In der mobilen Interaktion sind Chatbots die Zukunft. Für ihren Betrieb bedarf es allerdings der passenden Plattform. Wodurch sich eine solche Plattform auszeichnet und wie sie Ihre KI-Strategie unterstützen kann, erfahren Sie hier. In der mobilen Interaktion mit Kunden und im Unternehmen werden intelligente Chatbots künftig eine große Rolle spielen. Isoliert betrachtet werden können sie dabei jedoch nicht. Bots verrichten ihren Dienst integriert in umfassende Mobilitätsplattformen, die daneben auch ein mobiles Web, Apps und Kommunikationskanäle unterstützen müssen. 6 wichtige Merkmale einer Bot-kompatiblen mobilen Plattform KI-Konversationsfunktionen sollten von Anbeginn in die mobile Plattform eingebettet werden, nicht erst als nachträgliches Add-on. Dazu benötigen Sie eine Plattform mit den folgenden Merkmalen: Unternehmensintegration: Die Chatbots sollen in der Lage sein, Benutzern Zugriff auf Back-End-Daten und Transaktionssysteme zu geben. Bereitstellung wichtiger Informationen: Ihr Unternehmen sollte in mobilen Interaktionen anfallende Daten kanalübergreifend auswerten und so neue Trends oder versteckte Probleme ermitteln können. Nahtloses Anwendererlebnis: Es sorgt für reibungslose Übergaben von Vorgängen nebst ihrem Kontext zwischen Bots, Menschen und externen Systemen. Multichannel-Unterstützung: Ermöglicht Funktionen in beliebten Messaging-Apps und virtuellen Assistenten sowie für Zusammenarbeitsplattformen in Unternehmen. Einfache Skalierbarkeit: Schnelle Anpassung an sich ändernde Bedingungen dank Entwicklung, Bereitstellung und Verwaltung aus der Cloud. Integriertes Lebenszyklusmanagement: Flexible, schnelle und kostengünstige Entwicklungszyklen durch die Integration von Entwicklung, Tests, Versionskontrollen sowie CI/CD. Mit der richtigen Plattform können Sie Chatbots für einen hervorragenden Kundenservice erstellen, Einblick in alle anfallenden Daten nehmen und Ihren Mitarbeitern ein stärker wertschöpfendes Arbeiten ermöglichen. Chatbots heute … Viele der Unternehmen, mit denen wir in unterschiedlichen Branchen zusammenarbeiten, setzen KI-Bots bereits erfolgreich ein, wie die folgenden Beispiele zeigen: Banken: Ein Chatbot berät speziell Schüler und Studenten über ihren jeweils bevorzugten Kanal zu Bankangeboten. Ver- und Entsorgungsunternehmen: Bots beantworten Kundenanfragen und geben Energiespartipps. Öffentlicher Sektor: Bots verbessern die Barrierefreiheit von Bürgerdiensten und senken Betriebskosten. Gesundheitswesen: Bots übernehmen die Überweisung von Patienten, versenden Terminerinnerungen und halten während des gesamten Behandlungszeitraums den Kontakt aufrecht. Die Zukunft hält weitere interessante Entwicklungen bereit. So werden derzeit Funktionen für die Sentimentanalyse entwickelt, mit denen die Stimmung von Kunden erkannt werden soll, damit Bots die Konversation in die richtige Richtung lenken können. Mithilfe von Bilderkennungstechnik werden Bots von Anwendern generierte Bilder erkennen und relevante Informationen dazu bereitstellen oder Aktionen empfehlen können. … und in der Zukunft Die technische Entwicklung in puncto KI-Konversation wird in den nächsten Jahren weiter an Fahrt aufnehmen; mit interessanten Innovationen im Consumer- und Unternehmensbereich wird zu rechnen sein. Chatbots als autonome Agenten Bots werden künftig im Namen des Anwenders selbständig mit anderen Bots kommunizieren können. So könnten Sie beispielsweise Ihren persönlichen Assistenten auffordern, den nächsten Familienurlaub zu planen. Er könnte sich dann mit den Bots Ihrer Familienmitglieder, Ihrer Bank und eines Reisebüros austauschen und Ihnen anschließend einen Reisevorschlag unterbreiten, bei dem Ihr Lieblingsurlaubsort, die Terminpläne Ihrer Familienmitglieder und Ihr Budget berücksichtigt wurden. Chatbots als Mitarbeiter Eine interessante Entwicklung für Unternehmen sind Bots als Teammitglieder, die Cloud-Zusammenarbeitstools wie Slack nutzen. So könnte ein Terminplaner-Bot die anstehende Aufgaben im Team organisieren oder ein Notizen-Bot bei Onlinemeetings und Telefonkonferenzen Protokoll führen und anschließend bei bestimmten Punkten nachfassen. Informieren Sie sich jetzt Wenn Sie mehr über den Einsatz von Bots in der mobilen Interaktion erfahren möchten, nehmen Sie an unserem Webcast Ist Ihre mobile Plattform bereit für die Zukunft der intelligenter Bots? eil. Registrieren   Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Martin Cookson, Director of Mobility and Chatbots, EMEA.

In der mobilen Interaktion sind Chatbots die Zukunft. Für ihren Betrieb bedarf es allerdings der passenden Plattform. Wodurch sich eine solche Plattform auszeichnet und wie sie Ihre...

Business Analytics

Analytics Cloud: Was Sie von Molly der Datenschleuder lernen können

Molly findet den Ausdruck „auf den Hund kommen“ politisch nicht korrekt. Molly ist der Golden Retriever von Paul Sonderegger. Und der ist der Big Data Strategist bei Oracle. Er ist auf den Hund gekommen, auf Molly nämlich, weil sie sein anschauliches Beispiel ist, um Unternehmen in kurzen Videos etwas sehr Wichtiges zu erklären: Die 3 Grundprinzipien des Datenkapitals und wie Unternehmen Datenkapital so verwerten können, dass dabei neue Geschäftsmöglichkeiten herausspringen und Veränderung möglich wird. 1. Datenkapital auf 4 Pfoten: Damit Daten fließen, muss der Hund etwas tun. Daten von Molly sind bei den Herstellern und Händlern von Tierbedarf heiß begehrt. Denn Molly erzeugt mehr Daten als sie Haare im Fell hat und offenbart damit nicht nur, was sie heute schon gemacht oder nicht gemacht hat. Sondern diese Daten sind auch noch der Stoff, aus dem diese Branche dann neue digitale Produkte und Services zusammenkochen kann. Wenn Sie das Unternehmen sind,  das diese Daten hat – dann hat Ihr Mitbewerber die eben nicht. Beim Hundehalsband ist das im Prinzip nicht anders als bei jedem Flieger, Zug, Auto oder was sonst im Internet of Things. Ach ja, und auch noch bei jeder Art von Finanztransaktion, Versicherungsfall oder bei medizinischer Versorgung. 2. Daten sind nun mal so: Sie machen noch mehr Daten. Molly läuft also mit ihrem lokalisierbaren Halsband – praktisch, nicht? – herum, und die Herstellerfirma empfängt mit dem GPS-Tracker die Bewegungsdaten von Molly und übrigens auch vieler ihrer vierbeinigen Freunde. Da gibt es dann auch noch eine mobile App mit einem Alertsignal, falls Molly irgendwo ist, wo sie nicht sein sollte (in der Speisekammer?), und man sieht, welche Funktionen der App gerade aktiv sind – z. B.: Worin unterscheiden sich die Besitzer von Hunden der einzelnen Rassen? Was ist in der Stadt anders als am Land? – Solche datengetriebenen Rückmeldeschleifen erlauben es Händlern und Herstellern, sich schneller und leichter auf den speziellen Bedarf ihrer Kunden einzustellen. Der Wettbewerb wird dynamischer. Das ist aber noch längst nicht das Ende der Fahnenstange. Denn jetzt kommen noch Algorithmen ins Spiel. Damit geht es dann um datengetriebenes Lernen – für Menschen und darüber hinaus um maschinelles Lernen. Das läuft hinaus auf automatisierte Empfehlungen im Online-Handel und für Online-Anzeigen, Aufdecken von Betrugsversuchen in Zahlungssystemen, Waren-Zuweisung in automatisierten Warenhäusern oder dynamische Preisgestaltung in Parkuhren. In solchen Bereichen müssen Unternehmen nicht nur ein Datenlabor haben, sondern auch den Biss, damit ordentlich herumzuexperimentieren. 3. Mit Plattformen haben Sie die Nase vorn. Molly ist unglaublich knuddelig. Was man aber nicht gleich erkennt: Molly ist auch ein wahres Schlachtfeld. Nämlich für die Unternehmen, die sich um Mollys Daten raufen, damit sie es sind, die eine Plattform für digitale Tierprodukte werden. Soll heißen: Das ganze Kauspielzeug, die Hundewesten, die Hersteller von Pflegeprodukten für Molly. Dann die Tierärzte, Tierkliniken, Hundepensionen, Hundefriseure… Plattform ist einfach alles, was sich zwischen ihnen befindet und es ihnen billiger, einfacher oder komfortabler macht, ihren Job zu erledigen und ein Geschäft zu machen. Dadurch sinken für die Beteiligten insgesamt auch die Transaktionskosten. Wenn also jeder Schritt von Molly jeden Tag neue Daten abwirft und die gesammelt werden, klopft plötzlich „Plattform-Wettbewerb“ bei Branchen an die Tür, die davon bisher kaum etwas mitbekommen haben. Und sie finden sich im selben Boot wieder wie schon vor ihnen der Buchhandel, städtische Taxidienste und Jobsuchende. Branchen wie Lebensversicherer, Gesundheitsdienste und industrielle Fertigung müssen sich spätestens jetzt den Schlaf aus den Augen reiben. Wir empfehlen Ihnen  diese Videos, um sich auf einer professionellen Ebene damit auseinanderzusetzen, welchen Wert es hat, sich Big Data genau anzuschauen und zu nutzen – und dann Big-Data-Analysen mit Projekten zu verknüpfen, in denen Sie strategische digitale Veränderungen in die Gänge bringen. Sie können im gleichen Zug beginnen, die Oracle Analytics Cloud zu, nun ja, beschnüffeln; finden Sie damit heraus, wie Sie Ihre eigene Unternehmensstory in das Reich von Big Data einbringen können. Kontakt: Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Sabine Leitner, Sr. Marketing Manager.     

Molly findet den Ausdruck „auf den Hund kommen“ politisch nicht korrekt. Molly ist der Golden Retriever von Paul Sonderegger. Und der ist der Big Data Strategist bei Oracle. Er ist auf den...

Database: Wie Oracle die automatisierte Datenbank hinbekommen hat

Revolutionär nennt Andy Mendelsohn, Executive Vice President bei Oracle, die neue autonome Datenbank. Möglich wurde sie durch die Weiterentwicklung der Oracle Database Technologie. Auf der Oracle OpenWorld erklärte Mendelsohn, warum kein anderes Unternehmen eine automatisierte Cloud-Datenbank anbietet, Oracle aber schon. Einerseits „eine neue Vision für das Datenmanagement“ – so CTO Larry Ellison in seiner Keynote – andererseits basiert die Technologie der automatisierten Datenbank zu wesentlichen Teilen auf Datenbank-Features und -Strukturen, die Oracle schon seit Jahrzehnten perfektioniert. Genau dadurch kann Oracle als einziger Anbieter diese automatisierte Datenbanklösung mit einer 99,995%-igen Verfügbarkeitsgarantie anbieten, ergänzte Mendelsohn in seinen folgenden Ausführungen. Beispiele für diese Features und Strukturen präsentierte er gleich mit. Mit welchen Tricks funktioniert automatisierte Verfügbarkeit? Fragen Sie unsere Kunden mal, warum sie umfangreiche Vorgänge oder Betriebssysteme bei Oracle laufen lassen. Die Antwort wird lauten: hohe Verfügbarkeit, Zuverlässigkeit und Skalierbarkeit“, berichtete Mendelsohn. Über Technologien wie Real Application Clusters (RAC), Active Data Guard oder die Oracle Exadata Datenbankmaschine verfüge einfach nur Oracle. Sie seien hochgradig fehlertolerant und skalierbar, und eben das führe zu dieser extrem hohen Verfügbarkeit. Darauf verließen sich jene Kunden. In ihrem eigenen Datacenter lassen Kunden häufig nur einzelne dieser Komponenten laufen. In automatisierten Datenbank-Diensten in der Cloud implementiert Oracle sie hingegen komplett. In einer eigenen Arbeitsgruppe Maximum Availability Architecture pflanzen die Experten dort laufend die bewährtesten Features in alle automatisierten Cloud Services ein, die von Benutzern dann verwendet werden können. Über die Versprechungen anderer Anbieter spöttelte Mendelsohn: „Die reden zwar auch von einer Verfügbarkeit von 99,995 %. Aber im Kleingedruckten sind dann so gut wie alle nennenswerten Ursachen für Ausfälle doch wieder von der Garantie ausgenommen.“ Oracle sei dagegen zuversichtlich, diese Verfügbarkeit unter realen Bedingungen tatsächlich gewährleisten zu können. „So etwas gibt es in unseren AGB nicht. Wir implementieren Online-Patches mit Rolling Upgrades über RAC, und wir setzen Best Practices auf einer der mächtigsten und zuverlässigsten Plattformen ein, die es für Oracle Database gibt: Oracle Exadata“, so Mendelsohn. Die Datenbank, die sich anpasst Amazon hat die Idee der Elastizität mit der EC2 Elastic Compute Cloud populär gemacht. Dort lässt sich Rechenkapazität sich sehr rasch steigern und wieder reduzieren. „Aber“, so Mendelsohn, „was Amazon da nicht hinbekommt, ist, dasselbe mit Datenbanken zu machen. Deshalb setzt Amazon auf einfache Open-Source-Datenbanken – und die erlauben das eben nicht.“ Geplant ist, mit der automatisierten Oracle Database Cloud unmittelbare Elastizität anzubieten. Wem nützt das? – Wertvoll ist diese Elastizität zum Beispiel für Unternehmen, die von 8-core Database-Computing auf 16-core hochgehen wollen, um z. B. einen Quartalsabschluss zu verarbeiten, danach dann wieder zurück auf das kostengünstigere 8-core. Mendelsohn: „Bei uns geht das deshalb sofort, weil unsere RAC-Technologie es ermöglicht, sehr schnell über Cluster von Servern hinweg zu skalieren und daher keine Daten herumgeschoben werden müssen. So wie Amazon das macht, müssen Daten zuerst in ein neues, größeres System verfrachtet werden, wenn die Datenbanken skaliert werden sollen. Und das kann Stunden oder Tage dauern, ist also überhaupt nicht elastisch. Mendelsohn entwarf ein Szenario, mit dem sogar kostenschonend sämtliche Rechner-CPUs über das Wochenende heruntergefahren und einfach am Montagmorgen wieder gestartet werden – „Das ist elastisch!“ … mit praxiserprobten Sicherheitsmerkmalen Hacker nutzen für Einbrüche in Systeme nicht selten Sicherheitslücken, für die es längst einen Patch gegeben hätte, der aber nie ausgeführt wurde. Mendelsohns Erfahrung: „Wenn Sie einen Patch für eine bekannte Sicherheitslücke nicht ausführen, kann ich Ihnen den nächsten Einbruch praktisch schon garantieren. Gegen solche externen Bedrohungen sorgen wir dadurch vor, dass wir Patches sofort nach Verfügbarkeit ausführen, mit den Rolling Upgrades in RAC.“ Oracle verschlüsselt Daten außerdem bereits im Ruhezustand, so dass Hacker selbst dann, wenn es ihnen gelungen ist, in ein System einzudringen, diese Daten ohne einen Schlüssel nicht lesen können. Für den internen Bereich wies Mendelsohn darauf hin, dass mit Oracle Database Vault Aufgabenbereiche voneinander getrennt werden können, damit z. B. Administratoren keine Daten lesen, die nicht für sie bestimmt sind. Ein weiteres System, Oracle Data Masking, verhindert dasselbe bei Mitarbeitern, die Software testen. Alle diese Sicherheitsmerkmale werden in der automatisierten Oracle Database Cloud ebenfalls eingesetzt. Maschinenlernen in der Cloud Zusätzlich zu diesen ganzen gut erprobten Technologien für hohe Verfügbarkeit und Skalierbarkeit steuert die automatisierte Oracle Database Cloud noch ein Set von Ressourcen der nächsten Generation für Monitoring, Management und Analytics bei. Damit kommen Techniken des Maschinenlernens und der AI zum Einsatz, die Performanceverbesserungen automatisieren, den Ausfall von Anwendungen verhindern und die Sicherheit erhöhen – über alle Bereiche von Anwendungen und Infrastruktur hinweg. Als erster dieser Services soll die Oracle Autonomous Data Warehouse Cloud erhältlich sein, danach eine automatisierte Cloud für OLTP (Online Transaction Processing) und vermischte Workloads, dann noch eine automatisierte NoSQL-Cloud. Die Oracle Autonomous Data Warehouse Cloud spielt aus, was über Jahre an selbst-optimierenden Technologien wie – aus Oracle Exadata – Speicher-Indexe und Flash Cache, einsatzstarke Optimierung von Anfrage-Bearbeitung, automatisiertes Memory- und Speicher-Management, um auf diese Weise eine Datenbank bereitzustellen, die sich vollständig selbst optimiert. Dabei entfällt das herkömmliche Performance-Tuning durch Administratoren und Entwickler. „Sie definieren einfach Ihre Tabellen, laden Daten hoch und starten Abfragen – die Datenbank kommt alleine klar und passt sich immer besser an“, schilderte Mendelsohn die neue Situation. Und auf der Oracle OpenWorld 2017 setzte CTO Ellison noch eins drauf: Er schätzt die Effizienz der Oracle Autonomous Database Cloud so hoch ein, dass er die Idee einer Garantie in den Raum stellte, dass Kunden aus der Amazon Cloud ihre Analytics-Datenbanken von dort zum halben Preis bei Oracle laufen lassen können. Weitere Infos: Oracle Autonomous Data Warehouse Cloud Manage Your Data with Oracle Cloud 12 Things Developers Will Love About Oracle Database Kontakt: Eine spannende Sache, über die ich gerne mit Ihnen spreche, per E-Mail, Xing, LinkedIn oder Twitter. Enzo Favuzzi, Business Development Manager, Cloud Platform.

Revolutionär nennt Andy Mendelsohn, Executive Vice President bei Oracle, die neue autonome Datenbank. Möglich wurde sie durch die Weiterentwicklung der Oracle Database Technologie. Auf der Oracle...

Customer Experience

Shared Services sind auch nicht mehr, was sie mal waren - sie werden besser

Es wäre schlecht, tatenlos zuzusehen: Inzwischen senken schon Mittelbetriebe ihre Kosten und ergreifen wirkungsvolle Maßnahmen – mit Hilfe zentralisierter oder outgesourcter Modelle, die bisher unter dem Stichwort Shared Services Center vorwiegend oder allein die Domäne globaler Konzerne und großer Organisationen waren. Neue Technologien machen diesen Bereich aber nicht nur breiter verfügbar. Es ist auch abzusehen, dass sich dadurch laufend neue Innovationen, Kostensenkungs- und Effizienzfortschritte erzielen lassen: Plattformen werden optimiert, Prozesse und schließlich auch der Faktor Mensch. Die Bots kommen – vielleicht morgen schon ins Büro nebenan Wie kann man die Kosten von Shared Services senken? – Der Schlüssel dazu liegt in der Vermeidung von Mehrkosten bei Verwaltungsvorgängen. Kein Wunder also, dass RPA (Robotic Process Automation) ein heißes Thema unter Finanzverantwortlichen ist. Immerhin gehen manche Schätzungen davon aus, dass automatisierte Services nur ein Zehntel der Kosten verursachen würden, die bei Menschen zu veranschlagen sind. Unternehmen können mit RPA umfangreiche, immer wiederkehrende, regelbasierte Aufgaben automatisieren und dabei strukturierte Daten einbeziehen, ebenso wie Transaktionsbearbeitungen. Software Robots sind bei typischen Bürojobs schneller, sie ermüden und irren sich nicht, und sie kosten weniger. Sie lassen sich so programmieren, dass sie im Kontakt mit Usern an einer Computeroberfläche menschliches Verhalten imitieren. Ein weiterer Vorteil von RPA ist, dass diese Form der Automatisierung keinen Eingriff darstellt: Unternehmen können RPA zur Optimierung bestimmter Abläufe einsetzen, ohne dass technologische Überführungen mit komplexen Integrationsaufgaben erforderlich würden. Viele Unternehmen wollen nämlich spürbare Effekte erzielen, ohne ihre bisherigen Systeme auf den Kopf zu stellen; für diese Vorgangsweise ist RPA wie geschaffen. Die Rationalisierungseffekte steigen natürlich mit der Menge der automatisierten Abläufe – je mehr desto besser. Das Ganze mit künstlicher Intelligenz tunen… Das Ziel: Ein sich selbst optimierendes System, das kontinuierlich Abläufe auf den Prüfstand stellt und in Echtzeit Verbesserungsvorschläge ausspuckt. Das sind dann jene restlos überzeugenden Anwendungsfälle, wo RPA die Kompetenz maschinellen Lernens hinzugewinnt und Shared Services noch eine Ebene höher treibt. Oracle ERP Dynamic Discounting ist ein erstes Beispiel, wo RPA sein ganzes Potential zeigt, menschliches Verhalten zum Vorteil des Unternehmens zu beeinflussen. Die Anwendung überwacht Lieferantenrechnungen und Daten von Dritten, hebt Skontoangebote hervor und erlaubt so der Buchhaltung eine optimale Priorisierung von Zahlungen. Das neue Gesicht des Back-Office Es dürfte jedenfalls klug sein, wenn Unternehmen Automatisierung eher heute als morgen in ihre Shared-Services-Strategie einbauen. Auch wenn es noch zu früh ist, in Zahlen auszudrücken, wie groß die Rolle der Automatisierung bei Shared Services zukünftig sein wird – die Technologie wird zunehmend allgegenwärtig. Das heißt aber nicht, dass Betriebe sich kopfüber und im Blindflug darauf stürzen sollten. Denn vielfach sind herkömmliche Abläufe in jeder Abteilung anders organisiert, ebenso Daten, und selbst einfachste Aufgaben werden oft völlig unterschiedlich strukturiert. Wer diesem Dschungel ohne vorherige Standardisierung eine RPA überstülpt, wird wieder nur einen – dann eben automatisierten und mit Sicherheit schlechter als vorher funktionierenden – Dschungel erhalten, der erst recht wieder in guter alter Handarbeit gelichtet werden muss. Das Kompetenzprofil der Mitarbeiter in Shared Services wird sich mit der Einführung von RPA ebenfalls ändern müssen, bis hin zur gesamten Organisationsstruktur, wenn einmal administrative Aufgaben von smarter Software automatisiert erledigt werden. Outgesourcte Shared Services könnten bei dem einen Unternehmen aus dem Ausland wieder abgezogen und anspruchsvolle Aufgaben intern abgewickelt werden, während woanders gerade Offshore-Center technologisch aufgewertet werden. Den Schwerpunkt auf rentable Unternehmensaktivitäten legen zu können ist der fast noch wesentlichere Aspekt von Automation und KI, über einfache Kostensenkungen bei der Transaktionsabwicklung hinaus. Der Ruf aus den Vorstandsetagen nach mehr strategischem Denken an die Adresse des Back Office ist alt. Mit Hilfe von Automatisierung kann dieser Ruf endlich erhört werden: Je mehr Automatisierung, desto mehr Zeit und Energie werden frei, um die Zukunft des Unternehmens aktiv zu gestalten, wenn der Weg zur Innovation einmal freigeräumt ist. Mehr in unserem E-Book zum Thema: Erfahren Sie, wie Sie in 5 Schritten zu umfangreicheren und erfolgreicheren Shared Services vorstoßen.​ Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Dee Houchen, ERP & SCM Evangelist.

Es wäre schlecht, tatenlos zuzusehen: Inzwischen senken schon Mittelbetriebe ihre Kosten und ergreifen wirkungsvolle Maßnahmen – mit Hilfe zentralisierter oder outgesourcter Modelle, die bisher unter...

Personal

Checkliste Mitarbeiterengagement: 8 Punkte für mehr Motivation im Unternehmen

Was hat das Engagement von Mitarbeitern mit der digitalen Transformation Ihres Unternehmens zu tun? – Jedenfalls mehr als mit Betriebsausflügen und Obstkörben in Schreibtischnähe. Das heißt nicht, dass solche Goodies überflüssig wären. Aber die Basis für solche Dinge wie Motivation, Engagement, vielleicht sogar “Brennen” für den Job liegt woanders: Unternehmen performen dann spürbar besser, wenn die Mitarbeiter sich wirklich Gedanken um ihre Rolle im Betrieb machen und umgekehrt auch merken, dass das Unternehmen sich um sie Gedanken macht. Wie überall, wo es um nachhaltiges Wachstum geht, müssen Sie auch in ihre Mitarbeiter kontinuierlich investieren; nur so können Sie erwarten, dass ein auch emotional tragfähiges Engagement für Ihr Unternehmen und Ihre Ziele wächst. Verwechseln Sie aber Mitarbeiterengagement nicht mit Zufriedenheit am Arbeitsplatz! Es kann durchaus sein, dass jemand mit seiner Aufgabe, seinem Platz oder dem Gehalt ganz glücklich ist, ohne aber je sein Potential voll einzusetzen, nennenswerte Eigeninitiative zu entwickeln oder immun gegenüber Abwerbungsversuchen eines fremden Recruiters zu sein. Bei wirklich engagierten Mitarbeitern ist das anders: Da geht es nicht primär ums Gehalt oder die nächste Beförderung. Vielmehr ist die Verbindung zum Unternehmen und die Identifikation damit stark genug, damit die Mitarbeiter sich unbeschränkt einzusetzen. Sie starren nicht auf ihre Jobbeschreibung, sondern gehen bei Bedarf selbständig auch deutlich darüber hinaus; um hochgradig produktiv zu sein, kümmern sie sich nicht darum, ob sie in der Firma oder zu Hause sind; und wenn ein Kunde auf dem Spiel steht, gehen sie immer auch einen Schritt weiter. Mix aus Wissenschaft und Kunst, aber keine Hexerei: So geht Mitarbeiterengagement Eine vertrackte Herausforderung? Manchen Unternehmern kommt es kompliziert vor, echtes Mitarbeiterengagement hervorzukitzeln, weil viele verwobene Faktoren dabei mitspielen. Am Anfang steht natürlich, die richtigen Leute einzustellen. Die Frage ist aber, mit welchen Maßnahmen Sie mit der vorhandenen Belegschaft eine umfassende Unternehmenskultur des Mitarbeiterengagements aufbauen können. Hier ist die Checkliste für die Praxis: Auf der Ebene digitaler Kommunikation und mit entsprechenden Tools für den Job lässt sich viel an positiven Erfahrungen der Mitarbeiter erreichen – in jeder Phase des Berufslebens, von der Anstellung über die Einarbeitung bis zum Arbeiten mit den persönlichen Daten. Digitale Tools müssen praktisch nutzbar und individualisiert sein und auch so erlebt werden, und sie müssen helfen, Teamwork und eine organische Eingliederung zu fördern und zu erhalten. Die berufliche Entwicklung der Mitarbeiter muss mit ihren persönlichen Zielen, den Anforderungen der Performance des Unternehmens und den individuellen Entwicklungsmöglichkeiten in Übereinstimmung gebracht werden. Belohnen Sie Leistung nicht nur mit finanziellen Vergütungen, sondern genauso mit Anerkennung; das kann ein beliebiger freier Tag sein, ein Gutschein oder eine öffentlich ausgesprochene Belobigung für einen guten Job. Machen Sie Führungskräfte sichtbar und erlebbar. Vorgesetzte und Abteilungsleiter sollten möglichst oft Kontakt mit Mitarbeitern haben. Das hat nicht nur, aber auch den Sinn, dass es kontinuierlich Gelegenheit für Feedbacks gibt – nicht nur bei Besprechungen, in denen Auswertungen stattfinden. Sorgen Sie für eine Unternehmenskultur bzw. ein Betriebsklima, das Ihren Mitarbeitern erlaubt, mit ihren persönlichen Werten und Einstellungen ebenso präsent zu sein wie zu Hause. Strukturieren Sie die Aufgabenverteilung entsprechend den betrieblichen Anforderungen und gewährleisten Sie, dass für alle sichtbar bleibt, wie ihre Arbeit dazu beiträgt, dass die Unternehmensziele erreicht werden. Geben Sie jedem Mitarbeiter die Gelegenheit, zu lernen und sich weiterzuentwickeln. Manchmal bedeutet das eher, die aktuellen Aufgaben auszuweiten und anspruchsvoller zu gestalten, als jemanden zu befördern. Jedenfalls muss für die Mitarbeiter erfahrbar sein, dass sie an etwas Größerem arbeiten. Und sie müssen erkennen können, wohin für ihre berufliche Entwicklung die Reise geht. Zeigen Sie echtes Interesse am Wohl Ihrer Mitarbeiter; bemühen Sie sich zu verstehen, wovon es abhängt; bemühen Sie sich auch, dass für jeden der Berufsalltag so einfach und angenehm wie möglich aussieht. Es gibt kein Patentrezept – jeder Mensch und jedes Unternehmen ist wieder anders. Dennoch geht es bei Mitarbeiterengagement stets darum, für alle Menschen in einer Organisation Bedingungen zu schaffen, die sie motivieren, täglich ihr Bestes zu geben, die Werte des Unternehmens teilen zu können und für dessen Erfolg zu arbeiten, und zwar mit einem gesteigerten Gefühl, dass es ihnen selbst dabei gut geht.. Entdecken Sie jetzt mit Expertenwissen neue, sichere Wege zu einem erfolgreichem Personalwesen – von effizienten Unterstützungssystemen bis hin zur Mitarbeiterführung gibt Ihnen dieser Guide die richtigen Instrumente in die Hand. Lesen Sie Ihr E-Book hier: Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail oder LinkedIn. Richard Cheeseman, Director HCM Applications Marketing EMEA.

Was hat das Engagement von Mitarbeitern mit der digitalen Transformation Ihres Unternehmens zu tun? – Jedenfalls mehr als mit Betriebsausflügen und Obstkörben in Schreibtischnähe. Das heißt nicht,...

Customer Experience

Hightech für die Customer Experience: Wertlos ohne gute Daten

Verwenden Sie für das Management Ihrer Kundenbeziehungen Chatbots, Software mit künstlicher Intelligenz und andere digitale CRM-Systeme der letzten Generation? Wenn ja, dann haben sie softwaretechnisch schon einmal alles, was z. B. gute Verkäufer immer schon ausgezeichnet hat: Kundenbedürfnisse stets im Hinterkopf, ebenso die passenden Angebote, Einfühlungsvermögen und Kommunikationskompetenz. Nicht zu vergessen: ein Gedächtnis wie ein Elefant. Und jetzt stellen Sie sich einen solchen exzellenten Old-School-Verkäufer vor, der nichts mehr über seine Kunden weiß – dann haben Sie ungefähr die Situation eines Unternehmens, das zwar die denkbar besten Technologien besitzt, aber kaum Kundendaten. „Kaum“ könnte heißen: Stammdaten, bisherige Käufe, vielleicht noch Zahlungsverhalten, aber sonst nicht mehr viel. Und das ist heute leider so gut wie nichts! Technologie ist nur der Knochen – das Fleisch sind Daten Was Sie brauchen, um Ihren Kunden eine begeisternde Customer Experience zu bieten und um Neukunden zu gewinnen, hat sich im Grunde nicht wesentlich geändert. Sie müssen die Kunden und ihre Bedürfnisse kennen, die Kommunikation dementsprechend personalisieren und alles andere in Ihrem Unternehmen danach ausrichten. Die Herausforderung heute liegt in einer unfassbaren Zunahme an Informationen, die rund um die Uhr über die verschiedensten Kanäle hereinströmen. Menschen signalisieren inzwischen nahezu pausenlos alles Mögliche – auch als (potentielle) Kunden. Das sind alles Daten für Sie, und deswegen ist Customer Experience zum Thema Nummer 1 geworden. Denn neue Technologien sind nur die Werkzeuge, mit denen Sie diese Daten sammeln, verarbeiten und nutzbar machen können, doch dafür müssen Sie entsprechende Strategien entwickeln. Das Ziel ist ja, die Zufriedenheit Ihrer Kunden maximal zu steigern und hoch zu halten; Sie wollen sich dazu außerdem so früh wie möglich – vor Ihren Mitbewerbern! – auf Trends und neue Bedürfnisse einstellen, damit Sie keine Kunden an andere Anbieter verlieren. Nur eine CX-Strategie, die stark datenbasiert funktioniert, zeigt Ihnen Ihre wertvollsten Zielgruppen auf und hilft Ihnen, Verkauf, Marketing und Service dementsprechend zu designen. Mit einer solchen Strategie setzen Sie sich von vielen Unternehmen ab, deren Datenbestände schmal und streng definiert sind und eher dazu dienen, sich betrieblichen Abläufen anzupassen, statt das Unternehmen am Kunden auszurichten. Der richtige Datenmix für Kundenversteher Ein großer Teil der Daten, die Kunden produzieren, entstehen im Chaos des Alltags, also nicht da, wo klassische CRM-Systeme sie typischerweise schön geordnet zu erheben versuchen. Den Customer Lifecycle, d. h. die umfassende Historie, den wirklich individuellen Blick ohne blinde Flecken, bekommen Sie nur mit beiden Sorten von Daten: Strukturierte Daten – Diese Informationen beziehen sich auf alles, was ohne Weiteres in Kategorien, Zahlen und anderen leicht formatierbaren Datensätzen gesammelt und auch wieder gesucht werden kann: z. B. Bestellverlauf, bevorzugte Kommunikationskanäle, Kaufverhalten, Anschrift, Art des Haushalts, sozialer und wirtschaftlicher Status, Online-Verhalten. Diese Daten müssen inzwischen auch dynamisch erfasst werden, sprich: Wenn Kunden eine Lokalisierung erlauben (und das ist erstaunlich oft), ist es ein Muss, auch hier in Echtzeit interagieren zu können, um dem Kunden eine absolut auf seine Situation zugeschnittene und interaktive Basis für perfekte Kundenerfahrung zu ermöglichen. Unstrukturierte Daten – Diese unaufgeräumten, aber ergiebigen Daten kommen z. B. in Form von E-Mailinhalten, Videos, Fotos, Sofortnachrichten, SMS und nicht zuletzt in Posts auf den verschiedenen Social-Media-Kanälen. Es lohnt sich, hier gut zuzuhören, denn gehaltvolle Erkenntnisse über Interessen, Gefühle und Vorlieben liegen oft gerade in diesen ungefilterten Rohdaten, die eine höchst wertvolle Basis für verhaltensbezogene und prognostische Datenanalysen darstellen. Nur mit einer maximal wirkungsvollen Kombination von strukturierten und unstrukturierten Daten schaffen Sie es, Kunden mit der richtigen Botschaft zur richtigen Zeit und über den richtigen Kanal erfolgreich anzusprechen. Keine halben Sachen! Die reinen Datenmengen, mit denen Unternehmen es hier zu tun bekommen, mögen atemberaubend sein. Das ist aber unvermeidbar, weil immer mehr vernetzte Kunden mit immer mehr Geräten natürlich immer mehr Daten produzieren. Global Player haben schon lange begriffen, dass diese Daten quasi das Erdöl der Zukunft sind, mit dem sie ein Vermögen erwirtschaften können. Viele müssen allerdings erst einmal richtig beginnen, Kundendaten wirklich in den Fokus zu stellen und sie als strategische Priorität zu behandeln. Erforderlich dazu ist vor allem: Eine moderne CX-Plattform, um die abgeschotteten Informationssilos von Verkauf, Marketing, Geschäftsverkehr und Service aufzubrechen Die Fähigkeit, verstreut liegende Datenbestände sinnvoll miteinander zu integrieren Eine Analytics-Struktur, die Erkenntnisse über Geschäftsmöglichkeiten, Trends, Abweichungen und Meinungen, die damit verbunden sind, ermöglicht Nur so werden Sie Erkenntnisse über Ihre Kunden in alle entscheidenden operativen Vorgänge einflechten können und auf diesem Weg eine neue Dimension von Customer Experience eröffnen. Interesse an mehr? – Holen Sie sich unser E-Book: Kontakt: Ein spannendes Thema über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn oder Twitter. Mark de Groot, Digital CX Evangelist.

Verwenden Sie für das Management Ihrer Kundenbeziehungen Chatbots, Software mit künstlicher Intelligenz und andere digitale CRM-Systeme der letzten Generation? Wenn ja, dann haben...

Oracle

Integrated Cloud Applications & Platform Services