Lobster_data: Datenintegration im Tablet-Style

Major Release: Intuitives Arbeiten wird Normalität

Lobster_data: Datenintegration im Tablet-Style

Das neue Release von Lobster_data: Flexibilität bei den Endgeräten jederzeit individuelles Anpassen (Bildquelle: Copyright: Lobster GmbH)

Desktop im Büro, Tablet im Flugzeug, Smartphone in der Besprechung und Notebook zu Hause – modernes Management erfordert ein hohes Maß an Flexibilität. Was für die Endgeräte gilt, gilt ebenso für die Software, die von unterschiedlichsten Devices aus nahtlos mit dem jeweils aktuellen Datenstand weiterarbeiten soll. „Wir haben das Thema Datenintegration mit dem aktuellen Release unserer Standardsoftware Lobster_data auf ein neues Niveau gehoben“, ist sich Steffen Brehme, Leiter Softwareentwicklung bei Lobster, sicher. „Unsere 1.000 Kunden entwickeln sich immer stärker zu agilen Unternehmen, die für schnelle Entscheidungen und präzise Prozesse die Unterstützung einer Standardsoftware benötigen, die einfach zu bedienen ist, mit einer klaren und logischen Struktur für Übersicht sorgt, alle Industriestandards beherrscht, Ressourcen schont und die effizient, stabil und mit hoher Geschwindigkeit von jedem Gerät und jedem Ort aus ihren Job macht. Diese Anforderungen haben wir mit dem neuen Lobster_data umgesetzt.“

Die große Freiheit
Das neue Release kommt komplett als HTML5-Frontend-Version mit allen Annehmlichkeiten für die Anwender. Groß- und Kleinziehen von Arbeitsfenstern, individuelles Anordnen, Anklicken mit einem Fingerzeig, schnelle Wechsel zwischen Übersicht und Detailansicht. Das bedeutet jederzeit individuelles Anpassen und vor allem Barrierefreiheit. Die sechs logischen Arbeitsschritte, um Daten von einem System in ein anderes zu transferieren, benötigen keine Programmierung von Schnittstellen, lediglich das entsprechende Fach-Know-how für den Mapping-Prozess. Lobster_data gibt es für den eigenen Server weiterhin on premise und komplett ohne eigene Installation als Cloud-Lösung: einfach den Browser öffnen und loslegen. Es versteht sich von selbst, dass Lobster_data mit HTML5 auf allen gängigen Browsern läuft, ganz egal ob Firefox, Internet Explorer, Microsoft Edge, Opera, Safari oder Google Chrome.

100 Filialen? Ein Lächeln. 1.000 Filialen? Ein Knopfdruck.
Damit die Nutzerfreundlichkeit noch weiter steigt, hat Lobster sein Software-Flaggschiff zudem Docker-fähig gemacht. Steffen Brehme: „Das hat zum Beispiel Vorteile beim Anschluss von vielen Filialen, die alle über unsere MFT-Lösung mit der gleichen Konfiguration starten. Die Konfiguration wird dann lediglich einmal erstellt und die neue Filiale wird durch Abruf des Docker-Containers automatisch mit der korrekten Konfiguration angebunden. Umfangreiche Programminstallationen entfallen, da das Frontend über den Webbrowser läuft und sofort einsatzbereit ist – ganz egal, ob es sich um 100 oder 1.000 Filialen handelt, der Aufwand ist für alle der gleiche und Lobster_data MFT startet mit einem Knopfdruck. Entsprechend einfach und ressourcenschonend sind Updates.“

Your own device: kein Problem
Die beiden größten Vorteile sehen die Lobster-Entwickler allerdings in der Entlastung des Anwenders und der Flexibilität bei den Endgeräten. Steffen Brehme: „Der Anwender installiert nichts mehr und ist auch nicht mehr für Updates (mit-)verantwortlich. Die Software läuft auf dem Server oder in der Cloud, während der Anwender immer vollkommen automatisch die aktuelle Version nutzt, die zudem Dank Container-Technologie auch bei Updates praktisch immer verfügbar bleibt.“ So löst Lobster_data zudem das Problem um das Thema „Bring your own device“. „Da die Mitarbeiter nur noch über den Browser auf Lobster_data zugreifen, haben sie stets den aktuellen Arbeitsstand, egal von welchem Endgerät aus sie arbeiten“, erklärt der Lobster-Chefentwickler. „Teamarbeit an der gleichen Schnittstelle funktioniert damit ebenso einfach wie das Unterbrechen auf dem Desktop und das unmittelbare Fortsetzen auf dem Notebook, Smartphone oder Tablet.“

Seit 2002 entwickelt Lobster Softwarelösungen für Unternehmen. Neben Lobster_data, der Standardsoftware für Datenintegration, bietet das Unternehmen mit Lobster_scm eine Lösung für die Optimierung von Logistikprozessen und mit Lobster_pim eine Lösung für die unternehmensweite Bereitstellung von Produktinformationen.

Aktuell betreut das Lobster-Team mit über 100 MitarbeiterInnen am Firmensitz in Pöcking am Starnberger See und in den Niederlassungen in Bielefeld und Chesterfield (UK) über 1.000 nationale und internationale Unternehmen verschiedenster Größen.

Firmenkontakt
Lobster GmbH
Katrin Neubauer
Hindenburgstraße 15
82319 Starnberg
+49 (0) 8157-590 99-0
katrin.neubauer@lobster.de
http://www.lobster.de

Pressekontakt
Compass Communications GmbH
Perry Reisewitz
Theresienstr. 12
82319 Starnberg
+49.8151.9191100
lobster@compass-communications.de
http://www.compass-communications.de

Neo4j holt Kettle Entwickler Matt Casters ins Team

Entwickler des Pentaho Datenintegrationstools wird als Chief Solutions Architect die native Graph-Plattform weiter ausbauen

Neo4j holt Kettle Entwickler Matt Casters ins Team

München, 19. Juni 2018 – Neo4j, Marktführer für Connected Data, holt Matt Casters als Chief Solutions Architect ins Team. Der Gründer und leitende Entwickler von Kettle (später Pentaho Data Integration) wird bei Neo4j dafür sorgen, dass Graph-Anwendungen noch leichter in bestehende Architekturen integriert werden können.

Casters ist einer der führenden Entwickler für Datenintegration, verfügt über langjährige Erfahrung im Bereich Business Intelligence und war unter anderem als DBA bei Oracle tätig. Ein großer Befürworter von Open Source, gründete Casters 2005 das Open Source Projekt Kettle, wobei er maßgeblich an der Entwicklung der ETL-Engine beteiligt war. Später entstand aus diesem Projekt die Business-Intelligence-Plattform Pentaho Data Integration (PDI). 2015 wurde Pentaho von Hitachi Data Systems übernommen.

Kettle bzw. PDI bietet ETL-Funktionen (Extract, Transform, Load) für den Dateninput & -output sowie die Datenmanipulation aus unterschiedlichsten Quellen, darunter relationale Datenbanken sowie Graphdatenbanken oder andere NoSQL Datenbanken. Neo4j-Anwender beispielsweise können Daten über die Neo4j-Instanz via Kettle auslesen und an relationale Reporting- und Datenvisualisierungstools übermitteln. Weitere Synergien finden sich zudem für das Workflow-Management, Data Lineage, zentrale Metadaten, MDM und Datenqualität.

In seiner neuen Rolle als Chief Solutions Architect arbeitet Casters gemeinsam mit dem Neo4j Solutions Team daran, mit Hilfe von Kettle die Implementierung von Neo4j schneller zu gestalten. Dafür sollen die Integration vereinfacht und Best Practices über verschiedene Neo4j-Projekte wiederholbar gemacht werden. Zu den langfristigen Zielen gehört es, die Neo4j Graph-Plattform abzurunden, die Möglichkeiten zur Datenintegration zu erweitern und den Prozess des Datenimports zu rationalisieren. Anwender sollen in der Lage sein ihre Graphanalysen mit weniger Aufwand durchzuführen.

„Das Wachstumspotential der Technologie ist meiner Meinung nach extrem spannend“, erklärt Casters. „Wir können schon jetzt unglaubliche Dinge mit der Graphdatenbank realisieren – das unterscheidet Neo4j von anderen Datenbanken. Für mich sind die Integrations-Funktionen von Kettle in Verbindung mit Neo4j eine unschlagbare Kombination.“

Neo4j ist das Graph-Unternehmen hinter DER Plattform für vernetzte Daten. Die Neo4j Graph-Plattform unterstützt Unternehmen dabei, vernetzte Daten in vollem Umfang zu nutzen und die komplexen Verknüpfungen zwischen Personen, Prozessen und Systemen zu entschlüsseln. Der Fokus auf Datenbeziehungen ermöglicht die Entwicklung intelligenter Anwendungen, um Herausforderungen von Heute erfolgreich zu meistern – von künstlicher Intelligenz über Betrugserkennung und Echtzeit-Empfehlungen bis zu Stammdatenmanagement.

Das Unternehmen weist ein gezieltes Investment in native Graphtechnologie und mehr als zehn Millionen Downloads auf und besitzt eine riesige Graph-Community, die weltweit graphbasierte Anwendungen entwickelt. Mehr als 250 kommerzielle Kunden nutzen Neo4j, um erfolgsentscheidenden Nutzen aus ihren Datenverbindungen zu ziehen – darunter globale Branchengrößen wie Walmart, Comcast, Cisco, eBay und UBS.

Neo4j ist ein privat geführtes Unternehmen, das von Eight Roads Ventures (Beteiligungsgesellschaft von Fidelity International Limited), Sunstone Capital, Conor Venture Partners, Creandum, Dawn Capital und Greenbridge Investment Partners finanziert wird. Neo4j hat seinen Firmensitz in San Mateo, Kalifornien, und führt darüber hinaus Standorte in Deutschland, Großbritannien und Schweden. Weitere Informationen unter Neo4j.com und @Neo4j.

Firmenkontakt
Neo4j
Birgit Fuchs-Laine
Prinzregentenstraße 89
81675 München
089 41 77 61 13
neo4j@lucyturpin.com
http://www.neo4j.com

Pressekontakt
Lucy Turpin Communications
Birgit Fuchs-Laine
Prinzregentenstraße 89
81675 München
089 41 77 61 13
neo4j@lucyturpin.com
http://www.lucyturpin.de

DataVirtuality launcht neues Produkt „DataVirtuality Pipes“

Cloud-Applikation ermöglich besonders einfache Zusammenführung von Daten mit wenigen Klicks

DataVirtuality launcht neues Produkt "DataVirtuality Pipes"

www.DataVirtuality.com

LEIPZIG/SAN FRANCISCO 28.06.2016: DataVirtuality, ein führender Anbieter von Datenintegrationslösungen und „Gartner Cool Vendor 2016“, hat heute die Markteinführung seines neuen Produktes „Data Virtuality Pipes“ bekannt gegeben: Die Cloud-Applikation richtet sich an Business-Intelligence-Manager, die schnell und ohne großen Aufwand Informationen aus unterschiedlichsten Datenquellen zusammenführen möchten. Dafür können Nutzer von Pipes auf über 100 vorkonfigurierte Konnektoren zugreifen. Die Informationen aus den gewünschten Datenquellen werden mit wenigen Klicks in ein cloudbasiertes Data Warehouse wie etwa Amazon Redshift kopiert. Dort stehen sie dann für die Weiterverarbeitung mit anderen Systemen zur Verfügung.

DataVirtuality Pipes basiert auf einem sogenannten „Freemium“-Preismodell: viele der am weitesten verbreiteten Datenquellen (wie etwa Facebook und Google) können kostenfrei und in nur fünf Minuten angebunden werden. Bei anderen Datenquellen fällt gegebenenfalls eine monatliche Gebühr an.

„Für uns ist es wichtig, Unternehmen mit DataVirtuality Pipes einen schnellen und einfachen Einstieg in die Welt der Datenanalyse bieten zu können“ erklärt Dr. Nick Golovin, Founder und CEO von DataVirtuality. „Gleichzeitig geben wir diesen Kunden die Flexibilität, bei Bedarf ganz einfach auch deutlich komplexere Datenintegrationen vorzunehmen: sie können mühelos auf unsere leistungsstarke Komplettlösung DataVirtuality Logical Data Warehouse migrieren.“

Weitere Informationen unter pipes.datavirtuality.com (http://pipes.datavirtuality.com).

DataVirtuality ermöglicht Unternehmen, umgehend eine große Vielzahl von Datenquellen und Cloudservices zu integrieren und in Echtzeit zu analysieren. Mit Hunderten vorkonfigurierter Konnektoren maximiert DataVirtuality die operative Performance bei nur minimalem administrativem Aufwand. Zu den Kunden von DataVituality zählen globale Konzerne und datengetriebene Unternehmen.

Mehr Informationen unter www.datavirtuality.com

Firmenkontakt
DataVirtuality Inc.
Karsten Beyer
1355 Market Street, #488
CA 94103 San Francisco
+1 650 285 9270
kb@datavirtuality.com
www.datavirtuality.com

Pressekontakt
DataVirtuality GmbH
Katja Dömer
Katharinenstr. 15
04109 Leipzig
+49 151 10609809
katja.doemer@datavirtuality.de
www.datavirtuality.com

„State of Cloud Analytics“-Studie verdeutlicht das Wachstum von Cloud Analytics

EMEA-weite Studie von IDG Research Services zeigt: 74 % der Unternehmen planen, in den kommenden drei Jahren hybride oder rein Cloud-basierte Analytics einzusetzen

Stuttgart, 01. Februar 2016 – Informatica, einer der weltweit führenden unabhängigen Anbieter von Software und wegweisenden Innovationen für „All Things Data“, gibt die Ergebnisse einer neuen EMEA-weiten Studie zur zunehmenden Einführung von Cloud Analytics bekannt. Die Studie wurde im Auftrag von Informatica von IDG Research Services durchgeführt und befragte über 200 IT-Entscheidungsträger.

Die Studie belegt, dass die Einführung von Cloud Analytics einen Wendepunkt erreicht hat: 68% der Befragten geben an, dass sie innerhalb der kommenden zwölf Monate die Einführung von Cloud Analytics-Lösungen überprüfen, analysieren oder aktiv planen. Zudem erwarten 74%, in den nächsten drei Jahren hybride oder reine Cloud-basierte Ansätze für Analytics anzuwenden.

Cloud Analytics wurde in der Studie folgendermaßen definiert: die Implementierung von einer oder mehr primären Business Analytics-Komponenten (Datenintegration, Data Warehousing und BI) in der Cloud. Cloud Analytics hat sich zur führenden Lösung entwickelt, um Mehrwert aus dem stetig wachsenden Set aus internen und externen Datenquellen zu extrahieren, damit Unternehmen bessere Erkenntnisse daraus ziehen und Entscheidungen für ihre Mitarbeiter auf jedem Level und in jeder Abteilung treffen können. Bereits 15% der Befragten haben bereits eine oder mehrere Cloud Analytics-Lösungen im Einsatz.

Die wichtigsten Erkenntnisse der Studie im Überblick
Die IDG-Studie offenbart einen schnell wachsenden Markt für Cloud Analytics-Lösungen, in dem sogar bereits Early Adopters signifikante Geschäftswerte erzielen:
-Die Einführung von Cloud Analytics wird primär dadurch angetrieben, dass Endanwenderanforderungen nach verbesserten Analytics eskaliert werden – Dies umfasst eine systemübergreifende verbesserte Datenqualität und -konsistenz (81%), bessere Möglichkeiten, um Daten visuell zu erforschen (70%) sowie die Datenaggregation und -analyse in Echtzeit (71%).
-Die Einführung wird zudem durch die Notwendigkeit, auf eine expandierende Palette an Datenquellen zuzugreifen, angetrieben (Cloud und on-Premise) – Die Befragten führen Folgendes auf: die Notwendigkeit, Daten aus on-Premise Anwendungen (55%), on-Premise Data Warehouses (55%), Cloud Data Warehouses (49%) und SaaS-Anwendungen (44%) zu analysieren. Die Unterstützung von Big Data-Quellen ist eine weitere spezifische Nachfrage (67%).
-Cloud Analytics wird schnell zum Mainstream – Teilnehmer, die bereits Cloud Analytics-Projekte einsetzen oder planen, haben in den kommenden zwölf Monaten im Durchschnitt 17 Analytik-Projekte in Planung. Bei 46% dieser Projekte werden Cloud Analytics-Lösungen eingesetzt werden.
-Die Vorteile von Cloud Analytics stellen die von on-Premise Analytik-Angeboten in den Schatten – Befragte, die bereits Cloud Analytics-Lösungen im Einsatz haben, sehen die Vorteile geringerer direkter Kosten (60%) gegenüber on-Premise-Lösungen sowie eine bessere Agilität und schnellere Markteinführung (61%), schnelleres und kosteneffektiveres Skalieren für größere Datensets (60%) und Self-Service-Möglichkeiten für nicht-technische Anwender (51%).
-Aktuelle Anwendungsfälle sind vielfältig – Die Befragten Unternehmen, die bereits eine Cloud Analytics-Lösung nutzen, setzen diese für unterschiedliche Zwecke ein, darunter die Integration von Analytics in CRM, SCM und andere operative Anwendungen (43%) sowie um schneller Mehrwert aus Analytics-Projekten zu ziehen (39%), Cloud-basierte Datenquellen wie SaaS, Social Media und IoT zu analysieren (37%) und hybrides Data Warehousing (32%).
-Die fünf wichtigsten Evaluierungsgründe – Die Befragten identifizierten verschiedene Evaluationskriterien für den Kauf einer Cloud Analytics-Lösung. Unter den Top 5: ein stabiles Datensicherheits-Framework (81%), Benutzerfreundlichkeit (78%), einfache Administration (77%), die Möglichkeit, on-Premise und Cloud-Daten zu integrieren (78%), und das Reinigen von Daten (74%). Gefolgt von der Möglichkeit, Ressourcen zu implementieren und die Geschwindigkeit der Implementation.
Die IDG Cloud Analytics-Studie wurde im September 2015 durchgeführt und befragte 203 IT- und Geschäftsentscheidungsträger in Europa.

Weitere Informationen zur Studie gibt es hier:
-IDG Research Services: „The State of Cloud Analytics“

Zitate:
-„Bei vielen aktuellen Business Analytics-Lösungen sind iteraktive Entwicklung, Experimentieren und schrittweise Roll-outs zur Norm geworden. Diese Agilität und Anpassbarkeit der Lösungen ist eines der größten Verkaufsargumente von Cloud Analytics Services. Sie ermöglichen es dem Kunden, die Lösungen zu testen, zu kaufen, anzupassen und schnell unerwartete neue Anforderungen zu adressieren.“
Dan Vesset, Program VP, Business Analytics and Information Management, IDC

-„Die IDG-Studie verdeutlicht, dass Cloud Analytics tatsächlich auf der Überholspur sind, um die neue Normalität für Enterprise Analytics zu werden sowie die Anforderungen der Anwender bezüglich erweiterter Funktionalität, flexiblem Datenzugriff und Einfachheit und IT-Anforderungen für geringere Kosten und mehr Agilität unterstützt. Die Studie zeigt, dass Kunden zwar diese Vorteile ausnutzen möchten, jedoch die Datensicherheit nicht außen vor lassen. Sie verdeutlicht zudem, dass sie das volle Maß an Flexibilität und Benutzerfreundlichkeit von ihren Cloud Analytics-Lösungen erwarten, um die wachsende Anzahl der Anwender – die nicht über das spezialisierte Können verfügen, das für ältere on-Premise-Lösungen nötig ist – mit den nötigen analytischen Möglichkeiten auszustatten.“
Ajay Gandhi, Vice President, Product Marketing, Informatica Cloud

Informatica ist einer der weltweit führenden unabhängigen Anbieter von Software und wegweisenden Innovationen für „All Things Data“. Unternehmen auf der ganzen Welt setzen auf Informatica, um das Potenzial ihrer Informationen zu erschließen und wichtige Geschäftsnotwendigkeiten zu verwirklichen. Weltweit nutzen über 5.800 Unternehmen Informatica, um den Wert ihrer sich vor Ort, in der Cloud oder dem öffentlichen Internet, inklusive sozialer Netzwerke, befindlichen Informationsbestände optimal zu nutzen. Weitere Informationen erhalten Sie unter +49 (0) 711 139 84 – 0 (1-800-653-3871 in den USA) oder auf www.informatica.com/de. Vernetzen Sie sich mit Informatica über https://linkedin.com/company/informatica, https://twitter.com/Informatica und https://facebook.com/InformaticaLLC.

Firmenkontakt
Informatica
Kristen Miller
Edisonbaan 14a
3439 MN Nieuwegein
+31 (0) 30 6086725
kmiller@informatica.com
http://www.informatica.com/

Pressekontakt
Hill + Knowlton Strategies
Nicole Stück
Darmstädter Landstraße 112
60598 Frankfurt am Main
+49 69 97362 18
InformaticaDE@hkstrategies.com
http://www.hkstrategies.de

Was Unternehmen über Daten- und Prozessintegration wissen müssen

eurodata veröffentlicht eBook zum erfolgreichen Umgang mit der wachsenden Datenvielfalt

Was Unternehmen über Daten- und Prozessintegration wissen müssen

Saarbrücken, 19. November 2015 – Der Softwareanbieter eurodata geht in einem aktuellen eBook der Frage nach, warum Industrie 4.0 und das „Internet der Dinge“ zu einer wachsenden Datenflut und -vielfalt führen. Anhand konkreter Beispiele wird aufgezeigt, wie Unternehmen erfolgreich mit diesen Herausforderungen umgehen können. Im Zentrum stehen dabei Software-Plattformen, die Daten über Systemgrenzen hinweg integrieren und visualisieren. So sorgen sie nicht nur für Überblick in der Datenflut, sondern tragen auch signifikant zur Verbesserung von Business-Prozessen, Transaktionen und der Zusammenarbeit bei.

Internet der Dinge und Industrie 4.0 verändern die IT-Welt
Im ersten Teil des eBooks werden die aktuellen Entwicklungen in der IT-Welt analysiert und dargestellt, wie die zunehmende Vernetzung physischer und virtueller Welten die Wirtschaft umwälzt und zu einer Neuausrichtung in Industrie und Handel führen wird. Strategische Aufgabe der Unternehmen muss es daher sein, sich spätestens jetzt auf weiter zunehmende, komplexe Datenmengen vorzubereiten und diese so zu nutzen, dass Prozesse und Transaktionen noch effizienter werden.

„Uns ist es ein echtes Anliegen, die Bedeutung und die Auswirkungen der aktuellen IT-Trends zu verdeutlichen. Kein Unternehmen wird sich dem verschließen können“, sagt Frank Reinelt, Geschäftsbereichsleiter Smart Services und Lösungen für KMUs der eurodata AG. „Die gute Nachricht aber lautet: Es gibt clevere Wege, diese Herausforderung nicht nur zu lösen, sondern dabei auch noch das eigene Unternehmen ganz entscheidend nach vorne zu bringen.“

Smart Services: von Big Data zu Smart Data
Um Informationen und Daten zu konsolidieren, die in Echtzeit, Batch-Form, strukturiert oder unstrukturiert vorliegen, wird im eBook die Einführung einer smarten Plattform beschrieben, auf der Daten zusammenlaufen, integriert, analysiert und weiterverarbeitet werden, so dass kontrollierte Prozesse automatisiert ablaufen können. „Wenn physische und digitale Dienstleistungen zu neuen, intelligenten Produkten und digital veredelten Geschäftsmodellen verknüpft werden, sprechen wir von Smart Services“, sagt Reinelt.

Die Eigenschaften und technischen Anforderungen an eine solche Plattform sind dabei sehr individuell. So kann es in einem Szenario darum gehen, dass Daten über Systemgrenzen hinweg integriert, Prozesse automatisiert und dadurch transparenter werden, um Störungen frühzeitig zu erkennen und zu verhindern. Für andere Unternehmen ist eher ein cleveres Daten-Matching und eine automatische Integration wichtig, um reibungslose Transaktionen durchführen zu können. Häufig dienen solche Plattformen aber auch zur Digitalisierung von Businessprozessen, um mehr Transparenz herzustellen und den Datenaustausch nachzuvollziehen.

In dem eBook werden diese Anwendungsbeispiele ausführlich beschrieben. Download ab sofort unter: http://ebook-smartservices-der-zukunft.eurodata.de/

Die eurodata AG entwickelt und vermarktet cloudbasierte Softwarelösungen für Handelsnetze, Steuerberater und KMUs sowie Softwareprodukte zur Implementierung von Smart Services für mehrstufige Prozesse und Datenintegration. Mehr als 50.000 Kunden vertrauen den eurodata-Hochleistungsrechenzentren, einer sicheren Cloud „Made in Germany“, mit professionellen Web- und Cloud-Dienstleistungen. Damit übernehmen wir auch die Verantwortung für den reibungslosen Betrieb der Lösungen. Die eurodata AG wurde 1965 gegründet und hat ihren Hauptsitz in Saarbrücken. Heute fokussieren sich mehr als 500 Mitarbeiter nachhaltig um den Erfolg unserer Kunden in ganz Europa. www.eurodata.de

Firmenkontakt
eurodata AG
Markus Metz
Großblittersdorfer Str. 257
66119 Saarbrücken
0681 / 88080
m.metz@eurodata.de
www.eurodata.de

Pressekontakt
Schmidt Kommunikation GmbH
Alexandra Schmidt
Schillerstrasse 8
85521 Ottobrunn b. München
089 / 60 66 92 22
alexandra.schmidt@schmidtkom.de
www.schmidtkom.de

Informatica stellt neues Release seiner branchenführenden Plattform zur Datenverwaltung vor – speziell für moderne Datenarchitekturen

Informatica PowerCenter, Data Quality und Data Integration Hub mit höherer Flexibilität und Performance sowie neuen Funktionen stärken die führende Marktposition des Unternehmens

Redwood City, Kalifornien, USA – 20. Oktober 2015 – Informatica, einer der weltweit führenden unabhängigen Anbieter von Software und wegweisenden Innovationen für „All Things Data“, stellt Informatica v10 vor. Die neueste Version der preisgekrönten Plattform zur Datenverwaltung ermöglicht es Kunden, ihre Unternehmensdatenarchitektur zu modernisieren und zu vereinfachen. Informatica v10 wurde speziell entwickelt, um in den heutigen, hybriden IT-Umgebungen – sowohl in der Cloud als auch on-Premise – aussagekräftige Daten in nahezu jeder Geschwindigkeit bereitzustellen. Die Lösung sorgt dank ihrer drei Hauptkomponenten Informatica PowerCenter, Informatica Data Quality und Informatica Data Integration Hub für Performance, Flexibilität, Benutzerfreundlichkeit, Governance und Produktivität.

„Die marktführende Lösung für Datenintegration und Datenqualität wurde nochmals verbessert“, so Anil Chakravarthy, geschäftsführender Chief Executive Officer von Informatica. „Informatica ist bereits seit 20 Jahren Leader in allen Belangen rund um Daten, und hat die Messlatte mit dieser Lösung noch einmal höher gelegt. Heutzutage sind Daten das Herzstück jedes Unternehmens, und Informatica steht für alle Belange rund um Daten. Mit Informatica v10 können Datenarchitekten ihre IT-Umgebung modernisieren und optimale Performance und verbesserte Data Governance für moderne Data Warehouses sicherstellen. Darüber hinaus profitieren Unternehmen von der Flexibilität des umfassenden Cloud-Supports über ein Daten-Hub und mehr Flexibilität bei der End-to-End-Datenintegration.“

Aussagekräftige Daten sorgen für Profit, manuell programmierte Daten nicht
Unternehmen, die einen datenorientierten Ansatz verfolgen, erreichen durchschnittlich sechs zusätzliche Punkte bei der Gewinnmarge[1]. Kunden von Informatica vertrauen auf eine codefreie Entwicklungsumgebung, Automatisierung und Intelligence, die im Vergleich zur manuellen Programmierung für eine um 40 % höhere Produktivität von Datenintegrationsentwicklern sorgen – und um eine um 25 % höhere Produktivität im Vergleich zur Entwicklung mit Produkten von IBM, so Bloor Research[2].

– Das sagen Kunden und Partner über Informatica v10 http://infa.media/PR151013b
– 10 wichtige Gründe, warum Informatica v10 die beste Plattform zur Datenverwaltung auf dem Markt ist – siehe Infografik zu Informatica v10 http://infa.media/SS151013a

PowerCenter sorgt für eine hohe Flexibilität der End-to-End-Datenintegration
Informatica wurde aufgrund der Funktionen und Marktstärke von Informatica PowerCenter das zehnte Mal in Folge im Gartner Magic Quadrant für Datenintegration als Leader eingestuft.

– Unübertroffene Transparenz tatsächlicher Datenquellen
–> Generierung des Datenverlaufs bis zu 50 Mal schneller als mit Informatica Metadata Manager 9.6, so dass der Datenstrom über komplexe und rasch wachsende Umgebungen zur Datenintegration zeitnah und durchgängig transparent angezeigt wird. Dies führt zu besserer Governance und Performance.

– Schnellste Datenintegration für moderne Data Warehouses
–> PowerCenter ermöglicht eine bis zu 5 Mal schnellere Dateneinspeisung für Oracle Exadata, Oracle SuperCluster, SAP Hana und HP Vertica. Darüber hinaus ist PowerCenter als optimale Lösung für all diese Produkte zertifiziert.

– Verbesserte Zusammenarbeit mit IT-Abteilungen
–>Neue Visualisierungsfunktionen für Datenerkennung und Data Profiling ermöglichen es Geschäftsanalysten, ein tieferes Verständnis von Daten zu entwickeln.

– Neue Funktionen in PowerCenter OHNE Aufpreis zeigen, was die IT von der Datenintegration erwarten sollte
–> 100 Lizenzen für Analysten-Tools für die Zusammenarbeit mit IT-Abteilungen bei der Entwicklung flexibler Datenintegration.
–> Konnektoren für relationale, Stapel-, JDBC- und ODBC-Datenquellen.
–> Real Time Engine – Unternehmen nutzen die Vorteile von Data Warehousing in Echtzeit und tauschen Daten über verschiedene Anwendungen in der gewünschten Geschwindigkeit aus – per Stapelverarbeitung, beinahe in Echtzeit oder in Echtzeit.
–> Erweiterte Datenumwandlungen – Funktionen zur Umwandlung und für Parsing von Unternehmensdaten sämtlicher Datentypen, unabhängig von Format, Komplexität oder Größe.

Informatica Data Quality kurbelt ganzheitliche Data Governance an

Informatica Data Quality ist bereits das achte Mal in Folge von Gartner als führende Lösung im Bereich Datenqualität ausgezeichnet worden und überzeugt durch einzigartige Dienste, Methoden und Tools speziell für die Abstimmung von IT-Architekturen auf Geschäftsstrategien. Informatica Vibe sorgt dafür, dass Regeln für die Datenqualität nur einmal festgelegt und dann überall, den betrieblichen Anforderungen entsprechend, eingesetzt werden können, sowohl in der Cloud als auch on-Premise.

– Bessere Zusammenarbeit im Bereich Datenqualität
–> Dank der verbesserten Funktionen von Business Rule Builder werden Geschäftsanalysten und Datenverwalter direkt in den Prozess der Datenqualität einbezogen.

– Höhere Transparenz von Änderungen an Datenprofilen
–> Der Vergleich historischer Datenprofile sorgt dafür, dass Änderungen an verschiedenen Datenprofilen analysiert werden können.
– Hohe Qualität und schnellste Bearbeitung für moderne Data Warehouses
–> PowerCenter ermöglicht eine bis zu fünfmal schnellere Datenbereinigung für Oracle Exadata, Oracle SuperCluster, SAP Hana und HP Vertica. Darüber hinaus ist PowerCenter als optimale Lösung für all diese Produkte zertifiziert.

Informatica Data Integration Hub für schnelle Pub-Sub-Hub-Datenintegration

Informatica Data Integration Hub ist das weltweit einzige, moderne Hub-basierte Datenintegrationsprodukt und bietet jetzt auch ein hybrides Publish-/Subscribe-Modell für Big Data, die Cloud und traditionelle Systeme.

Informatica Data Integration Hub ist das erste und einzige Publish-/Subscribe-Modell, das folgende Vorteile bietet:
– Automatisierte Datenspeicherung im Petabytes-Bereich in Hadoop für Data Lakes.
– Unübertroffene Flexibilität, Effizienz und Benutzerfreundlichkeit dank einer modernen, Hub-basierten Architektur für Big Data-, Cloud- und On-Premise- PowerCenter-Workflows mithilfe von Assistenten und einer webbasierten Managementkonsole.
– Verwaltung hybrider Datenströme – in der Cloud und on-Premise – durch Datenpipelines, Workflows und Transparenz in Informatica Cloud und PowerCenter.
– Sichere Publish-/Subscribe-Modelle für Daten auch über die Firewall des Unternehmens hinaus, so dass remote Standorte angebunden werden können.

„Informatica ist der Inbegriff von Innovation und heute hat das Unternehmen einen Meilenstein erreicht, Unternehmen dabei zu unterstützen, End-to-End-Datenverwaltung für moderne Datenarchitekturen zu bieten“, so John L Myers, Managing Research Director von Enterprise Management Associates, einem Branchenanalyse-Unternehmen aus Boulder, CO, USA. „Informatica v10 mit PowerCenter, Data Quality und Data Integration Hub (DIH) stellt Unternehmen die Performance und Flexibilität zur Verfügung, die sie benötigen, um mit den Veränderungen eines datenorientierten Unternehmens Schritt halten zu können.“

Verfügbarkeit
Informatica PowerCenter, Informatica Data Quality und Informatica Data Integration Hub sind im 4. Quartal 2015 erhältlich.

Twittern Sie: Neuigkeiten: @Informatica introduces #DataIntegration, #Data Quality & #DataIntegrationHub – Informatica v10 http://infa.media/PR151013a

Zusätzliche Informationen
-Broschüre zu Informatica Data Integration
-Broschüre zu Informatica Data Quality
-Datenblatt zu Informatica Data Integration Hub
-Kurzdarstellung Informatica Data Integration Hub

Über den Magic Quadrant
Gartner bevorzugt keine in seinen Forschungspublikationen platzierten Hersteller, Produkte oder Dienstleistungen und rät Technologie-Anwendern nicht, sich nur für die bestplatzierten oder anderweitig genannten Hersteller zu entscheiden. Publikationen von Gartner enthalten Meinungen des Marktforschungsunternehmens Gartner und sollten nicht als Fakten interpretiert werden. Gartner übernimmt keinerlei Gewähr, weder ausdrücklich noch stillschweigend, für die vorliegenden Ergebnisse und schließt jegliche Mängelgewährleistung oder Zusicherung der Tauglichkeit für einen bestimmten Zweck aus.

Informatica Corporation (Nasdaq:INFA) ist der weltweit führende, unabhängige Anbieter von Datenintegrationssoftware. Organisationen auf der ganzen Welt verlassen sich auf Informatica, um ihr Informationspotenzial auszuschöpfen und hochgesteckte Geschäftsvorgaben zu erfüllen. Informatica Vibe ist die erste und einzige einbettbare virtuelle Datenmaschine (VDM) der Branche, die die einzigartige Fähigkeit des „Map Once. Deploy Anywhere.“ der Informatica Platform ermöglicht. Weltweit vertrauen über 5.000 Unternehmen auf Informatica, um ihre Datenbestände die sich on-premise, in der Cloud oder in sozialen Netzwerken befinden, von Geräten über mobile Endgeräte bis hin zu Social und Big Data zu nutzen. Weitere Informationen erhalten Sie unter der Telefonnummer +1 650-385-5000 (1-800-653-3871 in den USA) oder unter www.informatica.com. Treten Sie mit Informatica unter http://www.facebook.com/InformaticaCorporation, http://www.linkedin.com/company/informatica und http://twitter.com/InformaticaCorp in Verbindung.

Firmenkontakt
Informatica
Kristen Miller
Edisonbaan 14a
3439 MN Nieuwegein
+31 (0) 30 6086725
kmiller@informatica.com
http://www.informatica.com/

Pressekontakt
Hill + Knowlton Strategies
Nicole Stück
Darmstädter Landstraße 112
60598 Frankfurt am Main
+49 69 97362 18
InformaticaDE@hkstrategies.com
http://www.hkstrategies.de