Willkommen im mip BLOG


Die große IoT Konferenz der IBM – World of Watson

Ende Oktober fand in Las Vegas die größte Konferenz rund um KI Technologien und Lösungen statt.

IBM Konferenz in Las Vegas - World of Watson

IBM zeigte auf der World-of-Watson-Konferenz wie Unternehmen die kognitiven Fähigkeiten von Watson nutzen und welche Chancen sich ihnen dadurch bieten. Durch die Lernfähigkeit von Watson werden Wissenschaftler,
Entwickler und Data Scientists stetig mit neuen kognitiven Technologien und Lösungen unterstützt.

Auf dieser Konferenz wurden neue Watson Services, kognitive Apps und Chatbots angekündigt, wie beispielsweise die IBM Watson Data Platform: die weltweit schnellste Datenverarbeitungs- und Machine Learning-Plattform im Self-Service.

Zusätzliche Partnerschaften, wie beispielsweise im Automobilsektor zusammen mit General Motors, werden das Ökosystem erweitern. Mehr dazu lesen Sie in der Pressemitteilung der IBM: World of Watson 2016 Announcements

Ginni Rometty, Chief Executive Officer, IBM, aufgenommen während ihrer Keynote.

mip-ibm-world-of-watson7

Ursula Flade-Ruf und Markus Ruf, beide Geschäftsführer der mip GmbH, unterwegs in der Welt von Watson.

mip-ibm-world-of-watson9     mip-ibm-world-of-watson10

 

Sehen Sie hierzu noch einige Impressionen:

 
Slider

Data Warehouse aus der Cloud

Database-as-a-Service - das Data Warehouse aus der Cloud

Software-as-a-Service (SaaS), Infrastructure-as-a-Service (IaaS) oder Database-as-a-Service (DBaaS): Schnell anpassungsfähige Cloud-Angebote finden branchenübergreifend mehr und mehr Zuspruch. Dies bestätigt auch eine Studie zum Thema Hybrid-Cloud, also einer Mischung aus On-Premise- und Cloud-Lösungen, in der weltweit IT-Verantwortliche befragt wurden. Hier bestätigten 85 Prozent der Unternehmen, die eine gut integrierte hybride IT-Infrastruktur nutzen, dass sie ihre Kosten durch den Cloud-Einsatz erheblich reduzieren konnten.

Cloud-Services – bedarfsorientiert und kosteneffizient

Wie die On-Premise-Variante sammelt, säubert und analysiert auch das Data Warehouse aus der Cloud strukturierte sowie unstrukturierte Daten, um diese für die Weiterverarbeitung in anderen Systemen aufzubereiten. Beispielsweise müssen für die Bewertung von Informationen stets historische Daten für einen Vergleich herangezogen werden, die üblicherweise in einem Data Warehouse lagern. Die Kunden sind gerade in der heutigen Zeit darauf angewiesen, schneller sowie flexibler auf neue Technologien und Entwicklungen in den Märkten zu reagieren. Durch Cloud-Produkte wie DBaaS lassen sich zudem große Anfangsinvestitionen vermeiden. Damit eignen sie sich vor allem für Testzwecke oder zeitlich begrenzt genutzte Services. Dieses bedarfsorientierte Vorgehen ist viel kosteneffizienter als etwa eine großangelegte Vor-Ort-Installation im Unternehmen.

Sicherheitsbedenken als Top-Thema

Mit dem Einsatz von Cloud-Produkten geben Unternehmen allerdings auch den Betrieb ihrer Software und teilweise sogar ihre komplette IT-Infrastruktur in die Hände der Cloud-Anbieter – und damit auch kritische Themen wie Performance sowie Datensicherheit. Eine Studie zeigt in diesem Zusammenhang, dass besonders die Sicherheitsbedenken sowohl bei Cloud-Verweigerern (83,6 %) als auch bei Cloud-Befürwortern (68 %) gegen einen Einsatz sprechen. Erfolgreiche Cyberangriffe wie jüngst der Yahoo-Hack oder Datenzugriffsrechte im Sicherheitsfall von US-Behörden scheinen die skeptische Haltung deutscher Unternehmen zu bestätigen

Keine Garantie für Performance in der Cloud

Neben der Datensicherheit gibt auch die Performance Grund zur Sorge. Im Gegensatz zu operationalen Systemen, die Transaktionen nur nacheinander abwickeln, sind Data Warehouse- bzw. Big-Data-Anwendungen nach wie vor stark Input/Output-lastig. Beim Up- und Download in die Cloud kann es aber zu großen Performance-Schwankungen kommen. Eine Garantie für eine bestimmte Übertragungsgeschwindigkeit beim Verschieben von großen Datenmengen gibt es aber nicht. Zudem zählt Deutschland beim Thema Datengeschwindigkeit noch nicht zu den Spitzenreitern. Dies wird meist in der medialen Diskussion zu Cloud Services umgangen, da bisher niemand genau messen kann, wo der Geschwindigkeitsverlust entsteht.

Nutzen Sie Cloud Angebote? Eine Übersicht verschiedener Vor- und Nachteile dazu sehen Sie in der Infografik. Melden Sie sich über das Kontaktformular an und erhalten Sie den kostenfreien Download.

Kontaktformular zum Download der Infografik "Data Warehouse aus der Cloud?"

Wir empfehlen

Die führenden Lösungen und Technologien der IBM für Data Warehousing. Damit schaffen Sie ideale Voraussetzungen für die Integration Ihres Data Warehouses und den Big Data Technologien, damit Sie aus allen Daten wertvolle Erkenntnisse gewinnen können.


Data Warehouse vs Big Data: Alles eine Frage der Frage

Historische Daten notwendig für Vergleichs- und Lernprozesse

Relevante strukturierte und unstrukturierte Informationen in Echtzeit, kosteneffizient und flexibel über die Cloud erreichbar, jahrelang gespeichert, formatübergreifend und leicht verständlich – am besten in einer Lösung: Software-Entwickler, Big-Data-Experten, IT- und Fachabteilungen sind auf der Suche nach der „einen IT-Plattform“, die alle Systeme, Infrastrukturen, Tools und interne sowie externe Dateien miteinander vereint. Eine Utopie? Und wird dadurch das auf historische Daten spezialisierte Data Warehouse obsolet?

„Eine, alle Daten und Systeme umfassende Lösung halte ich für utopisch“, meint Ursula Flade-Ruf, Gründerin und Geschäftsführerin der mip GmbH. „Und Echtzeitlösungen ersetzen nicht das Data Warehouse, da sie völlig unterschiedliche Aufgaben erfüllen müssen.“ Dennoch schreitet die Integration von Data-Warehouse- und Big-Data-Technologien im Zuge von Digitalisierung und Internet of Things weiter voran. Dabei sind die Anforderungen an ein Data Warehouse (DWH) nahezu gleich geblieben: Es wird immer noch als zentraler Anlaufpunkt für alle Unternehmensinformationen und deren Aufbereitung genutzt.

„Geändert haben sich hingegen Verarbeitungsgeschwindigkeit und Datenvolumen, die beide stetig zunehmen“, so Flade-Ruf. „Heute arbeiten wir im Big-Data- und Data-Lake-Umfeld daran, wie sich qualitative Informationen an das Data Warehouse ankoppeln lassen.“ Markus Ruf, Daten-Experte bei mip: „Viele verstehen unter Data Lake unstrukturierte Daten, die erst einmal alle in einem Hadoop-Cluster für spätere Analysen abgelegt werden.“ Data Scientists sollen hieraus dann wertvolle Erkenntnisse gewinnen. „Das Data Warehouse bleibt aber immer noch für die Aufbereitung von Standard-Reportings und -Analysen notwendig – gerade auch in Hinblick auf Vergleiche mit Vergangenheitsdaten“, ergänzt Ruf.

Data Warehouse vs. Big Data oder es lebe das Data Warehouse

Big-Data- mit DWH-Vorhaben unterscheiden sich bereits in der Fragestellung. Flade-Ruf: „In Data-Warehouse-Projekten haben wir über Jahre mit unseren Kunden klären können, welche Kennzahlen und Resultate in die Auswertungen miteinfließen sollen. Bei Big-Data-Projekten ist jedoch noch nicht einmal das gewünschte Ergebnis bekannt.“ Dabei gelten vor allem unstrukturierte Daten als größte Herausforderung. „Wir beobachten gerade, dass Unternehmen zunächst mit neuen Technologien und Data Lakes experimentieren“, gibt Flade-Ruf zu bedenken. Doch umso unstrukturierter die Daten sind, desto schwerer ist es, vernünftige Fragen oder gar Ziele zu formulieren.

„Dafür benötigt es ein ausgewähltes Team von Spezialisten aus den Fachbereichen und Daten-Experten, die mit den neuen Technologien umgehen können“, erklärt Flade-Ruf. Denn ein Data Scientist kennt sich nicht unbedingt mit den unternehmensspezifischen Zielen und Prozessen aus. Erst gemeinsam wird eine zielgerichtete Annäherung an die enormen Informationsmengen möglich. „Um die Suche nach relevanten Fragen zu beschleunigen, können Advanced-Analytics-Lösungen oder beispielsweise Produkte wie der von IBM entwickelte, lernfähige Computer Watson unterstützen“, so Flade-Ruf.

Alt und neu – erst Vergleiche machen Daten wertvoll

Dabei spielen neue Quellen beim Thema Daten eine entscheidende Rolle. Flade-Ruf: „Hier existieren keine Standards. Wir arbeiten im Umfeld von Big Data und Data Warehouse darauf hin, die in diesen Quellen erzeugten, unstrukturierten Daten zu analysieren und darin Muster zu erkennen.“ Die Daten sollen dann in ein DWH überführt werden. Flade-Ruf: „Muster lassen sich aber nur unterscheiden und bewerten, wenn irgendwelche Vergleichsgrößen existieren – und die liegen in der Vergangenheit.“ Aus heutiger Sicht halten operative Systeme kaum historische Daten vor. Solche transaktionalen Systeme sind auf die Ausführung ausgerichtet. „Die Transaktion selbst ist flüchtig“, beschreibt Flade-Ruf. „Es ist nicht die Aufgabe von operativen Systemen, Daten über einen längeren Zeitraum zu speichern oder zu vergleichen.“ Diese Aufgabe fällt dem DWH zu.

Selbst wenn heute über KI-gesteuerte Systeme wie Watson oder Roboter nachgedacht wird, die kognitive Fähigkeiten entwickeln sollen, funktioniert Lernen nur über den Vergleich mit bestimmten Systematiken, Mustern oder Profilen, die aus gespeicherten Informationen abgeleitet wurden. „Erst so lassen sich neue kognitive Verknüpfungen herstellen“, erklärt Ruf. „Lernen benötigt also immer den Vergleich mit der Vergangenheit.“

Bedarf für Data Warehouse und historische Daten

Anwendungsgebiete für DWHs finden sich zahlreich. Beispielsweise benötigen Unternehmen aufgrund steuerrechtlicher Vorgaben immer eine langfristige Dokumentation von Daten. Unterschiedliche Anforderungen in den Industriezweigen schaffen weitere Einsatzszenarien. „In dynamischen Branchen wie dem Handel zum Beispiel verändert sich das Kaufverhalten der Verbraucher sehr schnell“, erklärt Flade-Ruf. „Predictive Analytics und Voraussagen benötigen aber stets den Vergleich mit vorliegenden Datenprofilen, um Muster oder neue Trends identifizieren zu können.“ In der Produktion existieren feststehende Kriterien für die Qualität von Produkten oder Prozessen. Diese basieren ebenfalls auf Vergangenheitsdaten. Ergebnisse aus Datenaufzeichnungen lassen sich nur validieren, indem die Qualität über eine gewisse Zeitspanne hinweg analysiert und gemessen wird.

Ein DWH bleibt also eine wesentliche Säule für den Unternehmenserfolg. Das bestätigt auch eine Umfrage unter Daten-Experten: 99 Prozent halten Data Warehousing für wichtig bis sehr wichtig für ihre Geschäftsprozesse. „Unsere Empfehlung an Unternehmen lautet deshalb, ein solides Data Warehouse aufzubauen, Daten zielgerichtet zu säubern und aufzubereiten, um so die Basis für neue Technologien und Tools zu schaffen“, fasst Flade-Ruf zusammen.

Mehr Informationen finden Sie auf unserer Webseite – Data Warehouse im Big-Data- und Data-Lake-Umfeld und unsere Infografik verrät Ihnen, welcher Datentyp sie sind.


Big Data! Big Umsatz?! – Vorausschauende Analysen im Handel

Vorausschauende Analysen im Handel steigern den Umsatz

Das Weihnachtsgeschäft war kaum vorbei, da standen schon die ersten Osterhasen in den Regalen. Auch die österlichen Umsätze hängen unter anderem vom Wetter ab. Predictive-Analytics-Verfahren ermöglichen es dem Einzelhandel, saisonale Abverkäufe effizienter zu steuern.
Weitere Einsatzmöglichkeiten für vorausschauende Analysen im Handel erläutern dieser Kurzbeitrag und die dazugehörige Infografik.

In Zeiten von Big Data können Händler unterschiedlichste Daten für Predictive-Analytics-Projekte auswerten: Kundendaten, Social-Media-Trends, geo- sowie demographische Informationen, Bewegungsmuster in Ladengeschäften oder auch Wetterdaten. Gerade das Wetter machte jedoch im Winter 2015 den Bekleidungsläden einen Strich durch das Weihnachtsgeschäft. Schließlich fanden dicke Jacken und Wintermäntel kaum Abnehmer im wärmsten Dezember seit Aufzeichnungsbeginn. Mancher Händler veranstaltete einen vorgezogenen Winterschlussverkauf, um doch noch Kunden für die Winterware zu begeistern. Gerade ist das nächste große Saisongeschäft in vollem Gange und die Läden stehen voller Osterhasen, Schokoladeneiern und Frühlingsdeko. Auch hier lohnt es sich, das Wetter im Blick zu behalten. Denn bei warmen Temperaturen und Sonnenschein werden eher Frühlingsmode und Sportartikel verschenkt, bei Kälte und Regen profitieren die Schokoladenhersteller. Mit vorrausschauenden Lösungen unter Berücksichtigung von Wetterprognosen könnte der Handel auch hier früher eingreifen und übervolle Lager vermeiden.

„Saisonale Abverkäufe lassen sich mithilfe von Predictive Analytics und Big Data noch effektiver steuern“, weiß Jörg Kremer von der mip GmbH in München. Ein Forbes-Bericht gibt ihm Recht. Demzufolge konnte Stage Stores, ein US-Händler von Markenbekleidung, Accessoires und Kosmetika, mit einer graduellen Preisreduktion auf Basis von vorausschauenden Analysen in 90 Prozent der Fälle höhere Umsätze erzielen als beim traditionellen Schlussverkauf. Der Einzelhändler hatte angefangen, die Preise zu senken, sobald das Interesse an gewissen Waren nachließ, und nicht auf ein bestimmtes Datum gewartet.

Doch nicht nur beim Schlussverkauf lassen sich mit Predictive Analytics im Einzelhandel Erfolge erzielen. „Warenkorbanalysen ermöglichen es zum Beispiel, Kunden passgenaue Produktvorschläge zu machen und so den Umsatz zu steigern“, erklärt Kremer. Dadurch werden auch Kommunikationsmaßnahmen und Marketingaktionen effektiver. Die Kundenbindung können Händler ebenfalls stärken, indem sie beispielsweise analysieren, welche Muster sich bei abgewanderten Kunden wiederholen. Kremer: „In der Regel liegt ja eine Vielzahl an Daten bereits strukturiert vor. Werden entsprechende Modelle kreiert und auf die Käuferbasis angewandt, lässt sich nachvollziehen, wer Gefahr läuft, ein Ex-Kunde zu werden. Hier kann ich dann zielgerichtet ansetzen – und diese Person mit speziell auf sie zugeschnittenen Angeboten zu halten versuchen.“

Fachkenntnis entscheidend für Erfolg von vorausschauenden Analysen im Handel

Doch der Analyse-Experte mahnt, dass ohne fachliche Expertise das beste Tool nichts nützt: „Ohne echte Kenntnis des Business werden leicht sinnleere Modelle geschaffen. Wendet man diese auf die Datenbasis an, bekommt man natürlich keine zweckmäßigen Ergebnisse, sondern leitet vielmehr falsche Schlussfolgerungen ab. Da hilft dann auch die am einfachsten zu bedienende Software nichts.“ Neben den notwendigen Fachkenntnissen ist zudem eine solide Datenqualität unabdingbar für den Erfolg von Analytics-Maßnahmen. Wird die Analyse-Software mit schlechten Daten gefüttert, wirft diese genau solche auch als Ergebnis aus.

Häufig werden Predictive-Analytics-Projekte im Handel begleitet von Veränderungsprozessen, welche die Organisation betreffen. So kann es zum Beispiel nötig sein, den Außendienst komplett neu zu strukturieren, um die ermittelten Optimierungspotenziale überhaupt ausschöpfen zu können. Kremer: „Hierbei ist auch ein gutes Change Management essenziell. Nur wenn ich Veränderungsprozesse gut begleite, erkläre und lebe, werde ich am Ende auch ein gutes, nachhaltiges Ergebnis erzielen.“

Weitere Informationen finden Sie auf unserer Webseite zu Predictive Analytics im Handel


Predictive Analytics für effizientere Wartung und mehr Servicequalität in der Fertigung

Eine optimierte Produktionsorganisation, längere Betriebszeiten von Maschinen und die Reduktion von ungeplanten Ausfallzeiten: Dies sind aktuelle Herausforderungen für Unternehmen aus der Fertigungsindustrie, die den Einsatz von Predictive Analytics beziehungsweise Predictive-Maintenance-Systemen vorantreiben. „Dabei dienen Fertigungsdaten, zumeist Sensordaten von Maschinen, als Auswertungsbasis. Diese werden dann mit anderen Informationen, wie etwa Logistik- oder Wetterdaten etc., angereichert “, erklärt Jörg Kremer, Analytics-Experte bei der Münchner mip GmbH. „Damit soll die Produktionsqualität insgesamt verbessert werden.“

Im Zuge von Digitalisierung, Internet of Things und Industrie 4.0 umgesetzte Maßnahmen zeigen bereits, dass sich durch vernetzte Sensoren sowie Anlagen, die mit eingebetteten Systemen ausgestattet sind, deutliche Kostenersparnisse erzielen lassen. Das US-Department of Energy (DOE) geht davon aus, dass mit der vorausschauenden Wartung Einsparungen von acht bis zwölf Prozent erzielt werden können. Zudem lassen sich laut DOE mit Predictive Maintenance die Wartungskosten um bis zu 30 Prozent reduzieren sowie bis zu drei Viertel der Betriebsausfälle verhindern. Auch die Produktion kann sich damit um bis zu 25 Prozent erhöhen. Der Verband Deutscher Maschinen- und Anlagenbau (VDMA) misst Predictive Maintenance ebenfalls eine große Bedeutung bei und bezeichnet die vorausschauende Wartung als wichtigen Bestandteil von Industrie 4.0.

Optimale Qualitätssicherung, passende Serviceverträge, geringere Lagerkosten

Mithilfe der Analyse-Plattformen werden Informationen zu kritischen Verschleißteilen über Messinstrumente in Echtzeit aufgezeichnet und zentral ausgewertet. So lassen sich Wartungs- oder Servicepläne genau anpassen und beispielsweise. unnötige, kostenintensive Einsätze von Technikpersonal verhindern. Für Reparatur und Wartung benötigte Bauteile müssen nicht länger kostenintensiv für den Notfall gelagert werden. Auch für Anbieter von Wartungs- und Servicedienstleistungen sind derartige Lösungen interessant: „Predictive Analytics hilft zum Beispiel bei der Entscheidung über die Laufzeit und Konditionen bei der Verlängerung von Serviceverträgen“, so Kremer. „Hier sind anhand des Anlagen- beziehungsweise Maschinenzustands präzise Prognosen zu Risiken, Ausfällen und Wartungsbedarf möglich.“ Zusätzlich lassen sich heute Wetterdaten und sonstige Umwelteinflüsse in das Serviceangebot integrieren. Kremer: „Solche Analysen bilden dann die Basis für die Entscheidung, ob der Vertrag zu den bisherigen Konditionen weiterlaufen kann oder geändert werden muss.“
Zudem muss sich zum Beispiel der Maschinenbau gerade beim Thema Service allmählich nach Alternativen umsehen, so eine Studie: Die bisher im Schnitt 42 Prozent Umsatz mit Ersatzteilen und Wartungsarbeiten werden aufgrund der wachsenden Standardisierung der Anlagen und Teile zurückgehen. Experten sehen hier in der Kombination von Fernwartung und der intelligenten Analyse sowie Verwertung von Maschinendaten eine Chance für den Maschinenbau, um in diesem Bereich verstärkt Produkte und Dienstleistungen anzubieten. Kremer sieht noch eine weitere Entwicklung: „Bisher werden mit Predictive Maintenance besonders Ausfallzeiten verringert beziehungsweise vermieden und Kosten der Qualitätssicherung reduziert. Künftig wird es zunehmend zu automatisierten Abläufen kommen, sodass spürbar Personalkosten eingespart werden können.“

Mehr Informationen zu Predictive Analytics in der Fertigung

Quellen:

US-Department of Energy: „ O&M Best Practices Guide, Release 3.0”, https://www1.eere.energy.gov/femp/pdfs/OM_5.pdf
VDMA: „Predictive Maintenance 4.0 kommt an”. 24.02.2016, http://fluid.vdma.org/article/-/articleview/12223984

Roland Berger Strategy Consultants: „Evolution of Service“, http://www.rolandberger.de/media/pdf/Roland_Berger_taC_Evolution_of_Service_20140107.pdf


Mit Predictive Maintenance Geld sparen

Fertigende Unternehmen verschwenden Geld für Wartungsarbeiten

Fast die Hälfte der Maintenance-Leistungen werden präventiv, also turnusmäßig und nach einem fixen Zeitplan erbracht (45 Prozent). Daten, die einen Rückschluss auf einen tatsächlichen Wartungsbedarf erkennen ließen, finden dabei keine Berücksichtigung. Doch Wartungsmanager schätzen, dass ein Drittel der Ausgaben für diese Art der vorsorglichen Wartungen und Instandhaltungen verschwendet sind. Zu diesem Ergebnis kommt eine Studie von Roland Berger. Lediglich 15 Prozent der fertigenden Unternehmen setzen demnach auf Predictive Maintenance – die bedarfsgerechte Wartung und Instandhaltung von Maschinen und Anlagen, die auf Basis statistisch ausgewerteter Sensordaten etc. stattfindet.

Damit lassen sich nicht nur Wartungsarbeiten effizienter planen, sondern auch Qualität und Produktivität erhöhen. Erfahren Sie mehr unter


Visionäre machen Wirtschaft!

Unter dem Motto "Visionäre machen Wirtschaft!" fand am 19.11.2015 der 2. Zukunftskongress der Familien-Unternehmer in München statt

Der zweite Zukunftskongress der Familienunternehmer widmete sich zukunftsweisenden Technologien und Produkten. Der Gesundheitsmarkt von morgen, die Mobilität der Zukunft und sowie Industrie 4.0 waren die Schwerpunkte.

Ganz futuristisch!


Predictive Maintenance reduziert Reparaturen

5 Prozent weniger Garantiefälle, 50 Prozent weniger wiederholte Reparaturen und 30 Millionen Euro jährliche Einsparungen – diese Ergebnisse erzielte ein europäischer Hersteller von Premiumfahrzeugen mithilfe einer Predictive-Mainenance-Lösung.

Damit konnte der OEM bestehende Daten analysieren und so Muster aufdecken, die im Zusammenhang mit unterschiedlichen Gewährleistungsfällen standen. Auf Basis dieser Erkenntnisse ließen sich sowohl der Produktdesign-Prozess als auch der Service optimieren.

Welche Gründe noch für den Einsatz von Predictive Maintenance sprechen, erfahren Sie unter hier.


Big Data Auswertung oder Bauchgefühl?

Hören Sie auch auf Ihren Bauch, wenn es um Business-Entscheidungen geht?

Damit wären Sie nicht allein. Einer aktuellen BARC-Studie zufolge ließen 57 Prozent der Befragten ihr Bauchgefühl in ihre Entscheidungen einfließen. Dabei könnten mit rechtzeitig gelieferten Daten im Durchschnitt über 50.000 EUR eingespart werden, meinen die Umfrageteilnehmer.
Um möglichst viel aus Unternehmensdaten zu machen, sind weder Hadoop noch Data Scientists zwingend notwendig. Oftmals können schon mit bereits vorhandenen Systemen echte Mehrwerte generiert werden.
Haben wir Ihr Interesse geweckt?
Erfahren Sie mehr über Big-Data-Auswertung und 360-Grad-Analyse.


Von 180-Grad auf 360-Grad

Nutzen Sie Ihre Daten richtig?

Der Mensch ist ein Sammler und in unserer heutigen Zeit sind es Daten, die gesammelt werden. Unternehmen wollen diese stärker nutzen und besser verarbeiten. Vor allem die 360-Grad-Kundenanalyse steht bei vielen Unternehmen im Fokus.

Jedoch werden viele Firmen beim Thema Datenauswertung mit großen Herausforderungen konfrontiert. Ihnen fehlen die nötigen Tools, die Expertise sowie die Erfahrungen im Umgang mit der Analyse der Informationen. Dabei liegen in vielen Unternehmen bereits heute Datenschätze, die nur noch gehoben werden müssten. Externe Big-Data-Experten können hier schnell helfen, diese erfolgreich auszuwerten und einzusetzen.

Kennen Sie das Potenzial Ihrer Daten?
Erfahren Sie mehr über Big-Data-Auswertung und 360-Grad-Analyse.


Vorteile durch Enterprise Search

Wie teuer darf Wissen sein?

Wie viel ist Ihnen die Suche nach Informationen wert? Circa 3.700 Euro pro Mitarbeiter und Jahr investieren deutsche Industrieunternehmen in die Suche nach Informationen. Laut einer Studie suchen 82 Prozent der befragten Arbeitnehmer täglich bis zu 30 Minuten nach Informationen, manche sogar bis zu drei Stunden. Bei 204 Personentagen im Jahr und einem durchschnittlichen Stundenlohn von 36,20 Euro im verarbeitenden Gewerbe kommt so einiges zusammen.

Mithilfe von Enterprise-Search-Systemen können Unternehmen Zeit- sowie Arbeitsaufwände und damit Kosten einsparen. Die Lösungen gewähren einen einheitlichen Blick auf unterschiedliche Informations- und Datenquellen sowie Datenformate. Der Clou: Moderne, kognitive Systeme lernen durch jede Interaktion dazu und optimieren so interne Suchanfragen.

Mehr Informationen zum Thema Enterprise Search finden Sie hier.


Interne Suchmaschinen führen zu mehr Profitabilität

Interne Suchmaschinen liegen im Trend

Laut einer IDC-Studie bestehen digital vorliegende Informationen zu 90 Prozent aus unstrukturierten Daten. Mitarbeiter durchforsten häufig vier oder mehr Systeme auf der Suche nach relevanten Informationen – in fast 50 Prozent der Fälle ohne Erfolg.

Dabei, folgert die Studie, können Unternehmen, die ihre Daten voll ausschöpfen, profitabler, flexibler und kostengünstiger arbeiten. Enterprise-Search-Systeme helfen, das volle Potenzial der intern vorliegenden Informationen zu erschließen, indem sie sowohl strukturierte als auch unstrukturierte Daten durchsuchen. Zudem stellen sie Mitarbeitern diejenigen Informationen bereit, die für sie jeweils relevant sind.

Für weitere Informationen zu Enterprise Search, kontaktieren Sie uns.


Big Data Skill Transfer: Unterstützung im Big-Data-Dschungel

Big Data Skill ist rar!

Wussten Sie schon, 65 Prozent der Unternehmen mangelt es in Deutschland an Big-Data-Skill. Woher dann das Fachpersonal nehmen? Holen Sie sich Experten und damit das fehlende Know-how ins Haus.
Wie dieser Skilltransfer funktioniert, lesen Sie hier.

Interessiert? Dann nutzen Sie unseren Callback Service zur Verbarung eines persönlichen Gesprächs mit einem unserer Kundenberater.


Schnelle Datenservices für anspruchsvolle Anwendungen

Schnelle Datenservices sind gefragt!

Aufgrund der stetig steigenden Datenmengen waren die Anforderungen an Datensysteme noch nie so hoch wie heute.

Mit der PureData System for Analytics Mini Appliance erhalten mittelständische Unternehmen umfassende Analysefunktionen, ohne dafür ihr Budget stark belasten zu müssen. Die Funktionen werden alle in einem einzigen, verwaltungsfreundlichen System bereitgestellt. Da es sich um eine Appliance handelt, können Daten innerhalb weniger Stunden darauf abgelegt werden und die Installation ist ganz leicht. Das IBM PureData System wurde speziell zur einfachen, schnellen und kostengünstigen Bereitstellung von Datenservices für die anspruchsvollen Anwendungen von heute optimiert.

Möchten Sie mehr darüber erfahren, welche Vorteile Ihnen diese Mini Appliance  bietet? Sehen Sie sich dieses 2-minütige IBM Video an.

Interessiert? Dann nutzen Sie unseren Callback Service zur Verbarung eines persönlichen Gesprächs mit einem unserer Kundenberater.


Data Warehouse: Stehen Sie noch hinten an?

Vermeiden Sie den Datenstau!

Sie haben sich im Supermarkt mal wieder an die falsche Kasse angestellt? Ihr Vordermann hat vergessen sein Gemüse zu wiegen und Sie mussten länger warten.

So ähnlich verhält es sich mit einem alten Data Warehouse: die heutigen Anforderungen steigen. Komplexe Analysen, Berichte und Auswertungen sollen schnell verarbeitet werden und verfügbar sein. Die Bereitstellung der Daten wird jedoch oftmals durch gleichzeitige Abfragen blockiert – es kommt zum Datenstau. Die Performance des Data Warehouses lässt nach. Wie Sie Ihr Data Warehouse wieder auf Höchstleistung bringen, erfahren Sie hier.


DWH-Performance Optimierung als Erfolgsfaktor

Stau im Data Warehouse

Stellen Sie sich vor, Sie sind unterwegs auf der zweispurigen A6 bei Nürnberg – in der Rushhour. Zu viele Autos für zu wenige Spuren. Dann lieber nachts auf einer sechsspurig ausgebauten Autobahn. Logisch, je mehr Spuren, desto flüssiger läuft der Verkehr.

Mit einem alten Data Warehouse verhält es sich ganz ähnlich: die Strukturen funktionieren häufig nicht optimal. Mit den heutigen Anforderungen – deutlich mehr Daten sollen immer schneller für immer mehr Anwender verarbeitet werden – muss auch die Performance eines Data Warehouse mithalten. Wie, erfahren Sie hier.