Lenovo bringt das PHAB2 Pro – das erste Smartphone der Welt mit Tango

Lenovo hat das PHAB2 Pro vorgestellt – das erste Smartphone der Welt, das Tango unterstützt und damit eine künstlich erweiterte Realität sichtbar macht – zusammen mit den Smartphones PHAB2 Plus, das eine duale Kamera mitbringt, und dem PHAB2.

Das PHAB2 Pro ist das weltweit erste Smartphone, das die Tango-Technologie unterstützt. Tango besteht aus einer Reihe von Sensoren und Software von Google, die in der Lage sind, ihre Umgebung abzutasten und abzubilden. Das PHAB2 Pro bietet so innovative AR-Erlebnisse. Beispielsweise können Schüler mit Hilfe einer AR-App maßstabsgetreue Dinosaurier durch ihr Klassenzimmer spazieren lassen und somit das Lernerlebnis mit Unterstützung von AR-Dateneinblendungen erweitern, die auf dem Smartphone sichtbar sind, wenn sie um die Kreaturen herumgehen und sie erkunden. AR-Gaming macht es möglich, dass Nutzer virtuell Domino auf ihrem Küchentisch spielen, ein digitales Haustier in ihrem Schlafzimmer aufziehen und Schwärme von Aliens bekämpfen können, die versuchen in das Haus einzudringen. Mit der Tango-Technologie verändert das PHAB2 Pro auch die bisherige Herangehensweise an das Kartographieren von geschlossenen Räumen. In Zukunft können zum Beispiel Augmented-Reality-Museumstouren mit Hilfe der GuidiGO-App erfolgen. „Lenovo bringt das PHAB2 Pro – das erste Smartphone der Welt mit Tango“ weiterlesen

Gezielter zum Kunden: Forscher optimieren Lieferketten auch bei Engpässen

Der Kunde bestellt, der Produzent liefert – was einfach klingt, ist in der Realität bei großen Firmen meist eine lange Lieferkette. Kunden werden für die Planung in Gruppen zusammengefasst, etwa nach Regionen, Ländern, Kontinenten. Bei Lieferengpässen schafft das ein Problem: Die Information welche Kunden bevorzugt beliefert werden sollten, geht über die Planungsebenen verloren. Prof. Dr. Herbert Meyr von der Universität Hohenheim möchte hier Abhilfe schaffen: Sein neues Planungsmodell berücksichtigt auf jeder Ebene die Wichtigkeit des einzelnen Kunden für den Produzenten – so dass dieser die jeweiligen Liefermengen optimieren kann. Die Deutsche Forschungsgemeinschaft (DFG) fördert das Projekt mit 184.600 Euro und macht es zu einem Schwergewicht der Forschung an der Universität Hohenheim.

Hersteller von Sachgütern würden all ihre Kunden am liebsten sofort und nach Wunsch beliefern. Doch das geht nicht immer: Manchmal ist die Nachfrage höher als erwartet, oder es kommt aus anderen Gründen zu Lieferengpässen. Dann müssen sie entscheiden, welche Kunden bevorzugt ihre Waren erhalten sollen. „Gezielter zum Kunden: Forscher optimieren Lieferketten auch bei Engpässen“ weiterlesen

Verankerung im Fachbereich erhöht Profitabilität von Big-Data-Vorhaben

Weltweite Studie von Capgemini und Informatica untersucht Erfolgsfaktoren von rentablen Big-Data-Projekten

Eine klar strukturierte Governance, die disziplinierte Implementierung und die Unterstützung durch das Top-Management sind die entscheidenden Faktoren für eine erfolgreiche Operationalisierung von Big-Data-Vorhaben – so die zentralen Ergebnisse der Studie „The Big Data Payoff: Turning Big Data into Business Value“ von Informatica und Capgemini. Die Befragung von mehr als 200 Führungskräften aus IT- und Datenmanagement in Europa und den USA zeigt, dass aktuell weniger als ein Drittel (27 Prozent) der Big-Data-Projekte rentabel ist. Ein Schlüsselfaktor für die Profitabilität von Big Data ist die Verankerung im Business. Es ist mehr als doppelt so wahrscheinlich, dass ein Big-Data-Projekt gewinnbringend ist, wenn ein Chief Operating Officer (COO) oder Chief Data Officer (CDO) anstelle des CIOs die Leitung übernimmt. Während aktuell mehr als die Hälfte der Befragten (52 Prozent) angibt, dass die Big-Data-Strategie in den Händen der CIOs liegt, verschieben sich die Zuständigkeiten hin zum operativen Geschäft: So übernehmen COO (20 Prozent), Chief Technology Officer (16 Prozent) und Chief Marketing Officer (16 Prozent) mehr und mehr die Verantwortung.

Datenqualität und Governance sind Dreh- und Angelpunkt

Die Studie belegt den immer stärkeren Einfluss von Stakeholdern aus dem operativen Geschäft auf Big-Data-Vorhaben, wobei allen voran die COOs gut laufende Projekte verantworten. Auch tendieren Unternehmen mit gewinnbringenden Big-Data-Initiativen dazu, effektiver beim Management der Datenqualität und der Data Governance sowie beim Anwenden unternehmensweiter Standards zu sein. Drei Viertel (75 Prozent) der Befragten, die profitable Projekte vorweisen können, geben an, dass sie sich in den Themenfeldern Datenqualität und Governance exzellent oder sehr gut weiterentwickelt haben. Unter allen Studienteilnehmern sagen dies nur 50 Prozent. „In der Praxis kommt es darauf an, die beiden Gegenspieler Governance und Agilität auszubalancieren. Eine rigide Governance bremst aus. Althergebrachte Governance-Ansätze aus der BI funktionieren in der heutigen Datenwelt nicht mehr. Für diese Gratwanderung sollten Unternehmen Eigentümer für alle internen und externen Data Assets festlegen und einfache Regeln und Prozesse zur Freigabe von Daten durch die Eigentümer an die Anforderer definieren“, so Rüdiger Eberlein, Chefarchitekt und Berater der Global Practice Insights & Data bei Capgemini in Deutschland. Auch verweisen 75 Prozent der Top-Performer hinsichtlich Profitabilität auf ihre Erfolge bei der Standardisierung und Verbesserung der Konsistenz der Daten in der eigenen Organisation, während der Wert bei der Gesamtheit der Befragten bei 47 Prozent liegt. „Verankerung im Fachbereich erhöht Profitabilität von Big-Data-Vorhaben“ weiterlesen

Die mobile Version verlassen