HPI: Neue Verfahren zur Aufdeckung von Wirtschaftsbetrug vorgestellt

Die zunehmende Komplexität von IT-Systemen macht zwar Unternehmen weltweit anfälliger für Wirtschaftsbetrug, doch Informatikwissenschaftler wollen den Tätern mit neusten Methoden immer schneller auf die Spur kommen. Das zeigte sich bei einer Tagung von Nutzern des Spitzenforschungslabors am Hasso-Plattner-Institut (HPI) in Potsdam. In seinem „HPI Future SOC Lab“ führt das Institut eigene Big Data-Untersuchungen durch und stellt die Plattform kostenfrei auch Wissenschaftlern aus Universitäten und Unternehmen in aller Welt bereit. Ausgestattet ist das Potsdamer Labor mit modernsten Hochleistungssystemen mit sehr vielen Rechenkernen, hoher Arbeitsspeicherkapazität und großem Festplattenspeicher-Volumen. Bislang konnten bereits weit mehr als 200 Projekte von Wissenschaftlern aus zwölf Ländern erfolgreich durchgeführt werden.

Eine aktuelle Untersuchung mit Hilfe des HPI Future SOC Labs stellte Wirtschaftsinformatikerin Galina Baader von der TU München auf der Potsdamer Tagung vor. Sie berichtete, dass in Europa etwa 73 Prozent aller Unternehmen Opfer von Betrug würden. „Kein Geschäftsbereich ist davon ausgenommen“, sagte Baader. Dennoch gebe es bislang kaum effiziente Verfahren, um den Betrügern auf die Spur zu kommen. Üblich sei es beispielsweise, mithilfe des „Data Mining“ einmal im Jahr gezielt nach Auffälligkeiten bei Geschäftsprozessen zu suchen. Das Problem hierbei sei allerdings, dass die Kapazitäten fehlen, um jeder einzelnen Abweichung nachzugehen – die Menge an Daten sei schier zu groß. Laut Baader ist die bislang effektivste Methode das Whistleblowing, wenn also Mitarbeiter bei einer speziellen Unternehmens-Hotline anrufen, um Kollegen zu melden.



Die Big Data-Forscherin und ihr Team versuchen hingegen, bereits Versuche eines Betrugs in Echtzeit zu erkennen. Fokussiert haben sich die Informatiker dabei auf Einkaufs- und Bezahlungsprozesse. In mehreren Hacking-Wettbewerben ließen sie Studenten in Teams gegeneinander angetreten, um unter Einsatz des so genannten „Process Mining“ in einer geschützten Test-Umgebung einerseits Betrugsversuche zu starten und gleichzeitig Betrügereien des gegnerischen Teams aufzudecken. Beim Process Mining werden elektronische Daten, die beim Ablauf von Geschäftsprozessen anfallen, analysiert. Das Potenzial für die Wirtschaft ist groß: Weit mehr als die Hälfte der Betrugsversuche konnten auf diese Weise ermittelt werden. Da solche Aufgaben viel Rechenleistung erfordern, griff die TU München auf die besonders leistungsfähige Infrastruktur des „Future SOC Lab“ am Hasso-Plattner-Institut zurück. Das Labor erleichtert vor allem Forschung im Bereich der In-Memory-Technologien und des Cloud Computing. Zwei Mal jährlich treffen sich am HPI Nutzer aus Wissenschaft und Wirtschaft, um Projekte zu besprechen, die in den vergangenen sechs Monaten im HPI-Spitzenforschungslabor durchgeführt wurden.

Bei der elften Veranstaltung dieser Art zeichneten sich außerdem neue Entwicklungen im Bereich der personalisierten Medizin ab. So arbeitet etwa das HPI-Forscherteam um Dr. Matthieu-P. Schapranow unter anderem am Aufbau einer verteilten Hauptspeicher-basierten Wissensdatenbank, um Daten aus unterschiedlichen Quellen medizinischen Experten schneller zugänglich zu machen. Das Besondere an der Online-Plattform „AnalyzeGenomes.com“ ist: Vertrauliche Daten verlassen nie die beteiligten Forschungseinrichtungen. „So ist einerseits der Schutz personenbezogener Daten gewährleistet und andererseits können beispielsweise Krankenhäuser und Forschungsinstitute ihre bestehenden Systeme mit unserer Unterstützung viel effizienter nutzen“, erläuterte Schapranow. Zukünftig soll so die internationale Zusammenarbeit im medizinischen Bereich dadurch deutlich beschleunigt werden.

Wissenschaftler der Hochschule Mainz arbeiten unterdessen an einem System, das Asthma-Patienten durch die Kombination von Umweltdaten und individuellen Gesundheitsmerkmalen Orientierungshilfen bietet, um Atemprobleme zu vermeiden. Die Idee ist, dass jeder Patient mit einer mobilen Sensor-Box ausgestattet wird, die beispielsweise Informationen über Luftverschmutzung sammelt. Die Signale werden dann von einer Software verarbeitet, die sie mit dem persönlichen Asthma-Tagebuch sowie weiteren Datenquellen abgleicht. So lassen sich sequentielle Muster verschiedener Faktoren ausfindig machen, die den Gesundheitszustand des Patienten beeinflussen.

Am Rande der Tagung beriet die Steuerungsgruppe des HPI-Spitzenforschungslabors für die kommende Forschungsperiode über 38 Projektanträge, die aus Ländern wie den USA, China und Schweden eingereicht wurden. Eines dieser Projekte wird sich mit der Entwicklung von Komponenten eines Erdsystemmodells beschäftigen – eine Aufgabe, die vor allem im Kontext des Klimawandels immer relevanter wird. Der Umweltforscher Dr. Dominikus Heinzeller vom Karlsruher Institut für Technologie (KIT) erläuterte die derzeitigen Hindernisse für exakte Vorhersagen von Wetter und Klima so: „Eines der großen Probleme ist, regionale und globale Modelle miteinander abzugleichen, die mit unterschiedlichen Detailgraden arbeiten. Dabei ist es zum Beispiel wichtig, berechnen zu können, welchen Einfluss etwa der asiatische Monsun und der indische Ozean auf den afrikanischen Monsun und darüber hinaus auf den Atlantik und die Entstehung von Hurrikans in Nordamerika haben.“ Um solche Zusammenhänge zu erkennen, wird ein fließender Übergang zwischen Mikro- und Makrosicht nötig, der wiederum viel Rechenleistung erfordert. Am HPI-Spitzenforschungslabor wird dem Wissenschaftler in den kommenden sechs Monaten kostenfrei ein Teil der leistungsstarken Hardware zur Verfügung gestellt. Die Ergebnisse werden im April 2016 am HPI präsentiert.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.