AV am PoS/PoI: AR für Retail 4.0

Digitalisierung in der Modebranche

Die TH Köln entwickelt mit Partnern eine Virtual- und Augmented Reality-Anwendung für den Groß- und Einzelhandel in der Modebranche. PROFESSIONAL SYSTEM Autor Dominik Roenneke hat Prof. Dr. Ing. Arnulph Fuhrmann, Leiter des Forschungsprojektes, dazu interviewt.

(Bild: Kristoffer Waldow/TH Köln)

Inhalt dieser Case Study:

Anzeige


Kleidung und Textilien stellen mediale 3D-Anwendungen vor große Herausforderungen. Die Visualisierung von Materialien mit Faltenwurf ist rechenintensiv und komplex. Angesichts vielversprechender Einsatzmöglichkeiten in der Branche wird an digitalen Darstellungsformaten geforscht und entwickelt. So stellte die TH Köln kürzlich erste Ergebnisse mit einer neuen Präsentationstechnik für den Groß- und Einzelhandel der Modebranche vor. Gemeinsam mit vier Partnern im Forschungsprojekt wird eine Anwendung erstellt im Rahmen einer dreijährigen Förderung durch das Bundesministerium für Bildung und Forschung, kurz BMBF. Die Vorstellung von Modekollektionen und die Ankleide im Einzelhandel sollen digital unterstützt werden.

Virtueller Showroom

Für den Einzelhandel bedeutet das im B2B für den Einkauf eine ortsungebundene Produktauswahl in einem virtuellen Raum zusammen mit Produzenten und Modeschöpfern. Im sogenannten virtuellen Showroom sind die Teilnehmer mit VR-Brillen vertreten. Hier wird präsentiert, begutachtet, verglichen und ausgewählt, was die Anbieter digital vorbereitet haben. Das kann Anreiseaufwand und Zeit sparen. Auf der anderen Seite im B2C können Einzelhändler den Endkunden mit diesem System ein neuartiges, medial unterstütztes Kauferlebnis im Geschäft bieten.

Mittels AR-Brille kann der Kunde Kleidungsstücke begutachten und Outfits beliebig kombinieren. Das hat zwei Vorteile: der Kunde kann Ware ohne reale Anprobe auswählen, während der Einzelhändler teuren Lagerplatz reduzieren kann. Ausgefallene Kleidungsstücke können ausgewählt und bestellt werden ohne Auslagefläche in Anspruch zu nehmen. Letztendlich muss sich der Kunde dabei noch nicht einmal im Geschäft bewegen, eine Geste vor der AR-Brille reicht für den sekundenschnellen Kleiderwechsel. Die Voraussetzung dafür sind realistische 3D-Renderings der Kleidung auf individuell ausgestalteten und imaginären Schaufensterpuppen. Und genau das erforscht und entwickelt das wissenschaftliche Team mit Olaf Clausen, Martin Misiak, Ursula Derichs und Kristoffer Waldow unter der Leitung von Prof. Dr. Ing. Arnulph Fuhrmann, der im Interview über das Forschungsprojekt berichtet.

(Bild: Kristoffer Waldow/TH Köln)

Interview

Wie ist die Idee zu dieser Forschungsarbeit entstanden?

Die Partner kennen sich schon seit vielen Jahren und haben in unterschiedlichen Kombinationen bereits Forschungsprojekte durchgeführt. Im Kontext der Ausschreibung für “Technikbasierte Dienstleistungssysteme” im Rahmen des Forschungsprogramms “Innovationen für die Produktion, Dienstleistung und Arbeit von morgen”, des Bundesministeriums für Bildung und Forschung, haben wir dieses Forschungsprojekt gestartet. Das war genau das Thema, das wir schon immer machen wollten.

Fünf Partner haben sich für dieses Projekt zusammen getan. Was sind die Aufgaben Ihrer Partner?

Die Assyst GmbH ist der Konsortialführer und wird das fertige Produkt künftig vermarkten. Assyst ist Entwickler der Virtual Prototyping-Software, die eine automatisierte Simulation der Kleidungsstücke ermöglicht. Assyst ist zuständig für die Verteilung und weltweite Bereitstellung der Daten im „Cloud-Connector“ für den Zugriff aller Beteiligten, vom Kleidungshersteller bis zum Endkunden im Einzelhandel via AR-Brille. Die Deutschen Institute für Textil- und Faserforschung (DITF) bringen beste Kenntnisse und Erfahrungen mit allen Prozessen bei Herstellern und Händlern mit. Das DITF soll die erfolgreiche digitale Transformation des Forschungsprozesses begleiten und kontrollieren. Die Avalution GmbH bringt große Erfahrung im Bereich Avatare ein. Das ist wichtig für die zu erstellenden „Morphotypen“, unsere Formtypen für die Zuordnung der Bekleidungsgrößen und der Darstellung. Hier brauchen wir virtuelle Formkörper, die wirklich maßhaltig sind. Die Daten von Avalution basieren unter anderem auf 14.000 Reihen-Scans von realen Personen. Aus diesen Daten werden die Durchschnittskörper für unsere Morphotypen berechnet. Der vierte Partner ist der Bekleidungshersteller Brax Leineweber mit eigenen Stores für Testläufe mit Endkunden vor Ort im Laden. Brax Leineweber hat bereits viel Erfahrung in der Digitalisierung auf Basis virtueller Prototypen. Die Digitalisierungsentwicklung ist in der Bekleidungsindustrie noch sehr jung mit fünf bis zehn Jahren.

Worin liegt die Aufgabe Ihres Instituts im Forschungsprojekt?

Wir bringen alle Anforderungen für die Anwendung zusammen. Wir entwickeln die immersive VR- und AR-Demonstrator-Software, in der Kleidung in hoher Qualität und farbecht effizient gerendert werden kann. Außerdem realisieren wir die Kollaborationsfähigkeit der Anwendung. Es soll die Möglichkeit der Zusammenarbeit von Arbeitsteams innerhalb des virtuellen Raums entstehen.

Was fördert das Bundesministerium für Bildung und Forschung konkret in Ihrem Projekt?

Im Mittelpunkt steht die Personalförderung an der TH für die wissenschaftlichen Mitarbeiter des Projektes, die gleichzeitig auch ihre Promotion anstreben. Bei unseren Industriepartnern ist das eine Teilförderung von ausgewählten Mitarbeitern aus Forschung und Entwicklung. Die Hochschule erhält eine Komplettförderung für das Projekt, da es nur diese Drittmittel gibt. Weitere Finanzierungsquellen existieren nicht. Bei der Förderung durch das BMBF gibt es zusätzlich eine kleine Hardware-Förderung. Ein Teil der Technik ist an der TH auch schon vorhanden. Und das Ministerium will in diesem Forschungsprogramm primär Forschung und Entwicklung fördern und dabei weniger Technikinvestitionen unterstützen.

Wie funktioniert die Technologie?

Für den VR-Bereich, also unsere B2B-Anwendung, werden kabellose VR-Brillen eingesetzt. Die Datenberechnung erfolgt über eine drahtlos angebundene Workstation vor Ort, die wiederum Rückgriff auf den Cloud-basierten Cloud-Connector hat. Zwei Tracking-Stationen sind ebenfalls nötig, für die Positionserkennung der VR-Brillen im realen Raum. Für den AR-Einsatz im Retail, also B2C, kommunizieren AR-Brillen via Internet direkt mit dem Cloud-Connector.

Wie sehen Prozessstruktur und Workflow aus?

In der Cloud arbeitet der Cloud-Connector. Er wird mit allen Quelldaten zu den Morphotypen und den Kleidungsstücken bespielt. Voll automatisiert erfolgt dann in dieser Rechnerumgebung die rechenintensive Datenaufbereitung mit der anschließenden Bereitstellung der Showroom- und Shop-Daten für die Nutzung. Im Laden gibt der Kunde seine individuellen Daten ein und trifft die Kleiderwahl, die ihm mittels AR-Brille vor Ort in Echtzeit eingespielt wird. Die Darstellung basiert auf den vorgerechneten Daten der Kleidungsstücke und Morphotypen, die hierfür in einer Größenordnung von 10 bis 20 verschiedenen Formtypen bereitgehalten wird. Die Rechen-Algorithmen im Hintergrund sind zeitintensiv und laufen im Cloud-Connector. Nur so kann für den Kunden ein attraktives digitales Angebot geschaffen werden. Eine Wartezeit bevor das 3D-Rendering in Echtzeit erfolgen kann, würde auf wenig Akzeptanz bei der Zielgruppe stoßen.

Wie erreichen Sie für die anspruchsvolle Mode-Zielgruppe eine natürliche Kleiderdarstellung im „virtuellen Präsentationsraum“?

Das ist die große Herausforderung im Projekt. Es werden Algorithmen entwickelt, die optisch ein hochwertiges Ergebnis liefern, aber zehnmal schneller arbeiten müssen als für ein Standard-Rendering: mehr Pixel, mehr Frames und auch noch in stereoskopischem 3D. Hinzu kommt, dass wir es nicht mit einfachen mathematischen Strukturen, wie beispielsweise bei einem Auto zu tun haben. Das ist bei Kleidung eben anders. Im Faltenwurf können beliebige Formen entstehen, die sich mathematisch gar nicht darstellen lassen. Da müssen wir die Oberfläche diskretisieren, also in Elemente, in Dreiecke einteilen und für jedes Element durchsimuliert zusammen mit seinen mechanischen Eigenschaften. Das ist somit keine Oberflächendefinition, sondern geschieht über eine sehr große Anzahl von Einzelelementen, die dann zur Berechnung im Rendering herangezogen werden. Gleichzeitig reduzieren wir die Dreiecks-Komplexität verlustfrei in der Visualisierung. Das ist vergleichbar mit einem Datenkomprimierungsverfahren. Ein zweiter Schwerpunkt sind die Farben. Die virtuelle Darstellung muss identisch sein mit den realen Textilien. Farbfehler bei B2B sind in der Folge wegen Reklamationen teuer und bei B2C verursachen Fehler Enttäuschungen beim Endverbraucher. Da sehen wir beispielsweise beim Kleider-Onlinehandel eine große Frustration beim Käufer. Wir wollen die Farbechtheit über die lange Prozesskette beibehalten. Die Stoffe müssen korrekt gescannt und erfasst werden. Vom Scans bis zur kalibrierten VR-/AR-Brille muss der Workflow optisch einwandfrei arbeiten.

Ein Mitarbeiter aus dem Forschungsteam demonstriert den virtuellen Showroom.
Ein Mitarbeiter aus dem Forschungsteam demonstriert den virtuellen Showroom. (Bild: Dominik Roenneke)

Kleidung und natürliche Bewegung sind für reale Modeschauen sehr wichtig. Werden sich die virtuellen Modelle im Präsentationsraum bewegen?

Im Laden kann der Kunde einerseits Kleidung real anprobieren und andere Kombinationen virtuell dazu konfigurieren. In B2B hängen die Kleidungsstücke im virtuellen Showroom, sie sind dort „ausgestellt“. Eine Catwalk-Animation ist sicherlich eine perspektivisch denkbare Entwicklung aber nicht Projektbestandteil. Das ist in unserer Rendering-Technologie grundsätzlich enthalten, käme aber erst später hinzu und wäre eine schöne Sache für ein Folgeprojekt mit Echtzeit-Animation.

Wird der Endkunde im Laden für sich die Frage beantworten können: „Wie steht mir das?“

Das müssen wir differenziert betrachten. Passt das Kleidungsstück zu meiner Körperform? Ja, das wird der Endkunde sicherlich für sich gut beantworten können. Die Frage, ob es auch zu seinem Teint passt, kann aktuell noch nicht beantwortet werden, da die Kleidung virtuell an eher neutralen Schaufensterpuppen mit der AR-Brille bewertet wird.

Welche Technik wird zusammen mit der AR-Brille für die virtuelle Anprobe im Laden vor Ort nötig sein?

Es wird nur die AR-Brille benötigt. Sie holt sich die benötigten Daten via WLAN aus der Cloud vom Cloud-Connector und spielt sie in Echtzeit ein. Eine ebenfalls projektierte alternative Anwendung ist der Einsatz via Kunden-Handy. Für diese „Bring Your Own Device“-Anwendung entwickeln die Projektpartner ebenfalls eine praktikable Lösung für den Einzelhandel.

Partner des Forschungsprojektes

ASSYST GmbH – bietet Fashion-Kunden 3D-Technologien mit 3D-Simulation von Stoff, Farbe und Schnitt.

Avalution GmbH – scannt, vermisst, analysiert und digitalisiert reale Menschen und erstellt Avatare für die Modebranche.

Deutsche Institute für Textil und Faserforschung (DITF) – deckt die gesamte Produktions- und Wertschöpfungskette von Textilien ab

Brax Leineweber GmbH & Co. KG – Modeanbieter mit 125-jähriger Tradition mit rund 1.500 Mitarbeitern und eigenen Stores

TH Köln – das Institut für Medien- und Fototechnik befasst sich mit Verfahren, Algorithmen und Geräten zur Produktion, Speicherung, Übertragung und Wiedergabe medialer Inhalte, sowie mit Medienproduktionsprozessen und –systemen

Prof. Dr. Ing. Arnulph Fuhrmann

Arnulph Fuhrmann schloss sein Studium der Informatik an der Technischen Universität Darmstadt 2001 ab. Danach war er bis 2008 Mitarbeiter und stellvertretender Abteilungsleiter in der Forschungsgruppe „Echtzeitlösungen für Simulation und Visual Analytics“ am Fraunhofer Institut für Graphische Datenverarbeitung in Darmstadt. 2006 promovierte er zum Thema „Interaktive Animation textiler Materialien“. Im Jahr 2008 wechselte er als Manager 3D Development zur Firma Assyst GmbH nach München. Seit 2011 ist er Professor für Computergrafik an der TH Köln und leitet die Computer Graphics Group. Von 2012 bis 2016 war er geschäftsführender Direktor des Instituts für Medien- und Fototechnik.

Prof. Dr. Ing. Arnulph Fuhrmann
Prof. Dr. Ing. Arnulph Fuhrmann erläutert die immersive VR-/AR-Demonstrator-Software. (Bild: Dominik Roenneke)

Seine Forschungsschwerpunkte sind Virtual Reality, 3D Simulation, physikalisch basierte Modellierung, Bekleidungssimulation, Rendering und Kollisionserkennung für deformierbare Körper. Dabei liegt sein Fokus auf echtzeitfähigen Modellen und Verfahren, die sich für interaktive virtuelle Umgebungen eignen.


(aus Professional System 04/2019)

// [9075]

Anzeige

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.