Spaces:
Running
Running
A newer version of the Gradio SDK is available:
5.28.0
metadata
title: Fashion-Clip App
emoji: 🌍
colorFrom: green
colorTo: pink
sdk: gradio
sdk_version: 5.25.2
app_file: app.py
pinned: false
👕 Fashion Attribute Predictor – Prototyp 2 (FashionCLIP)
Diese Hugging Face Space-Anwendung ermöglicht es Nutzer:innen, ein Kleidungsstück (z. B. T-Shirt oder Pullover) zu fotografieren oder hochzuladen und automatisch visuelle Eigenschaften mit Hilfe des FashionCLIP-Modells zu erkennen.
🎯 Zielsetzung
Dieser Prototyp ist Teil einer Masterarbeit, in der untersucht wird, ob sich Open-Source-KI-Modelle dazu eignen, visuelle Eigenschaften von Kleidungsstücken automatisiert zu erkennen. Ziel ist es, Merkmale zu extrahieren, die normalerweise von Menschen manuell in Datenbanken eingetragen würden – etwa zur Erstellung digitaler Zwillinge.
🧠 Funktionsweise
- Das Modell FashionCLIP (Zero-Shot CLIP-Modell) vergleicht das eingegebene Bild mit vordefinierten Texteingaben (Prompts).
- Für jede Eigenschaftsgruppe wird die Beschreibung mit der höchsten Übereinstimmung zurückgegeben:
- Kategorie (z. B. T-Shirt, Hoodie)
- Farbe (z. B. rot, blau)
- Muster (z. B. gestreift, uni)
- Schnitt / Ausschnitt (z. B. slim fit, Rundhals)
🧪 Anwendung testen
- Fotografiere ein Kleidungsstück mit der Kamera oder lade ein Bild hoch.
- Das System analysiert das Bild und gibt die vier Merkmale zurück.
- Die Ausgabe kann genutzt werden, um die Robustheit des Modells unter verschiedenen Bedingungen (Licht, Hintergrund, Kameras) zu testen.
⚙️ Verwendete Technologien
- Modell:
patrickjohncyh/fashion-clip
- Modellarchitektur: CLIP (ViT-B/32)
- UI: Gradio auf Hugging Face Spaces
- Backend: Python, Huggingface Transformers, Torch
🗃 Beispielausgabe
{
"Kategorie": "a t-shirt",
"Farbe": "a red garment",
"Muster": "a striped shirt",
"Schnitt": "a slim fit shirt"
}