Spaces:
Running
Running
Update README.md
Browse files
README.md
CHANGED
@@ -4,9 +4,56 @@ emoji: 🌍
|
|
4 |
colorFrom: green
|
5 |
colorTo: pink
|
6 |
sdk: gradio
|
7 |
-
sdk_version: 5.
|
8 |
app_file: app.py
|
9 |
pinned: false
|
10 |
---
|
|
|
11 |
|
12 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
4 |
colorFrom: green
|
5 |
colorTo: pink
|
6 |
sdk: gradio
|
7 |
+
sdk_version: 5.25.2
|
8 |
app_file: app.py
|
9 |
pinned: false
|
10 |
---
|
11 |
+
# 👕 Fashion Attribute Predictor – Prototyp 2 (FashionCLIP)
|
12 |
|
13 |
+
Diese Hugging Face Space-Anwendung ermöglicht es Nutzer:innen, ein Kleidungsstück (z. B. T-Shirt oder Pullover) zu fotografieren oder hochzuladen und automatisch visuelle Eigenschaften mit Hilfe des FashionCLIP-Modells zu erkennen.
|
14 |
+
|
15 |
+
---
|
16 |
+
|
17 |
+
## 🎯 Zielsetzung
|
18 |
+
|
19 |
+
Dieser Prototyp ist Teil einer Masterarbeit, in der untersucht wird, ob sich Open-Source-KI-Modelle dazu eignen, visuelle Eigenschaften von Kleidungsstücken automatisiert zu erkennen. Ziel ist es, Merkmale zu extrahieren, die normalerweise von Menschen manuell in Datenbanken eingetragen würden – etwa zur Erstellung digitaler Zwillinge.
|
20 |
+
|
21 |
+
---
|
22 |
+
|
23 |
+
## 🧠 Funktionsweise
|
24 |
+
|
25 |
+
- Das Modell **FashionCLIP (Zero-Shot CLIP-Modell)** vergleicht das eingegebene Bild mit vordefinierten Texteingaben (Prompts).
|
26 |
+
- Für jede Eigenschaftsgruppe wird die Beschreibung mit der höchsten Übereinstimmung zurückgegeben:
|
27 |
+
- **Kategorie** (z. B. T-Shirt, Hoodie)
|
28 |
+
- **Farbe** (z. B. rot, blau)
|
29 |
+
- **Muster** (z. B. gestreift, uni)
|
30 |
+
- **Schnitt / Ausschnitt** (z. B. slim fit, Rundhals)
|
31 |
+
|
32 |
+
---
|
33 |
+
|
34 |
+
## 🧪 Anwendung testen
|
35 |
+
|
36 |
+
1. Fotografiere ein Kleidungsstück mit der Kamera oder lade ein Bild hoch.
|
37 |
+
2. Das System analysiert das Bild und gibt die vier Merkmale zurück.
|
38 |
+
3. Die Ausgabe kann genutzt werden, um die Robustheit des Modells unter verschiedenen Bedingungen (Licht, Hintergrund, Kameras) zu testen.
|
39 |
+
|
40 |
+
---
|
41 |
+
|
42 |
+
## ⚙️ Verwendete Technologien
|
43 |
+
|
44 |
+
- **Modell**: [`patrickjohncyh/fashion-clip`](https://huggingface.co/patrickjohncyh/fashion-clip)
|
45 |
+
- **Modellarchitektur**: CLIP (ViT-B/32)
|
46 |
+
- **UI**: Gradio auf Hugging Face Spaces
|
47 |
+
- **Backend**: Python, Huggingface Transformers, Torch
|
48 |
+
|
49 |
+
---
|
50 |
+
|
51 |
+
## 🗃 Beispielausgabe
|
52 |
+
|
53 |
+
```json
|
54 |
+
{
|
55 |
+
"Kategorie": "a t-shirt",
|
56 |
+
"Farbe": "a red garment",
|
57 |
+
"Muster": "a striped shirt",
|
58 |
+
"Schnitt": "a slim fit shirt"
|
59 |
+
}
|