Fashion-Clip_App / README.md
FrezzyI's picture
Update README.md
fcd4f8d verified

A newer version of the Gradio SDK is available: 5.28.0

Upgrade
metadata
title: Fashion-Clip App
emoji: 🌍
colorFrom: green
colorTo: pink
sdk: gradio
sdk_version: 5.25.2
app_file: app.py
pinned: false

👕 Fashion Attribute Predictor – Prototyp 2 (FashionCLIP)

Diese Hugging Face Space-Anwendung ermöglicht es Nutzer:innen, ein Kleidungsstück (z. B. T-Shirt oder Pullover) zu fotografieren oder hochzuladen und automatisch visuelle Eigenschaften mit Hilfe des FashionCLIP-Modells zu erkennen.


🎯 Zielsetzung

Dieser Prototyp ist Teil einer Masterarbeit, in der untersucht wird, ob sich Open-Source-KI-Modelle dazu eignen, visuelle Eigenschaften von Kleidungsstücken automatisiert zu erkennen. Ziel ist es, Merkmale zu extrahieren, die normalerweise von Menschen manuell in Datenbanken eingetragen würden – etwa zur Erstellung digitaler Zwillinge.


🧠 Funktionsweise

  • Das Modell FashionCLIP (Zero-Shot CLIP-Modell) vergleicht das eingegebene Bild mit vordefinierten Texteingaben (Prompts).
  • Für jede Eigenschaftsgruppe wird die Beschreibung mit der höchsten Übereinstimmung zurückgegeben:
    • Kategorie (z. B. T-Shirt, Hoodie)
    • Farbe (z. B. rot, blau)
    • Muster (z. B. gestreift, uni)
    • Schnitt / Ausschnitt (z. B. slim fit, Rundhals)

🧪 Anwendung testen

  1. Fotografiere ein Kleidungsstück mit der Kamera oder lade ein Bild hoch.
  2. Das System analysiert das Bild und gibt die vier Merkmale zurück.
  3. Die Ausgabe kann genutzt werden, um die Robustheit des Modells unter verschiedenen Bedingungen (Licht, Hintergrund, Kameras) zu testen.

⚙️ Verwendete Technologien

  • Modell: patrickjohncyh/fashion-clip
  • Modellarchitektur: CLIP (ViT-B/32)
  • UI: Gradio auf Hugging Face Spaces
  • Backend: Python, Huggingface Transformers, Torch

🗃 Beispielausgabe

{
  "Kategorie": "a t-shirt",
  "Farbe": "a red garment",
  "Muster": "a striped shirt",
  "Schnitt": "a slim fit shirt"
}