So erstellen Sie eine KI-gestützte Sportanalyse – ganz ohne Sensoren

So erstellen Sie eine KI-gestützte Sportanalyse – ganz ohne Sensoren
KI-gestützte Basketballanalyse ohne Sensoren

Bild: © Code in a Jiffy | Visuals überarbeitet von Ulrich Buckenlei – Visoric GmbH

Links & Ressourcen

Was wäre, wenn man ein Spiel analysieren könnte – ganz ohne Sensoren?

Stell dir vor, man verfolgt Spielerbewegungen, analysiert Ballbesitz, berechnet Teamstatistiken und Laufgeschwindigkeiten – ganz ohne einen einzigen Chip. Dieses KI/ML-Projekt zeigt, wie das möglich ist: Nur mit Video und Computervision.

Ursprünglich entwickelt von Code In a Jiffy, nutzt dieses Open-Source-Framework YOLO, OpenCV und Python zur Erkennung von Spielern, Bällen, Teams, Pässen, Keypoints und Distanzen – alles in Echtzeit. Ein Showcase für KI pur.

Basketball-Spielerkennung mit YOLO

Echtzeit-Erkennung von Spielern und Schiedsrichtern per YOLO

Bild: © Code in a Jiffy | Visuals überarbeitet von Ulrich Buckenlei – Visoric GmbH

Zero-Shot-Klassifikation: So erkennt KI Trikotfarben

Zur Unterscheidung der Teams wurde ein Zero-Shot-Bildklassifikator verwendet. Anstatt das Modell mit allen Trikots zu trainieren, genügen Text-Prompts wie „dunkelblaues T-Shirt“, um Teams dynamisch zu erkennen.

Das bringt enorme Flexibilität. Neue Outfits? Kein Problem. Der Klassifikator passt sich anhand von Beschreibungen an – möglich durch HuggingFace’s NLI-Modelle. Das spart Zeit und erhöht die Skalierbarkeit.

Trikoterkennung mit Zero-Shot-Klassifikation

Team-Erkennung per Zero-Shot-Bildklassifikation

Bild: © Code in a Jiffy | Visuals überarbeitet von Ulrich Buckenlei – Visoric GmbH

Das Spielfeld verstehen: Keypoints und Layout

Was passiert wo? Um das zu beantworten, lernt das System das Layout des Spielfelds durch Keypoint-Erkennung. Ein eigens trainiertes Modell erkennt Körbe, Ecken und Zonen – aus jedem Blickwinkel.

So lassen sich alle Aktionen präzise im Raum verorten. In Kombination mit Perspektivkorrektur wird das Datenmodell vollständig räumlich – ein entscheidender Schritt für Taktikanalysen und Leistungsmetriken.

Keypoints und Perspektive des Basketballfeldes

Erkennung von Feldpositionen anhand visueller Landmarken

Bild: © Code in a Jiffy | Visuals überarbeitet von Ulrich Buckenlei – Visoric GmbH

Vom Video zur taktischen Vogelperspektive

Sobald das Spielfeld erkannt ist, wird die Kameraperspektive transformiert. Mit Hilfe der Perspektivabbildung wird das Bild in eine Draufsicht umgewandelt – und damit zur taktischen Analyse nutzbar.

Jetzt sieht man Pässe, Bewegungen, Formationen und Lücken in der Verteidigung – genau wie in professionellen Dashboards. Nur dass alles per KI aus dem Video generiert wird.

Taktische Analyse mit Draufsicht-Perspektive

Perspektiv-Transformation für spielanalytische Draufsichten

Bild: © Code in a Jiffy | Visuals überarbeitet von Ulrich Buckenlei – Visoric GmbH

Geschwindigkeit, Distanz, Leistung: In Metern statt Pixel

Wie schnell ist jeder Spieler? Wie weit ist er gelaufen? Das System berechnet reale Werte, indem es Pixelbewegung in Spielfeldkoordinaten umrechnet – ermöglicht durch KI und Geometrie.

So erhalten Trainer, Analysten und Fans Profi-Statistiken – ganz ohne Wearables, nur durch die Analyse der Aufnahmen mit den passenden Modellen.

Geschwindigkeit und Distanz in realen Koordinaten

Bewegungsanalyse mit echten Spielfeldmetriken

Bild: © Code in a Jiffy | Visuals überarbeitet von Ulrich Buckenlei – Visoric GmbH

Video: KI-gestützte Basketball-Analyse in Aktion

Sieh dir die komplette Analyse in Bewegung an – vom Rohmaterial bis zum Dashboard. Das Video führt dich Schritt für Schritt durch das Projekt – inklusive Live-Ergebnisse.

Wer Sport-KI entwickelt oder Sensoren durch Vision ersetzen möchte: Dieses Projekt ist die perfekte Vorlage. Kompakt, elegant, Open Source.

Kompletter KI-Workflow vom Court-Video zur Taktik-Auswertung

Video: © Code in a Jiffy | Schnitt: Ulrich Buckenlei – Visoric GmbH

Entwickle dein eigenes Vision-AI-System

Dieses Projekt eignet sich ideal für eigene Experimente – eine perfekte Basis für sensorlose Tracking-Systeme. Egal ob im Einzelhandel, im Sport oder in der Logistik: Vision AI bringt echte Einsichten.

Visoric unterstützt Unternehmen bei der Entwicklung individueller KI-Analysetools – von der Idee bis zur Umsetzung. Wenn dich das inspiriert hat, melde dich.

  • Vision-KI-Prototyping: Individuelle YOLO- & OpenCV-Pipelines
  • Tracking ohne Sensoren: Reale Erkennung nur aus Video
  • Deployment-Unterstützung: Für Sport, Handel, Industrie und mehr

Lass uns gemeinsam Visionäres entwickeln.

Die mit * gekennzeichneten Felder sind Pflichtfelder.

Kontaktieren Sie uns:

E-Mail: info@xrstager.com
Telefon: +49 89 21552678

Kontaktpersonen:
Ulrich Buckenlei (Kreativdirektor)
Mobil: +49 152 53532871
E-Mail: ulrich.buckenlei@xrstager.com

Nataliya Daniltseva (Projektleiterin)
Mobil: +49 176 72805705
E-Mail: nataliya.daniltseva@xrstager.com

Adresse:
VISORIC GmbH
Bayerstraße 13
D-80335 München

Arrow right icon