FPGA Beschleunigerkarten

Stehen Anforderungen an kurze Latenzzeiten im Raum, oder sind höhere Auflösungen bei einer höheren Taktrate zu verarbeiten, bietet sich die Mustang-F100 an. Anders als die Mustang-V100 Serie basiert die Mustang-F100 auf dem Intel® Arria® 10 GX1150 FPGA und ist mit 8GB on-board DDR4 RAM ausgestattet. Ihr kompaktes Profil (170x68x34mm) und standardisiertes PCI Express Gen3 x8 Interface sorgen für eine problemlose Integration der KI-Beschleunigerkarte. Das Zuweisen einer individuellen Karten-ID ermöglicht den flexiblen Betrieb von mehreren Mustang-F100 innerhalb eines einzelnen Inferenzsystems. Durch die Parallelität der Datenverarbeitung und dem hohen Konfigurierungsgrad, die dem FPGA zu Eigen sind, kann die Mustang-F100 wechselnde Workloads und verschiedene Gleitkommazahlen verarbeiten. Dank integrierter Intel® Enpirion® Power Lösung weist die Mustang-F100 eine hohe Effizienz (<60W TDP), Leistungsdichte und Performance (bis zu 1,5 TFLOPs) auf.

Softwareunterstützung

Sowohl für die Mustang Serie mit VPU als auch für die Mustang Serie mit FPGA stehen von Intel® Software Development Kits zur Verfügung. Mit dem Intel® MovidiusTM MyriadTM Development Kit (MDK) können eigene Funktionen eingebunden und beliebige Verarbeitungspipelines aufgebaut werden. Es steht ein reichhaltiges Angebot an Bibliotheken für Vision, Bildverarbeitung und Neurale Netze zur Auswahl. Für die Mustang Serie mit FPGA bietet Intel® Entwicklern das FPGA SDK for OpenCLTM, eine Entwicklungsumgebung die einfach auf FPGAs zu implementieren ist, den Platform Designer und den DSP Builder für FPGAs.

Die Mustang Serien V100 und F100 bieten Entwicklern zusätzlich, mit der Kompatibilität zum Open Visual Inference Neural Network Optimization (OpenVINOTM) Toolkit.

Unterstützte Topologien

Fazit

Die Mustang Serie ist mit ihrer Low Power Architektur und ihrer Skalierbarkeit eine überlegene Alternative zu GPU basierten KI Lösungen. Inferenzmaschinen erhalten durch Verwendung von KI Beschleunigerkarten eine deutliche Performancesteigerung. Die Kompatibilität zum OpenVINOTM Toolkit bietet Entwicklern eine einfache Möglichkeit Trainingsmodelle ohne aufwändige Trial and Error an der Edge zu implementieren.