Raspberry Pi KI HAT+ 2 erweitert den Pi 5 um 8 GB RAM für LLM-/VLM-Aufgaben
über
Das Raspberry Pi AI HAT+ 2 ist das neueste PCIe-Erweiterungsmodul für den Raspberry Pi 5, und die wichtigste Neuerung ist einfach: Es platziert 8 GB LPDDR4X-RAM direkt neben einen Hailo-10H-Beschleuniger, sodass ein größerer Teil des Modellspeichers „nah“ an der NPU liegen kann, statt durch einen schmalen Flaschenhals aus dem Arbeitsspeicher gelesen zu werden.
Was ist neu?
Die bisherigen, von Raspberry Pi gebrandeten Hailo-Erweiterungen für den Pi 5 wurden vor allem als Vision-Beschleuniger vermarktet: Objekterkennung, Segmentierung, Pose-Analyse und andere kamerabasierte Pipelines. Das AI HAT+ 2 bleibt diesem „zusätzlichen NPU“-Gedanken treu, aber die hinzugefügten 8 GB Onboard-RAM sind die eigentliche Geschichte, da sie das mögliche Anwendungsspektrum in Richtung speicherintensiver Modelle verschieben – auch wenn genügend Rechenleistung zur Verfügung steht.
Raspberry Pi AI HAT+ 2 – Technische Daten
Ein PCIe-Beschleuniger für KI/ML für den Raspberry Pi 5, entwickelt für die Beschleunigung von Vision-Modellen sowie ausgewählten LLM- und VLM-Workloads.
Wesentliche Spezifikationen
- Hailo-10H Neuronalenetz-Beschleuniger
- 8 GB LPDDR4X-4267 SDRAM an Bord
- PCI-Express-Anbindung; ausschließlich für Raspberry Pi 5
- Vision-Leistung vergleichbar mit dem 26-TOPS-AI HAT+
- Beschleunigt ausgewählte LLMs und VLMs
Voraussichtliche LLM/VLM-Unterstützung zum Start
- Llama-3.2-3B-Instruct
- Qwen2.5-VL-3B
Physikalische Eigenschaften
- Abmessungen: 56,7 mm (B) × 65,1 mm (L) × 5,5 mm (H)
- Gewicht: 19 g (Board) / 48 g (Karton mit Zubehör)
Auch wenn die Spezifikationen auf dem Papier vielversprechend klingen, bleiben einige Details noch zu bestätigen. Der Speicher wird als „LPDDR4X-4267 SDRAM“ aufgeführt, aber in Hailos öffentlicher Dokumentation zum 10H wird meist nur „4 | 8 GB LPDDR4/4X“ ohne konkrete Geschwindigkeitsangabe genannt. Wenn die 4267 MT/s zutreffen, wäre das eine gute Wahl für speichergebundene GenAI-Workloads – aber bis zur offiziellen Bestätigung ist dies als vorläufig zu betrachten.
Ebenso ist die Aussage, dass die Vision-Leistung „ähnlich dem 26-TOPS-AI HAT+“ sei, schwer zu verifizieren. Die Hailo-8-Option im früheren HAT+ ist visionoptimiert, während der 10H einen Teil dieser Spezialisierung für GenAI-Vielseitigkeit aufgibt. Die beiden Chips haben unterschiedliche Architekturen, sodass ein direkter TOPS-zu-TOPS-Vergleich nicht das ganze Bild liefert.
Hinzu kommt die PCIe-Bandbreite. Der Raspberry Pi 5 bietet eine einzelne PCIe-2.0-Lane, die bei etwa 500 MB/s * endet. Das Hailo-10H-Modul ist hingegen für PCIe Gen 3.0 ×4 ausgelegt, das theoretisch bis zu 4 GB/s bietet. Das ist ein achtfaches Missverhältnis. Für leichte Inferenz oder Modelle, die komplett in den Onboard-RAM des 10H passen, dürfte dieser Flaschenhals kaum auffallen, aber für Workloads, die häufig Daten zwischen dem Pi und dem Beschleuniger austauschen, könnte die Leistung leiden. Die gute Nachricht: Der Onboard-Speicher wurde genau dafür eingebaut, diesen Datenverkehr zu minimieren – die Auswirkungen hängen also stark vom Modell und Anwendungsfall ab.
* Mit Konfigurationsänderungen lässt sich der externe Anschluss auf Gen 3 ×1 (~1 GB/s) umstellen, aber dieser Modus gehört nicht zur offiziellen Zertifizierung des Raspberry Pi.
Das Konzept entspricht genau dem, wie Hailo den Hailo-10H positioniert. Das Unternehmen vermarktet ihn als Edge-Beschleuniger für generative KI mit direkter DDR-Schnittstelle, sodass auch größere Modelle (LLMs und VLMs) beschleunigt werden können, die oft nicht durch die Rechenleistung, sondern durch die Speicheranbindung limitiert werden; einen Überblick gibt es auf Hailos Produktseite.
Wie das AI HAT+ 2 in das PCIe-Ökosystem des Pi 5 passt
Wenn der Ausgangspunkt das bisherige AI HAT+ (13 TOPS und 26 TOPS) ist, bleibt dieses Board weiterhin der einfachste Einstieg für visionbasierte Anwendungen auf dem Pi 5. Die eigene Zubehörseite von Raspberry Pi beschreibt das Original-AI HAT+ als Hailo-basiertes Add-on für mehrere gleichzeitige KI-Aufgaben, und für reine Kameradurchsatz-Anwendungen bleibt es die naheliegende „Start-hier“-Option.
Bevor das AI HAT+ zur Standardempfehlung wurde, bewarb Raspberry Pi das AI Kit Bundle: das M.2 HAT+ plus ein Hailo-8L-Modul. Es ist nach wie vor ein unkomplizierter Weg, Hailo-Beschleunigung hinzuzufügen, und viele Nutzer besitzen es bereits. Einen Überblick dazu finden Sie in unserer früheren Berichterstattung.
Und natürlich gibt es noch die „Plumbing“-Option: das M.2 HAT+ selbst, das den Pi 5-PCIe-2.0-Slot in einen M.2-Anschluss verwandelt. In der Praxis heißt das meist: Entweder eine NVMe-SSD oder ein Beschleunigermodul – beides gleichzeitig geht in der Regel nicht. Das wird im M.2-HAT+-Launch-Artikel beschrieben.
AI HAT+ 2 Zielmodelle: LLMs, VLMs und Whisper
Worin das AI HAT+ 2 seine Existenzberechtigung sieht, sind „ausgewählte“ generative und multimodale Workloads. Anders gesagt: Es geht nicht nur um mehr Bounding-Boxes pro Sekunde, sondern darum, eine kleine Auswahl an LLM- und VLM-Klassenmodellen auf einem Pi-Host praktisch nutzbar zu machen – dank eigenem Speichervorrat im Beschleuniger.
Konkret stehen auf der Early-Target-Liste kompakte Instruct-Modelle und kleine VLMs wie Llama-3.2-3B-Instruct und Qwen2.5-VL-3B sowie Sprachmodelle wie Whisper (beispielsweise erscheint Whisper-Base im GenAI Model Explorer von Hailo). Partner-Material nennt außerdem distillierte Reasoning-Modelle; ein Beispiel: DeepSeek-R1-Distill-Qwen-1.5B wird dort ebenfalls für den Hailo-10H gelistet.
Die praktische Erkenntnis ist: Das AI HAT+ 2 soll weniger das 26-TOPS-AI HAT+ für klassische Vision ersetzen, sondern vielmehr erweitern, was „Pi 5 + Beschleuniger“ tatsächlich ausführen kann, wenn Modellgröße und Zwischenspeicher zum Engpass werden.
Fazit
Wer bereits das 26-TOPS-AI HAT+ besitzt und primär auf Kamera-/Visiondurchsatz setzt, muss wegen Vision allein nicht zwingend auf das Raspberry Pi AI HAT+ 2 umsteigen. Der eigentliche Grund für ein Upgrade ist der zusätzliche Onboard-Speicher auf der Beschleuniger-Seite – genau der ermöglicht, dass ausgewählte LLM-, VLM- und Whisper-Klassen-Workloads auf dem Raspberry Pi 5 realistisch werden, ohne direkt an Speichergrenzen zu scheitern.

Diskussion (0 Kommentare)