Das Raspberry Pi AI HAT+ 2 ist das neueste PCIe-Erweiterungsmodul für den Raspberry Pi 5, und die wichtigste Neuerung ist einfach: Es platziert 8 GB LPDDR4X-RAM direkt neben einen Hailo-10H-Beschleuniger, sodass ein größerer Teil des Modellspeichers „nah“ an der NPU liegen kann, statt durch einen schmalen Flaschenhals aus dem Arbeitsspeicher gelesen zu werden.
 

Top-down view of the Raspberry Pi AI HAT+ 2 mounted on a Raspberry Pi 5, with the host board blurred against a blue tech-pattern background.
Raspberry Pi AI HAT+ 2 montiert auf einem Raspberry Pi 5 über die PCIe-Verbindung, kombiniert einen Hailo-Beschleuniger mit Onboard-Speicher.

Was ist neu?

Die bisherigen, von Raspberry Pi gebrandeten Hailo-Erweiterungen für den Pi 5 wurden vor allem als Vision-Beschleuniger vermarktet: Objekterkennung, Segmentierung, Pose-Analyse und andere kamerabasierte Pipelines. Das AI HAT+ 2 bleibt diesem „zusätzlichen NPU“-Gedanken treu, aber die hinzugefügten 8 GB Onboard-RAM sind die eigentliche Geschichte, da sie das mögliche Anwendungsspektrum in Richtung speicherintensiver Modelle verschieben – auch wenn genügend Rechenleistung zur Verfügung steht.

Raspberry Pi AI HAT+ 2 – Technische Daten

Ein PCIe-Beschleuniger für KI/ML für den Raspberry Pi 5, entwickelt für die Beschleunigung von Vision-Modellen sowie ausgewählten LLM- und VLM-Workloads.
 

Wesentliche Spezifikationen

  • Hailo-10H Neuronalenetz-Beschleuniger
  • 8 GB LPDDR4X-4267 SDRAM an Bord
  • PCI-Express-Anbindung; ausschließlich für Raspberry Pi 5
  • Vision-Leistung vergleichbar mit dem 26-TOPS-AI HAT+
  • Beschleunigt ausgewählte LLMs und VLMs

Voraussichtliche LLM/VLM-Unterstützung zum Start

  •  Llama-3.2-3B-Instruct
  • Qwen2.5-VL-3B

Physikalische Eigenschaften

  •  Abmessungen: 56,7 mm (B) × 65,1 mm (L) × 5,5 mm (H)
  • Gewicht: 19 g (Board) / 48 g (Karton mit Zubehör)
 

Auch wenn die Spezifikationen auf dem Papier vielversprechend klingen, bleiben einige Details noch zu bestätigen. Der Speicher wird als „LPDDR4X-4267 SDRAM“ aufgeführt, aber in Hailos öffentlicher Dokumentation zum 10H wird meist nur „4 | 8 GB LPDDR4/4X“ ohne konkrete Geschwindigkeitsangabe genannt. Wenn die 4267 MT/s zutreffen, wäre das eine gute Wahl für speichergebundene GenAI-Workloads – aber bis zur offiziellen Bestätigung ist dies als vorläufig zu betrachten.
 

A spec summary graphic for Raspberry Pi AI HAT+ 2 showing the board image and bullet points for key features, supported models, and physical dimensions.
Das Raspberry Pi AI HAT+ 2 kombiniert einen Hailo-10H-Beschleuniger mit 8 GB LPDDR4X-Speicher für den Raspberry Pi 5 und richtet sich an Vision- und ausgewählte LLM/VLM-Workloads.


Ebenso ist die Aussage, dass die Vision-Leistung „ähnlich dem 26-TOPS-AI HAT+“ sei, schwer zu verifizieren. Die Hailo-8-Option im früheren HAT+ ist visionoptimiert, während der 10H einen Teil dieser Spezialisierung für GenAI-Vielseitigkeit aufgibt. Die beiden Chips haben unterschiedliche Architekturen, sodass ein direkter TOPS-zu-TOPS-Vergleich nicht das ganze Bild liefert.

Hinzu kommt die PCIe-Bandbreite. Der Raspberry Pi 5 bietet eine einzelne PCIe-2.0-Lane, die bei etwa 500 MB/s * endet. Das Hailo-10H-Modul ist hingegen für PCIe Gen 3.0 ×4 ausgelegt, das theoretisch bis zu 4 GB/s bietet. Das ist ein achtfaches Missverhältnis. Für leichte Inferenz oder Modelle, die komplett in den Onboard-RAM des 10H passen, dürfte dieser Flaschenhals kaum auffallen, aber für Workloads, die häufig Daten zwischen dem Pi und dem Beschleuniger austauschen, könnte die Leistung leiden. Die gute Nachricht: Der Onboard-Speicher wurde genau dafür eingebaut, diesen Datenverkehr zu minimieren – die Auswirkungen hängen also stark vom Modell und Anwendungsfall ab.
* Mit Konfigurationsänderungen lässt sich der externe Anschluss auf Gen 3 ×1 (~1 GB/s) umstellen, aber dieser Modus gehört nicht zur offiziellen Zertifizierung des Raspberry Pi.

Das Konzept entspricht genau dem, wie Hailo den Hailo-10H positioniert. Das Unternehmen vermarktet ihn als Edge-Beschleuniger für generative KI mit direkter DDR-Schnittstelle, sodass auch größere Modelle (LLMs und VLMs) beschleunigt werden können, die oft nicht durch die Rechenleistung, sondern durch die Speicheranbindung limitiert werden; einen Überblick gibt es auf Hailos Produktseite.

Wie das AI HAT+ 2 in das PCIe-Ökosystem des Pi 5 passt

Wenn der Ausgangspunkt das bisherige AI HAT+ (13 TOPS und 26 TOPS) ist, bleibt dieses Board weiterhin der einfachste Einstieg für visionbasierte Anwendungen auf dem Pi 5. Die eigene Zubehörseite von Raspberry Pi beschreibt das Original-AI HAT+ als Hailo-basiertes Add-on für mehrere gleichzeitige KI-Aufgaben, und für reine Kameradurchsatz-Anwendungen bleibt es die naheliegende „Start-hier“-Option.
 

Angled view of the Raspberry Pi AI HAT+ 2 mounted on a Raspberry Pi 5, with the host board blurred on a blue tech-pattern background.
Das Raspberry Pi AI HAT+ 2 passt in das PCIe-Ökosystem des Raspberry Pi 5.


Bevor das AI HAT+ zur Standardempfehlung wurde, bewarb Raspberry Pi das AI Kit Bundle: das M.2 HAT+ plus ein Hailo-8L-Modul. Es ist nach wie vor ein unkomplizierter Weg, Hailo-Beschleunigung hinzuzufügen, und viele Nutzer besitzen es bereits. Einen Überblick dazu finden Sie in unserer früheren Berichterstattung.
 

Und natürlich gibt es noch die „Plumbing“-Option: das M.2 HAT+ selbst, das den Pi 5-PCIe-2.0-Slot in einen M.2-Anschluss verwandelt. In der Praxis heißt das meist: Entweder eine NVMe-SSD oder ein Beschleunigermodul – beides gleichzeitig geht in der Regel nicht. Das wird im M.2-HAT+-Launch-Artikel beschrieben.

AI HAT+ 2 Zielmodelle: LLMs, VLMs und Whisper

Worin das AI HAT+ 2 seine Existenzberechtigung sieht, sind „ausgewählte“ generative und multimodale Workloads. Anders gesagt: Es geht nicht nur um mehr Bounding-Boxes pro Sekunde, sondern darum, eine kleine Auswahl an LLM- und VLM-Klassenmodellen auf einem Pi-Host praktisch nutzbar zu machen – dank eigenem Speichervorrat im Beschleuniger.

Konkret stehen auf der Early-Target-Liste kompakte Instruct-Modelle und kleine VLMs wie Llama-3.2-3B-Instruct und Qwen2.5-VL-3B sowie Sprachmodelle wie Whisper (beispielsweise erscheint Whisper-Base im GenAI Model Explorer von Hailo). Partner-Material nennt außerdem distillierte Reasoning-Modelle; ein Beispiel: DeepSeek-R1-Distill-Qwen-1.5B wird dort ebenfalls für den Hailo-10H gelistet.

Die praktische Erkenntnis ist: Das AI HAT+ 2 soll weniger das 26-TOPS-AI HAT+ für klassische Vision ersetzen, sondern vielmehr erweitern, was „Pi 5 + Beschleuniger“ tatsächlich ausführen kann, wenn Modellgröße und Zwischenspeicher zum Engpass werden.

Fazit

Wer bereits das 26-TOPS-AI HAT+ besitzt und primär auf Kamera-/Visiondurchsatz setzt, muss wegen Vision allein nicht zwingend auf das Raspberry Pi AI HAT+ 2 umsteigen. Der eigentliche Grund für ein Upgrade ist der zusätzliche Onboard-Speicher auf der Beschleuniger-Seite – genau der ermöglicht, dass ausgewählte LLM-, VLM- und Whisper-Klassen-Workloads auf dem Raspberry Pi 5 realistisch werden, ohne direkt an Speichergrenzen zu scheitern.

Abonnieren
Tag-Benachrichtigung zu Raspberry Pi jetzt abonnieren!