Jeder scheint eine KI-Lösung für seine Embedded-System-Hardware zu haben. In den meisten Fällen müssen Sie diese Hardware jedoch so nehmen, wie sie ist, wenn Sie sie in Ihrem Produkt einsetzen wollen, was keinen Raum für Kostenoptimierung lässt. Anders bei BeagleBoard mit seinem Open-Source-Hardware-Ansatz, der auch für das neue BeagleY-AI-Board gilt.
 
Im gleichen Formfaktor wie andere kreditkartengroße Einplatinencomputer (SBC) aufgebaut, basiert das BeagleY-AI auf dem leistungsfähigen AM67A System-on-Chip (SoC) von Texas Instruments (TI). Neben dem Quad-Core 64-Bit Arm Cortex-A53 (1,4 GHz) befinden sich zwei Allzweck-DSPs C7x mit Matrix Multiply Accelerator (MMA) mit 4 TOPs. Ergänzt werden sie durch einen Arm Cortex-R5, der Echtzeitschnittstellen, eine GPU sowie Video- und Bildverarbeitungsbeschleuniger verarbeitet.

Anwendungen für KI und maschinelles Lernen (ML) können mit TensorFlow entwickelt werden und sind auf einem Linux-basierten Betriebssystem einfach zum Laufen zu bringen. Die Optimierung von ML-Algorithmen wird dank einer Arm-nativen Toolchain für die TI-DSPs für diejenigen vereinfacht, die jedes Quäntchen Leistung aus den Boards herauskitzeln wollen. Und auch der Weg zur optimierten Hardware ist einfach. Da es sich um eine Open-Source-Plattform handelt, können Entwickler den Schaltplan und die Stückliste wiederverwenden, um ihre eigene, kostenoptimierte Hardware zu erstellen. Auf der embedded world 2024 demonstrierte Jason Kridner (CTO) außerdem, wie ein komplettes Disk-Image für eine Bilderkennungsanwendung vom Raspberry Pi auf BeagleY-AI portiert werden konnte, wodurch eine der größten Herausforderungen bei der Portierung von Anwendungen zwischen SBCs überwunden wurde.
 
Weitere Informationen über den BeagleY-AI finden Sie hier.