TI Edge-AI-MCUs reichen bis zum Cortex-M0+
über
TIs Edge-AI-MCUs sind der Kern von Texas Instruments jüngstem Embedded-Vorstoß, der auf der embedded world 2026 in Nürnberg vorgestellt wurde. Einfach ausgedrückt möchte TI, dass die Beschleunigung von neuronalen Netzen in kleineren, günstigeren Systemen zum Einsatz kommt, anstatt nur in großen Prozessoren mit Kühlkörpern, umfangreichen PMICs und der allgemeinen emotionalen Energie eines kleinen Serverracks. Neben einer umfassenderen Startankündigung stellt das Unternehmen diese Geräte als eine praktische Möglichkeit dar, die Inferenz in Wearables, Geräten, Sensorknoten und Motorsteuerungssystemen lokal zu halten. Für Leser, die KI am Edge verfolgt haben, ist dies der Teil, dem sie Beachtung schenken sollten.
TI Edge-AI-MCUs für kleinere Embedded-Systeme
Der erste der neuen Bausteine ist der MSPM0G5187, ein kostengünstiger Arm Cortex-M0+-Mikrocontroller mit der TinyEngine-Neural-Processing-Unit von TI. Laut TI kann der Hardware-Beschleuniger eine bis zu 90-mal geringere Latenz und einen bis zu 120-mal geringeren Energieverbrauch pro Inferenz bieten als vergleichbare Mikrocontroller, die die gleiche Art von Arbeit nur mit der CPU ausführen. Auf dem Papier ist das die interessanteste Veränderung: Ein Cortex-M0+-Baustein ist nicht der Ort, an dem viele Ingenieure eine dedizierte KI-Beschleunigung erwarten würden. Das Gerät verfügt außerdem über bis zu 128 KB Flash und 32 KB SRAM sowie Schnittstellen wie USB 2.0 Full Speed und eine digitale Audio-Schnittstelle, was den Baustein in sprachgesteuerten, gestenbewussten oder anderweitig sensornahen Designs vorstellbar macht.
TI setzt auch stark auf Preis und Leistung. Mit einem Preis von unter 1 US-Dollar bei einer Abnahme von 1.000 Einheiten wird der MSPM0G5187 als Möglichkeit positioniert, über feste Schwellenwerte und einfache Regeln hinauszugehen, ohne direkt in eine viel größere Prozessor-Klasse zu wechseln. Für Embedded-Entwickler könnte das bei Produkten von Bedeutung sein, bei denen die Akkulaufzeit, der Platinenplatz und die Stücklisten-Kosten immer noch das letzte Wort haben.
TI Edge-AI-MCUs für Echtzeit-Motorsteuerung
Die zweite Familie, die AM13Ex-Reihe, verfolgt einen ganz anderen Ansatz. Hier kombiniert TI einen Cortex-M33-Kern, die TinyEngine-NPU und Echtzeit-Motorsteuerungshardware auf einem Chip. Die Idee ist, dass ein Design deterministische Regelkreise weiterlaufen lassen kann, während es auch adaptive Steuerungs- oder Predictive-Maintenance-Aufgaben lokal übernimmt. TI gibt an, dass die AM13Ex-Bausteine bis zu vier Motoren gleichzeitig steuern können und dass ihr integrierter trigonometrischer Mathematik-Beschleuniger Berechnungen zehnmal schneller durchführt als CORDIC-ähnliche Implementierungen.
Das ist wichtig, denn Motorsteuerungssysteme sind eines der Bereiche, in denen „KI am Rand“ nicht mehr nur ein Marketingbegriff ist, sondern zu einem echten Design-Kompromiss wird. Wenn das Silizium tatsächlich externe Bauteile reduzieren und eine ansonsten mehrteilige Architektur zusammenfassen kann, dann gibt es eine echte ingenieurtechnische Geschichte. TI gibt an, dass die Stücklisten-Kosten in den Arten von Geräte-, Robotik- und Industriedesigns, die sonst mehr verstreutes Silizium benötigen würden, um die gleiche Aufgabe zu erfüllen, um bis zu 30 % reduziert werden können.
Die Software wird entscheiden, ob das wirklich ankommt
Hardware ist nur die halbe Geschichte, deshalb erweitert TI auch die Softwareseite. CCStudio Edge AI Studio bietet jetzt Unterstützung für die Modellauswahl, das Training und den Einsatz über das gesamte Embedded-Portfolio von TI, wobei bereits mehr als 60 Modelle und Anwendungsbeispiele verfügbar sind. Die CCStudio-IDE von TI erhält ebenfalls integrierte generative KI-Funktionen, die darauf abzielen, die Code-Entwicklung, Konfiguration und das Debugging zu beschleunigen. Dieser Teil wird es wert sein, genau beobachtet zu werden, denn viele Edge-AI-Hardware wird viel weniger spannend, sobald die Tools zu einem wochenendfüllenden Problem werden.
Insgesamt ist der Start sinnvoll. TI versucht nicht zu behaupten, dass jedes Embedded-Produkt plötzlich ein neuronales Netzwerk braucht. Das stärkere Argument ist, dass eine wachsende Zahl von Produkten von lokaler Klassifizierung, Erkennung, Anomalieerkennung oder adaptiver Steuerung profitieren könnte, ohne auf eine wesentlich leistungsstärkere Plattform umsteigen zu müssen. Wenn TI Edge-AI-MCUs diesen Schritt einfacher, günstiger und weniger ärgerlich machen, werden die Ingenieure das bemerken.

Diskussion (0 Kommentare)