
De inferenerator van Inferx X1 Edge is ontworpen voor het verwerken van real-time MPIXEL Vision-workloads die hoge bandbreedte-ondersteuning vereist voor diepe leermodellen die in realtime met kleine batchmaten werken. Typische workloads hebben diepe netwerken met veel functiekaarten en meerdere exploitatietypen, verklaart het bedrijf. Ze kunnen ook modelnauwkeurigheidsdoelen hebben die het gebruik van gemengde precisies vereisen, waaronder INT8, INT16 en BF16. De accelerator maakt een mix tussen lagen mogelijk en is ook ontworpen voor de batchgrootte voor lage latentie (B = 1-inferentie-verwerking) die doorgaans door deze workloads wordt vereist.
De accelerator ondersteunt een X86- en armarchitecturen en een keuze aan OS. Het ondersteunt de camera-, IR-, ultrasone en RF-sensorinvoertypen en Ethernet-, USB- en Wi-Fi Comms-normen.
De X1 Dynamic Tensor-processor-array is ontworpen om bestaande en toekomstige AI / ML-modellen te ondersteunen en wordt beweerd om de snelheid en efficiëntie van een ASIC te combineren met herconfigureerbare controle-logische technologie die het toekomstbestendig is door de adoptie en implementatie van nieuwe technologieën van inferentie te gebruiken van nieuwe inferentie-modeltechnologieën via het vak updates. Met de Accelerator-architectuur kan ondersteuning bieden voor het verwerken van meerdere gegevenstypen inclusief camera's met hoge resolutie.
Naast de MAC-eenheden van de processor array en 12Mbyte van on-chip SRAM omvat de X1-architectuur connectiviteit met externe LPDR4 DRAM voor modelgewicht, configuratie en interne activeringsopslag. Er is ook GEN3 / 4 PCIE voor connectiviteit met een hostprocessor.
Het bedrijf biedt ook de Inferx Edge Inference Software Development Kit met modelcompiler en runtime-software. De modelcompiler converteert modellen die zijn uitgedrukt in TensorFlow Lite of Torschscript en compileerden ze om rechtstreeks op de X1-accelerator te werken. De Inferx-runtime regelt de uitvoering van het model en de X1 verwerkt de gegevensstoom om de gevolgresultaten te genereren.