
Inferx X1 Edge Inference Accelerator er designet til behandling af real-time mpixel vision workbelasting, der kræver høj båndbredde støtte til dybe læringsmodeller, der opererer med små batchstørrelser i realtid. Typiske arbejdsbyrder har dybe netværk med mange funktionskort og flere operatørstyper, forklarer virksomheden. De kan også have model nøjagtighedsmål, der kræver anvendelse af blandede præcision, herunder INT8, INT16 og BF16. Acceleratoren tillader en blanding mellem lag og er også designet til den lave latensbatchstørrelse (B = 1 indledende behandling), der typisk kræves af disse arbejdsbyrder.
Acceleratoren understøtter en X86- og ARM-arkitekturer og et valg af OS. Det understøtter kamera, IR, Ultrasonic og RF Sensor input typer og Ethernet, USB og Wi-Fi Comms standarder.
Den X1 Dynamic Tensor-processor-array er designet til at understøtte eksisterende og fremtidige AI / ML-modeller og hævdes at kombinere hastigheden og effektiviteten af en ASIC med omkonfigurerbar kontrollogikteknologi, som FutureProofs det ved at muliggøre vedtagelse og implementering af nye inference model teknologier via felt opdateringer. Acceleratorarkitekturen tillader understøttelse af behandling af flere datatyper, herunder kameraer med høj opløsning.
Ud over processor Array's MAC-enheder og 12MByte On-Chip SRAM, indeholder X1-arkitekturen tilslutning til ekstern LPDDR4 DRAM til modelvægt, konfiguration og intern aktiveringsopbevaring. Der er også GEN3 / 4 PCIE til tilslutning til en værtsprocessor.
Virksomheden tilbyder også Infex Edge Inference Software Development Kit med model compiler og runtime software. Model Compiler konverterer modeller udtrykt i Tensorflow Lite eller Torschscript og kompilerer dem til at fungere direkte på X1 Accelerator. Inferx runtime styrer udførelsen af modellen, og X1 behandler data dampen for at generere indledningsresultaterne.