
L'accélérateur Inference Inferx X1 Edge est conçu pour traiter les charges de travail MPIXEL Vision en temps réel nécessitant une prise en charge de bande passante élevée pour les modèles d'apprentissage approfondis qui fonctionnent avec de petites tailles de lots en temps réel. Les charges de travail typiques ont des réseaux profonds avec de nombreuses cartes de fonctionnalités et plusieurs types d'opérateurs, explique la société. Ils peuvent également avoir des objectifs de précision du modèle qui nécessitent l'utilisation de précisions mixtes, y compris INT8, INT16 et BF16. L'accélérateur permet un mélange entre les couches et est également conçu pour la faible taille du latch (B = 1 Traitement d'inférence) généralement requis par ces charges de travail.
L'accélérateur prend en charge une architecture X86 et ARM et un choix de système d'exploitation. Il prend en charge les types d'entrée de capteur de la caméra, de l'IR, de l'ultrasons et de la RF et les normes de communication Ethernet, USB et Wi-Fi.
Le tableau X1 Dynamic Tensor Processor est conçu pour prendre en charge les modèles AI / ML existants et futurs et sert à combiner la vitesse et l'efficacité d'un ASIC avec une technologie de logique de contrôle reconfigurable qui l'excluant en permettant l'adoption et le déploiement de nouvelles technologies de modèle d'inférence via le champ. mises à jour. L'architecture d'accélérateur permet de prendre en charge plusieurs types de données, y compris des caméras à haute résolution.
Outre les unités MAC de l'array de processeur et 12 Mo de SRAM sur la puce, l'architecture X1 comprend une connectivité à la DRAM de LPDDR4 externe pour le blocage du poids, la configuration et le stockage d'activation interne. Il existe également une pcie GEN3 / 4 pour connecter un processeur hôte.
La société propose également le kit de développement logiciel Inferx Edge Inference avec le compilateur de modèle et le logiciel d'exécution. Le compilateur de modèle convertit des modèles exprimés en Tensorflow Lite ou Torschscript et les compile à fonctionner directement sur l'accélérateur X1. L'exécution INFERX contrôle l'exécution du modèle et le X1 traite la vapeur de données pour générer les résultats de l'inférence.