
Accelerator Inferx X1 Edge Inference برای پردازش حجم کار MPIXEL در زمان واقعی طراحی شده است که نیاز به پشتیبانی پهنای باند بالا برای مدل های یادگیری عمیق دارد که با اندازه های دسته ای کوچک در زمان واقعی کار می کنند. حجم کار معمولی دارای شبکه های عمیق با بسیاری از نقشه های ویژگی ها و انواع مختلف اپراتور است، این شرکت را توضیح می دهد. آنها همچنین ممکن است اهداف دقت مدل را داشته باشند که نیاز به استفاده از دقت های مخلوط، از جمله INT8، INT16 و BF16 دارند. شتاب دهنده اجازه می دهد تا ترکیب بین لایه ها را ترک کند و همچنین برای اندازه گیری کم زمان بندی تاخیر (پردازشگر B = 1) به طور معمول توسط این حجم کار مورد نیاز است.
شتاب دهنده از معماری X86 و ARM و انتخاب سیستم عامل پشتیبانی می کند. این پشتیبانی از انواع دوربین های ورودی دوربین، IR، اولتراسونیک و RF و استانداردهای اترنت، USB و Wi-Fi را پشتیبانی می کند.
آرایه پردازنده پویا X1 برای پشتیبانی از مدل های موجود و آینده AI / ML طراحی شده است و ادعا می شود که سرعت و کارایی ASIC را با تکنولوژی منطق کنترل بازپرداخت ترکیب می کند که با امکان پذیرش و استقرار تکنولوژی های جدید مدل استنتاج از طریق زمینه، آن را از بین می برد به روز رسانی ها معماری شتاب دهنده به پشتیبانی از پردازش انواع داده های متعدد از جمله دوربین های با وضوح بالا کمک می کند.
علاوه بر دستگاه های MAC پردازنده و 12Mbyte از SRAM در تراشه، معماری X1 شامل اتصال به DRAM LPDDR4 خارجی برای وزن مدل، پیکربندی و ذخیره سازی فعال سازی داخلی است. همچنین Gen3 / 4 PCIE برای اتصال به یک پردازنده میزبان وجود دارد.
این شرکت همچنین دارای کیت توسعه نرم افزار Inferx Edge Inference با کامپایلر مدل و نرم افزار Runtime ارائه می دهد. کامپایلر مدل مدل های بیان شده در Tensorflow Lite یا Torschcript را تبدیل می کند و آنها را به طور مستقیم در شتاب دهنده X1 عمل می کند. Runtime Inferx کنترل اجرای مدل را کنترل می کند و X1 فرآیند Steam داده ها را برای تولید نتایج استنتاج می کند.