Pilih negara atau wilayah Anda.

EnglishFrançaispolskiSlovenija한국의DeutschSvenskaSlovenskáMagyarországItaliaहिंदीрусскийTiếng ViệtSuomiespañolKongeriketPortuguêsภาษาไทยБългарски езикromânescČeštinaGaeilgeעִבְרִיתالعربيةPilipinoDanskMelayuIndonesiaHrvatskaفارسیNederland繁体中文Türk diliΕλλάδαRepublika e ShqipërisëአማርኛAzərbaycanEesti VabariikEuskeraБеларусьíslenskaBosnaAfrikaansIsiXhosaisiZuluCambodiaსაქართველოҚазақшаAyitiHausaКыргыз тилиGalegoCatalàCorsaKurdîLatviešuພາສາລາວlietuviųLëtzebuergeschmalaɡasʲМакедонскиMaoriМонголулсবাংলা ভাষারမြန်မာनेपालीپښتوChicheŵaCрпскиSesothoසිංහලKiswahiliТоҷикӣاردوУкраїна

Edge Inference Accelerator memiliki mata pada sistem visi megapiksel

Inferx X1 Edge Inferensi Accelerator dirancang untuk memproses beban kerja Visi Mpixel real-time yang membutuhkan dukungan bandwidth tinggi untuk model pembelajaran mendalam yang beroperasi dengan ukuran batch kecil secara real time. Beban kerja yang khas memiliki jaringan yang dalam dengan banyak peta fitur dan beberapa jenis operator, menjelaskan perusahaan. Mereka mungkin juga memiliki target akurasi model yang memerlukan penggunaan presisi campuran, termasuk INT8, INT16 dan BF16. Accelerator memungkinkan campuran antara lapisan dan juga dirancang untuk ukuran batch latensi rendah (b = 1 pengolahan inferensi) yang biasanya diperlukan oleh beban kerja ini.

Accelerator mendukung arsitektur X86 dan ARM dan pilihan OS. Ini mendukung jenis input kamera, IR, ultrasonik dan sensor RF dan standar Wi-Fi, USB dan Wi-Fi.


X1 Dynamic Tensor Processor Array dirancang untuk mendukung model AI / ML yang ada dan di masa depan dan diklaim menggabungkan kecepatan dan efisiensi ASIC dengan teknologi logika kontrol yang dapat dikonfigurasi ulang yang futureproof dengan memungkinkan adopsi dan penyebaran teknologi model inferensi baru melalui bidang pembaruan. Arsitektur Accelerator memungkinkan dukungan untuk memproses beberapa tipe data termasuk kamera resolusi tinggi.



Selain unit MAC array prosesor dan 12mbyte SRAM on-chip, arsitektur X1 termasuk konektivitas ke DRAM LPDDR4 eksternal untuk berat model, konfigurasi dan penyimpanan aktivasi internal. Ada juga PCIE gen3 / 4 untuk konektivitas ke prosesor host.

Perusahaan juga menawarkan kit pengembangan perangkat lunak Inferx Edge Inference dengan Model Compiler dan Runtime Software. Model kompiler mengkonversi model yang diungkapkan dalam tensorflow lite atau torschscript dan mengkompilasi mereka untuk beroperasi langsung pada akselerator X1. Runtime Inferx mengendalikan eksekusi model dan X1 memproses data Steam untuk menghasilkan hasil inferensi.