Kies jou land of streek.

EnglishFrançaispolskiSlovenija한국의DeutschSvenskaSlovenskáMagyarországItaliaहिंदीрусскийTiếng ViệtSuomiespañolKongeriketPortuguêsภาษาไทยБългарски езикromânescČeštinaGaeilgeעִבְרִיתالعربيةPilipinoDanskMelayuIndonesiaHrvatskaفارسیNederland繁体中文Türk diliΕλλάδαRepublika e ShqipërisëአማርኛAzərbaycanEesti VabariikEuskeraБеларусьíslenskaBosnaAfrikaansIsiXhosaisiZuluCambodiaსაქართველოҚазақшаAyitiHausaКыргыз тилиGalegoCatalàCorsaKurdîLatviešuພາສາລາວlietuviųLëtzebuergeschmalaɡasʲМакедонскиMaoriМонголулсবাংলা ভাষারမြန်မာनेपालीپښتوChicheŵaCрпскиSesothoසිංහලKiswahiliТоҷикӣاردوУкраїна

Edge Inference Accelerator het 'n oog op Megapixel Vision Systems

Die Inferx X1-randinferensieversneller is ontwerp vir die verwerking van real-time MPIXEL-visie-werkladings wat hoë bandwydte benodig vir diep leermodelle wat in reële tyd met klein joernaalgrootte funksioneer. Tipiese werkladings het diep netwerke met baie funksie kaarte en verskeie operateur tipes, verduidelik die maatskappy. Hulle kan ook model akkuraatheidsdoelwitte hê wat die gebruik van gemengde akkuraatheid benodig, insluitend INT8, INT16 en BF16. Die versneller laat 'n mengsel tussen lae toe en is ook ontwerp vir die lae latensie-batchgrootte (B = 1 inferensieverwerking) wat tipies deur hierdie werkladings benodig word.

Die versneller ondersteun 'n X86- en Armargitektuur en 'n keuse van OS. Dit ondersteun kamera, IR, ultrasoniese en RF sensor insette en Ethernet, USB en Wi-Fi Comms standaarde.


Die X1-dinamiese Tensorverwerker-skikking is ontwerp om bestaande en toekomstige AI / ML-modelle te ondersteun en word beweer dat die spoed en doeltreffendheid van 'n ASIC kombineer met herkonfigureerbare beheer logika tegnologie wat die toekoms van die aanneming en implementering van nuwe inferensie-model tegnologie via die veld kan aktiveer. updates. Die versneller argitektuur kan ondersteuning vir die verwerking van verskeie data tipes insluitend hoë resolusie kameras.



Benewens die verwerkerskikking se Mac-eenhede en 12Mbyte van On-Chip SRAM, sluit die X1-argitektuur in verbinding met eksterne LPDDR4 DRAM vir modelgewig, konfigurasie en interne aktivering. Daar is ook Gen3 / 4 PCIE vir konneksie vir 'n gasheerverwerker.

Die maatskappy bied ook die inferx rand inferensie sagteware ontwikkeling kit met model samesteller en runtime sagteware. Die model samesteller omskep modelle uitgedruk in Tensorflow Lite of TorschScript en stel hulle saam om direk op die X1 Accelerator te funksioneer. Die inferx-runtime beheer die uitvoering van die model en die X1 verwerk die data stoom om die inferensie resultate te genereer.