L'accélérateur de réseau neuronal basé sur FPGA surpasse les GPU
Il a été démontré comme un CNN GoogLeNet Inception-v1, avec une résolution entière de huit bits. Il a réalisé 16,8 terra d'opérations par seconde (TOPS) et peut déduire plus de 5 300 images par seconde sur une Xilinx Virtex UltraScale + XCVU9P-3 fpga. L’approche modulaire et évolutive convient parfaitement à la détection d’objets et aux applications de traitement vidéo sur le bord et dans le cloud, a expliqué Fawcett, ainsi que pour l’inférence dans les centres de données et les caméras intelligentes.
La DPU peut être configurée pour fournir des performances de calcul optimales pour les topologies de réseaux neuronaux dans les applications d’apprentissage automatique, en utilisant l’architecture DSP parallèle, la mémoire distribuée et la reconfigurabilité de la logique et de la connectivité pour différents algorithmes.
La DPU réalise des performances supérieures de plus de 50% à celles de toutes les CNN concurrentes et surpasse les GPU pour un budget énergétique ou de coûts donné, affirme la société. «Fpga est une plate-forme et une architecture à la pointe du progrès, très flexibles pour l’avenir et capables de surperformer les GPU en IA avec un temps de latence réduit», a ajouté Fawcett.
La société a également annoncé qu’elle parrainerait un doctorat en philosophie de l’Université d’Oxford pour étudier les techniques permettant de mettre en œuvre une accélération de l’apprentissage en profondeur sur les fichiers fpgas. Ce travail sera réalisé en collaboration avec la propre recherche d’Omnitek sur les moteurs et algorithmes de calcul d’IA.
