Publication:
Aceleración de AI en dispositivos de bajo consumo

Loading...
Thumbnail Image
Official URL
Full text at PDC
Publication Date
2020
Editors
Journal Title
Journal ISSN
Volume Title
Publisher
Citations
Google Scholar
Research Projects
Organizational Units
Journal Issue
Abstract
En la actualidad podemos observar un claro auge de la introducción de técnicas de aprendizaje automático aplicadas a múltiples campos como por ejemplo la robótica, biometría mediante verificación facial, reconocimiento de voz, clasificación de objetos, etc. En respuesta a este auge, resulta cada vez más común la fabricación y distribución de hardware de altas prestaciones, pero con un consumo demasiado elevado y con un propósito generalista, no enfocado en ningún caso a procesos de aceleración de algoritmos clásicos de Inteligencia Artificial en general, o Aprendizaje Automático en particular. Por ello, cada vez más, se encuentran en el mercado nuevos dispositivos especializados en IA (Inteligencia Artificial) que conjugan bajo consumo y alto rendimiento. Este tipo de dispositivos se centran en la aceleración de procesos de entrenamiento o inferencia sobre redes neuronales. En el presente trabajo realizaremos un estudio centrándonos en el proceso de inferencia, cuyos principales retos desde el punto de vista computacional son los estrictos requisitos a nivel de consumo energético y tiempo de respuesta. Concretamente, en este trabajo nos centraremos en realizar el análisis de un nuevo hardware de propósito específico (concretamente el procesador Kendryte K210), incidiendo sobre su rendimiento y consumo energético sobre una aplicación de visión artificial empotrada para la clasificación automática de objetos. Para alcanzar este objetivo se han utilizado dos placas, Maix Go y Maix Bit del fabricante Seeed Studio Sipeed, un conjunto de datos del reto ImageNet ILSVRC 2012 y modelos MobileNet v1. Se han realizado los mismos experimentos en ambas placas para determinar la diferencia de consumo energético y rendimiento usando dos entornos de desarrollo, MicroPython y Standalone SDK C.
Nowdays we can observe a clear boom in the introduction of automatic learning techniques applied to multiple fields such as robotics, biometry through facial verification, voice recognition, object classification, etc. In response to this trend, it is increasingly common to manufacture and distribute high performance hardware, but at the exchange of an unacceptable power consumption and with a generalist purpose, not focused in any case on the acceleration of algorithms in Artificial Intelligence (AI) in general, or Machine Learning (ML) in particular. For this reason, more and more, new devices specialized in AI are available in the market, combining low power consumption and high performance. These types of devices are focused on accelerating training processes or inference on neuronal networks. In this work, we will carry out a study focusing on the inference process, whose main challenges from the computational point of view are the strict requirements in terms of energy consumption and response time. Specifically, in this work we will focus on the analysis of a new domain-specific accelerator –DSA– (specifically the Kendryte K210 processor) with emphasis on its performance and power consumption on an embedded machine-vision application for automatic object classification. To achieve this goal, we have used two boards, Maix Go and Maix Bit manufactured by Seeed Studio Sipeed, a data set from the ImageNet ILSVRC 2012 challenge and MobileNet v1 models. The same experiments have been performed on both boards to determine the difference in consumption and performance using two development environments, MicroPython and Standalone SDK C.
Description
Trabajo de fin de Grado en Ingeniería de Computadores, Facultad de Informática UCM, Departamento de Arquitectura de Computadores e Informática, Curso 2019/2020.
Unesco subjects
Keywords
Citation