Cuando escuchas la palabra aprendizaje automático (ML), ¿te imaginas instantáneamente una gran sala de servidores, sudando profusamente, para procesar enormes volúmenes de datos?
Está bien incluso si no lo haces, ya que el hardware que hace posible el ML se está volviendo más pequeño que nunca.
Aunque comparar los tamaños de los dispositivos computacionales a lo largo de décadas es bastante injusto, la idea aquí es que el futuro del ML es más compacto y menos intensivo en recursos. Esta compacidad es posible gracias a un tipo de ML llamado TinyML. Con tinyML, puedes implementar software de inteligencia artificial directamente en dispositivos de borde, haciéndolo computacionalmente viable y utilizable para aplicaciones inteligentes.
Con el hardware TinyML, es fácil mantener de manera segura tus modelos de aprendizaje automático con microcontroladores integrados u otros mecanismos pequeños y de bajo consumo. Estos dispositivos tienen menos latencia, más poder computacional y una fuerte seguridad de datos. A medida que nos acercamos a la era futurista de la revolución cuántica, tinyML se incorporará a gran escala para acceder a los datos de manera flexible y directa.
¿Qué es TinyML?
TinyML es un campo emergente que se encuentra en la intersección del ML y los sistemas integrados. Se centra en el desarrollo e implementación de modelos de ML en dispositivos de bajo consumo. TinyML también se refiere como un subconjunto de la IA de borde, ya que ofrece capacidades de IA a dispositivos integrados. Tiene menos asignación de memoria, poder de procesamiento y vida útil de la batería, pero mayor conectividad y accesibilidad. Abarca una gama de técnicas, como la compresión de modelos, inferencia eficiente y aceleradores de hardware.
Historia de TinyML
Inicialmente, los investigadores y científicos informáticos usaban tubos de vacío de alta gama o integradores numéricos electrónicos y computadoras (ENIAC) cuando la revolución tecnológica de EE. UU. entró en pleno apogeo. Estos dispositivos voluminosos también se usaban para almacenar datos que luego se utilizaban con fines científicos e inteligencia artificial.
Aquí tienes la imagen de una computadora utilizada por la primera generación de investigadores de inteligencia artificial (IA) en la década de 1950.
Fuente: Wikipedia
Aquí tienes un pequeño equipo que tiene solo unos pocos centímetros de largo y puede ejecutar ML hoy en día.
Fuente: QueNube
En otras palabras, TinML puede verse como el matrimonio entre ML y dispositivos IoT integrados. Con TinyML, ML los modelos están optimizados para funcionar en dispositivos de ultra bajo consumo y baja memoria o dispositivos con recursos limitados como microcontroladores.
Un sistema embebido tradicional es un dispositivo de computación que consume energía mínima, lo que hace posible que funcione con baterías, como baterías de celda de moneda, durante días, meses o incluso años.
La forma más fácil de comprender la idea de TinyML es pensar en la tecnología de asistente de voz de tu smartphone. Cada vez que dices "OK, Google" o "Hey Siri", quieres que tu dispositivo responda de inmediato. Para esto, el modelo de ML debe ejecutarse localmente en lugar de enviar datos a un centro de datos para su procesamiento.
Ejemplos de TinyML
Hay más ejemplos de TinyML aplicándose a dispositivos más pequeños a tu alrededor. Desde hace al menos unos años, ha habido algún tipo de redes neuronales artificiales en nuestros smartphones. Esto hace viable el aprendizaje profundo embebido, haciendo posible el reconocimiento de voz y la clasificación de imágenes en el dispositivo. Estas redes neuronales también son cruciales para capturar imágenes de alta calidad y mejorar el reconocimiento de gestos.
Además de permitir que los dispositivos de bajo consumo ejecuten modelos de ML, TinyML se trata de ejecutar ML inferencias en dispositivos IoT computando datos en tiempo real. Este método de procesamiento de datos más cerca de la fuente de origen se llama computación en el borde. Una ML inferencia es un proceso de ejecutar puntos de datos (en vivo) en un ML modelo para computar la salida. También se refiere como "poner un modelo de ML en producción" u "operacionalizar un modelo".
TensorFlow Lite, uTensor, AIfES, y Arm’s CMSIS-NN son algunos de los marcos más populares utilizados para implementar modelos de ML en dispositivos IoT. TensorFlow Lite, un marco de aprendizaje profundo de código abierto creado por Google, es el más popular entre ellos. Edge Impulse y OpenMV son algunas plataformas utilizadas para el desarrollo de aplicaciones TinyML.
No obstante, no es prudente comparar ML y TinyML. En cambio, es mejor ver TinyML como una subcategoría de ML. Eso es porque TinyML no se puede usar en todos los casos donde ML se emplea actualmente. Piensa en TinyML como ML en modo de supervivencia.
¿Quieres aprender más sobre Software de aprendizaje automático? Explora los productos de Aprendizaje Automático.
Crecimiento de TinyML
Es bien sabido que entrenar modelos de ML y ejecutar inferencias en ellos son computacionalmente costosos. El aprendizaje profundo es voraz tanto en energía como en datos. El tamaño de los modelos de aprendizaje profundo de última generación (SOTA) ha experimentado un crecimiento de 10 veces año tras año. Aquí hay un gráfico que muestra el aumento en los requisitos computacionales para los modelos de SOTA ML modelos.
Fuente: OpenAI
Usar TinyML para encoger un modelo de ML en dispositivos embebidos más pequeños hace posible ejecutar inferencias de modelos de bajo consumo. Esto permite que los microcontroladores funcionen durante mucho tiempo sin ser cargados.
Un CPU estándar de consumo consume entre 65 vatios y 85 vatios. Un microcontrolador consume mil veces menos energía que los CPU de consumo tradicionales, medido en milivatios o microwatios. A medida que la demanda de arquitectura sin servidor y computación en el borde crece, las industrias verán un aumento en el consumo de TinyML con la reciente afirmación de encuestas basadas en datos en el mismo contexto. La mayoría de los editores sostienen que se proyecta que el mercado de TinyML crezca a una tasa de crecimiento anual compuesta del 13% entre 2023-2030. Será un giro de aplicaciones inteligentes futuras que requerirán hardware de bajo costo, computacionalmente económico pero robusto y seguro.
Beneficios de TinyML
Como los datos no tienen que enviarse a un servidor para ejecutar inferencias, TinyML ofrece una salida de baja latencia. Esto también significa que se utiliza menos ancho de banda de internet. Como los datos no se almacenan en ningún servidor y el modelo se ejecuta localmente, también hay una mayor privacidad de los datos.
Aquí hay algunos otros beneficios de TinyML:
- Menor consumo de energía: Estos modelos están diseñados para ejecutarse en microcontroladores que consumen la milésima parte del poder de procesamiento total de una unidad central de procesamiento (CPU). Esto resulta en ahorros de energía significativos en comparación con los modelos de aprendizaje automático que se implementan en un servidor en la nube.
- Vida útil de la batería extendida: Los dispositivos que usan tinyML tienen vidas de batería más largas y pueden operar por períodos más largos que otros dispositivos de hardware tradicionales.
- Menor latencia: Al realizar inferencias directamente en el dispositivo, tinyML reduce la necesidad de enviar los datos al servidor. Esto resulta en menor latencia y recuperación de datos más rápida. También reduce los retrasos en la red y los tiempos de respuesta.
- Reducción de retrasos: Aplicaciones como procesamiento de lenguaje natural, reconocimiento de voz, análisis predictivo, y detección de anomalías se benefician del procesamiento directo e inmediato, mejorando así la experiencia del usuario y la compatibilidad del sistema.
- Menor uso de ancho de banda: TinyML almacena datos localmente en tu dispositivo, lo que no sobrecarga el ancho de banda de la red y ahorra más costos. Como no almacenas datos en un servidor de internet, no necesitas pagar por transmisión de datos o intercambio electrónico de datos y eso no agota tu paquete de datos.
- Mejor privacidad de datos: Mantener la inferencia directamente en tu dispositivo reduce el riesgo de robo de datos y aumenta la privacidad. También minimiza el riesgo de acceso no autorizado y piratería ya que la información permanece en el dispositivo local. Este enfoque puede seguirse para industrias que albergan información sensible como monitoreo de salud, autenticación biométrica o sistemas de seguridad.
Pequeñas motas de una revolución global
TinyML hace posible dar inteligencia a dispositivos pequeños. Dado que los microcontroladores están casi en todas partes y recopilan grandes cantidades de datos, TinyML puede ayudar a utilizar mejor los datos recopilados.
Agricultura, manufactura, gestión de la cadena de suministro, salud, transporte, conservación de la vida silvestre, y seguridad son algunos de los campos donde TinyML tiene un inmenso potencial. De hecho, TinyML tiene el potencial de cambiar el mundo que nos rodea. Imagina cada sensor ahí fuera con la capacidad de ser inteligente y reactivo a nosotros.
Aprende cómo tinyML puede simplificar los marcos de aprendizaje automático para construir aplicaciones inteligentes y escalar tu volante de IA para el éxito futuro.

Amal Joby
Amal is a Research Analyst at G2 researching the cybersecurity, blockchain, and machine learning space. He's fascinated by the human mind and hopes to decipher it in its entirety one day. In his free time, you can find him reading books, obsessing over sci-fi movies, or fighting the urge to have a slice of pizza.