Quando você ouve a palavra aprendizado de máquina (ML), você imediatamente imagina uma grande sala de servidores, suando profusamente, para processar grandes volumes de dados?
Não tem problema se você não imagina, pois o hardware que torna o ML possível está se tornando menor do que nunca.
Embora comparar os tamanhos dos dispositivos computacionais ao longo das décadas seja bastante injusto, a ideia aqui é que o futuro do ML é mais compacto e menos intensivo em recursos. Essa compacidade é possibilitada por um tipo de ML chamado TinyML. Com o tinyML, você pode implantar software de inteligência artificial diretamente em dispositivos de borda, tornando-o computacionalmente viável e utilizável para aplicativos inteligentes.
Com o hardware TinyML, é fácil manter seus modelos de aprendizado de máquina com microcontroladores embutidos ou outros mecanismos pequenos e de baixo consumo de energia. Esses dispositivos têm menos latência, mais poder computacional e forte segurança de dados. À medida que nos aproximamos da era futurista da revolução quântica, o tinyML será incorporado em larga escala para acessar dados de forma flexível e direta.
O que é TinyML?
TinyML é um campo emergente que está na interseção de ML e sistemas embarcados. Ele se concentra no desenvolvimento e implantação de modelos de ML em dispositivos de baixo consumo de energia. TinyML também é referido como um subconjunto de IA de borda, pois oferece capacidades de IA para dispositivos embarcados. Ele tem menos alocação de memória, poder de processamento e vida útil da bateria, mas maior conectividade e acessibilidade. Abrange uma gama de técnicas, como compressão de modelos, inferência eficiente e aceleradores de hardware.
História do TinyML
Inicialmente, pesquisadores e cientistas da computação usavam tubos de vácuo de ponta ou integradores numéricos eletrônicos e computadores (ENIAC) à medida que a revolução tecnológica dos EUA entrava em plena força. Esses dispositivos volumosos também eram usados para armazenar dados que mais tarde eram usados para fins científicos e inteligência artificial.
Aqui está a imagem de um computador usado pela primeira geração de pesquisadores de inteligência artificial (IA) na década de 1950.
Fonte: Wikipedia
Aqui está um pequeno equipamento que tem apenas alguns centímetros de comprimento e pode executar ML hoje.
Fonte: QueNube
Em outras palavras, o TinML pode ser visto como o casamento entre ML e dispositivos IoT embarcados. Com o TinyML, ML os modelos são otimizados para rodar em dispositivos de ultra-baixo consumo de energia e baixa memória ou dispositivos com recursos limitados, como microcontroladores.
Um sistema embarcado tradicional é um dispositivo de computação que consome energia mínima, tornando possível operá-lo usando baterias, como baterias de célula de moeda, por dias, meses ou até anos.
A maneira mais fácil de entender a ideia do TinyML é pensar na tecnologia de assistente de voz do seu smartphone. Sempre que você diz "OK, Google" ou "Hey Siri", você quer que seu dispositivo responda imediatamente. Para isso, o modelo de ML deve rodar localmente em vez de enviar dados para um data center para processamento.
Exemplos de TinyML
Existem mais exemplos de TinyML sendo aplicados a dispositivos menores ao seu redor. Há pelo menos alguns anos, há algum tipo de redes neurais artificiais em nossos smartphones. Isso torna o aprendizado profundo embarcado viável, tornando possível o reconhecimento de fala e a classificação de imagens no dispositivo. Essas redes neurais também são cruciais para capturar imagens de alta qualidade e melhorar o reconhecimento de gestos.
Além de permitir que dispositivos de baixo consumo de energia executem modelos de ML, o TinyML é sobre executar ML inferências em dispositivos IoT computando dados em tempo real. Este método de processamento de dados mais próximo da fonte de origem é chamado de computação de borda. Uma ML inferência é um processo de execução de pontos de dados (ao vivo) em um modelo de ML para calcular a saída. Também é referido como "colocar um modelo de ML em produção" ou "operacionalizar um modelo".
TensorFlow Lite, uTensor, AIfES, e Arm’s CMSIS-NN são alguns dos frameworks mais populares usados para implantar modelos de ML em dispositivos IoT. TensorFlow Lite, um framework de aprendizado profundo de código aberto criado pelo Google, é o mais popular entre eles. Edge Impulse e OpenMV são algumas plataformas usadas para desenvolvimento de aplicativos TinyML.
No entanto, não é sábio comparar ML e TinyML. Em vez disso, é melhor ver o TinyML como uma subcategoria de ML. Isso porque o TinyML não pode ser usado em todas as instâncias onde o ML é atualmente empregado. Pense no TinyML como ML em modo de sobrevivência.
Quer aprender mais sobre Software de Aprendizado de Máquina? Explore os produtos de Aprendizado de Máquina.
Crescimento do TinyML
É bem conhecido que treinar modelos de ML e executar inferências neles são computacionalmente caros. O aprendizado profundo é faminto por energia e dados. O tamanho dos modelos de aprendizado profundo de última geração (SOTA) testemunhou um crescimento de 10 vezes ano após ano. Aqui está um gráfico que mostra o aumento nos requisitos computacionais para modelos de ML SOTA.
Fonte: OpenAI
Usar o TinyML para encolher um modelo de ML em dispositivos embarcados menores torna possível executar inferências de modelo de baixo consumo de energia. Isso permite que microcontroladores funcionem por um longo tempo sem serem carregados.
Um CPU de consumidor padrão consome entre 65 watts e 85 watts. Um microcontrolador consome mil vezes menos energia do que CPUs de consumidor tradicionais, medido em miliwatts ou microwatts. À medida que a demanda por arquitetura sem servidor e computação de borda cresce, as indústrias verão um aumento no consumo de TinyML com a recente afirmação de pesquisas baseadas em dados no mesmo contexto. A maioria dos editores afirma que o mercado de TinyML está projetado para crescer a uma taxa de crescimento anual composta de 13% entre 2023-2030. Será um giro de aplicativos inteligentes futuros que exigirão hardware de baixo custo, computacionalmente barato, mas robusto e seguro.
Benefícios do TinyML
Como os dados não precisam ser enviados para um servidor para executar inferências, o TinyML oferece saída de baixa latência. Isso também significa que menos largura de banda da internet é usada. Como os dados não são armazenados em nenhum servidor e o modelo roda localmente, há também uma maior privacidade dos dados.
Aqui estão alguns outros benefícios do TinyML:
- Menor consumo de energia: Esses modelos são projetados para rodar em microcontroladores que consomem a milésima parte do poder de processamento total de uma unidade central de processamento (CPU). Isso resulta em economias significativas de energia em comparação com modelos de aprendizado de máquina que são implantados em um servidor em nuvem.
- Vida útil da bateria estendida: Dispositivos que usam tinyML têm vidas úteis de bateria mais longas e podem operar por períodos mais longos do que outros dispositivos de hardware tradicionais.
- Menor latência: Ao realizar inferências diretamente no dispositivo, o tinyML reduz a necessidade de enviar os dados para o servidor. Isso resulta em menor latência e recuperação de dados mais rápida. Também reduz atrasos na rede e tempos de resposta.
- Redução de atrasos: Aplicações como processamento de linguagem natural, reconhecimento de fala, análise preditiva e detecção de anomalias se beneficiam do processamento direto e imediato, melhorando assim a experiência do usuário e a compatibilidade do sistema.
- Menor uso de largura de banda: O TinyML armazena dados localmente no seu dispositivo, o que não sobrecarrega a largura de banda da rede e economiza mais custos. Como você não armazena dados em um servidor de internet, não precisa pagar por transmissão de dados ou troca eletrônica de dados e isso não esgota seu pacote de dados.
- Melhor privacidade dos dados: Manter a inferência diretamente no seu dispositivo reduz o risco de roubo de dados e aumenta a privacidade. Também minimiza o risco de acesso não autorizado e hacking, pois as informações permanecem no dispositivo local. Essa abordagem pode ser seguida para indústrias que hospedam informações sensíveis, como monitoramento de saúde, autenticação biométrica ou sistemas de segurança.
Pequenos pontos de uma revolução global
O TinyML torna possível dar inteligência a dispositivos pequenos. Como os microcontroladores estão quase em toda parte e coletam grandes quantidades de dados, o TinyML pode ajudar a melhor utilizar os dados coletados.
Agricultura, manufatura, gestão da cadeia de suprimentos, saúde, transporte, conservação da vida selvagem e segurança são alguns dos campos onde o TinyML tem imenso potencial. De fato, o TinyML tem o potencial de mudar o mundo ao nosso redor. Imagine cada sensor por aí com a capacidade de ser inteligente e reativo a nós.
Aprenda como o tinyML pode simplificar frameworks de aprendizado de máquina para construir aplicativos inteligentes e escalar seu volante de IA para o sucesso futuro.

Amal Joby
Amal is a Research Analyst at G2 researching the cybersecurity, blockchain, and machine learning space. He's fascinated by the human mind and hopes to decipher it in its entirety one day. In his free time, you can find him reading books, obsessing over sci-fi movies, or fighting the urge to have a slice of pizza.