Introducing G2.ai, the future of software buying.Try now

Was ist TinyML? Eine kurze Einführung und Vorteile

20. Juni 2024
von Amal Joby

Wenn Sie das Wort maschinelles Lernen (ML) hören, stellen Sie sich dann sofort einen großen Raum voller Server vor, die stark schwitzen, um riesige Datenmengen zu verarbeiten?

Es ist in Ordnung, wenn nicht, denn die Hardware, die ML möglich macht, wird immer kleiner.

Obwohl es unfair ist, die Größen von Rechengeräten über Jahrzehnte hinweg zu vergleichen, ist die Idee hier, dass die Zukunft von ML kompakter und weniger ressourcenintensiv ist. Diese Kompaktheit wird durch eine Art von ML namens TinyML möglich gemacht. Mit TinyML können Sie künstliche Intelligenz-Software direkt auf Edge-Geräten bereitstellen, was es rechnerisch machbar und für intelligente Apps nutzbar macht.

Mit TinyML-Hardware ist es einfach, Ihre maschinellen Lernmodelle sicher mit eingebetteten Mikrocontrollern oder anderen kleinen, stromsparenden Mechanismen zu speichern. Diese Geräte haben weniger Latenz, mehr Rechenleistung und starke Datensicherheit. Während wir uns der futuristischen Ära der Quantenrevolution nähern, wird TinyML in großem Maßstab integriert werden, um Daten flexibel und direkt zugänglich zu machen.

Geschichte von TinyML

Ursprünglich verwendeten Forscher und Informatiker hochwertige Vakuumröhren oder elektronische numerische Integratoren und Computer (ENIAC), als die US-Technologierevolution in vollem Gange war. Diese sperrigen Geräte wurden auch verwendet, um Daten zu speichern, die später für wissenschaftliche Zwecke und künstliche Intelligenz verwendet wurden.

Hier ist das Bild eines Computers, der von der ersten Generation von künstliche Intelligenz (KI)-Forschern in den 1950er Jahren verwendet wurde.

Computer used by the first generation of artificial intelligence researchers in the 1950s

Quelle: Wikipedia

Hier ist ein kleines Gerät, das nur wenige Zentimeter lang ist und heute ML ausführen kann.

Equipment that’s only a few centimeters long and can run machine learning today

Quelle: QueNube

Mit anderen Worten, TinML kann als die Verbindung zwischen ML und eingebetteten IoT-Geräten gesehen werden. Mit TinyML werden ML Modelle optimiert, um auf ultra-niedrigem Stromverbrauch und speicherarmen Geräten oder ressourcenbeschränkten Geräten wie Mikrocontrollern zu laufen.

Ein traditionelles eingebettetes System ist ein Rechengerät, das minimalen Energieverbrauch hat, was es möglich macht, es mit Batterien wie Knopfzellenbatterien für Tage, Monate oder sogar Jahre zu betreiben.

Der einfachste Weg, die Idee von TinyML zu verstehen, ist, an die Sprachassistenten-Technologie Ihres Smartphones zu denken. Wann immer Sie „OK, Google“ oder „Hey Siri“ sagen, möchten Sie, dass Ihr Gerät sofort reagiert. Dafür muss das ML-Modell lokal laufen, anstatt Daten zur Verarbeitung an ein Rechenzentrum zu senden.

Beispiele für TinyML

Es gibt mehr Beispiele für TinyML, die auf kleinere Geräte um Sie herum angewendet werden. Seit mindestens ein paar Jahren gibt es eine Art von künstlichen neuronalen Netzwerken in unseren Smartphones. Dies macht eingebettetes Deep Learning möglich, was die Spracherkennung und Bildklassifizierung auf dem Gerät ermöglicht. Diese neuronalen Netzwerke sind auch entscheidend für das Erfassen von hochqualitativen Bildern und die Verbesserung der Gestenerkennung.

Zusätzlich zur Ermöglichung von stromsparenden Geräten, ML-Modelle auszuführen, geht es bei TinyML darum, ML Inferenzen in IoT-Geräten durch die Echtzeit-Datenverarbeitung auszuführen. Diese Methode der Datenverarbeitung in der Nähe der Ursprungsquelle wird Edge Computing genannt. Eine ML Inferenz ist ein Prozess, bei dem (Live-)Datenpunkte in ein ML Modell eingespeist werden, um ein Ergebnis zu berechnen. Es wird auch als „ein ML-Modell in Produktion bringen“ oder „ein Modell operationalisieren“ bezeichnet.

TensorFlow Lite, uTensor, AIfES und Arm’s CMSIS-NN sind einige der beliebtesten Frameworks, die zur Bereitstellung von ML Modellen in IoT-Geräten verwendet werden. TensorFlow Lite, ein von Google entwickeltes Open-Source-Deep-Learning-Framework, ist das beliebteste unter ihnen. Edge Impulse und OpenMV sind einige Plattformen, die für die Entwicklung von TinyML-Anwendungen verwendet werden.

Allerdings ist es nicht klug, ML und TinyML zu vergleichen. Stattdessen ist es am besten, TinyML als eine Unterkategorie von ML zu sehen. Das liegt daran, dass TinyML nicht in allen Fällen verwendet werden kann, in denen ML derzeit eingesetzt wird. Denken Sie an TinyML als ML im Überlebensmodus.

Möchten Sie mehr über Maschinelles Lernsoftware erfahren? Erkunden Sie Maschinelles Lernen Produkte.

Wachstum von TinyML

Es ist bekannt, dass das Trainieren von ML Modellen und das Ausführen von Inferenz auf ihnen rechnerisch teuer ist. Deep Learning ist sowohl hungrig nach Energie als auch nach Daten. Die Größe von State-of-the-Art (SOTA) Deep-Learning-Modellen hat ein 10-faches Wachstum Jahr für Jahr erlebt. Hier ist ein Diagramm, das den Anstieg der Rechenanforderungen für SOTA ML Modelle zeigt.

Graph showing the increase in computational requirements for SOTA machine learning models

Quelle: OpenAI

Durch die Verwendung von TinyML, um ein ML Modell in kleinere eingebettete Geräte zu schrumpfen, wird es möglich, eine stromsparende Modellinferenz auszuführen. Dies ermöglicht es Mikrocontrollern, lange Zeit ohne Aufladung zu laufen.

Eine Standard-Consumer-CPU verbraucht zwischen 65 Watt und 85 Watt. Ein Mikrocontroller verbraucht tausendmal weniger Energie als herkömmliche Consumer-CPUs, gemessen in Milliwatt oder Mikrowatt. Da die Nachfrage nach serverloser Architektur und Edge Computing wächst, werden die Branchen einen Anstieg des TinyML-Verbrauchs mit der jüngsten Bestätigung von datengesteuerten Umfragen im gleichen Kontext erleben. Die meisten Verlage behaupten, dass der TinyML-Markt zwischen 2023 und 2030 mit einer durchschnittlichen jährlichen Wachstumsrate von 13 % wachsen wird. Es wird ein Spin zukünftiger intelligenter Anwendungen sein, die eine niedrige, rechnerisch kostengünstige, aber dennoch robuste und sichere Hardware erfordern.

Vorteile von TinyML

Da die Daten nicht an einen Server gesendet werden müssen, um Inferenz auszuführen, bietet TinyML eine Ausgabe mit niedriger Latenz. Dies bedeutet auch, dass weniger Internetbandbreite verwendet wird. Da die Daten nicht auf Servern gespeichert werden und das Modell lokal läuft, gibt es auch eine verbesserte Datensicherheit.

Hier sind einige weitere Vorteile von TinyML:

  • Niedrigerer Energieverbrauch: Diese Modelle sind so konzipiert, dass sie auf Mikrocontrollern laufen, die den 1000. Teil der gesamten Rechenleistung einer zentralen Verarbeitungseinheit (CPU) verbrauchen. Dies führt zu erheblichen Energieeinsparungen im Vergleich zu maschinellen Lernmodellen, die über einen Cloud-Server bereitgestellt werden.
  • Verlängerte Batterielebensdauer: Geräte, die TinyML verwenden, haben längere Batterielebensdauern und können länger betrieben werden als andere herkömmliche Hardwaregeräte.
  • Niedrigere Latenz: Durch die direkte Ausführung der Inferenz auf dem Gerät reduziert TinyML die Notwendigkeit, die Daten an den Server zu senden. Dies führt zu geringerer Latenz und schnellerer Datenabrufung. Es reduziert auch Netzwerklatenzen und Reaktionszeiten.
  • Reduzierte Verzögerungen: Anwendungen wie natürliche Sprachverarbeitung, Spracherkennung, prädiktive Analytik und Anomalieerkennung profitieren von direkter und sofortiger Verarbeitung, was die Benutzererfahrung und Systemkompatibilität verbessert.
  • Niedrigerer Bandbreitenverbrauch: TinyML speichert Daten lokal auf Ihrem Gerät, was die Netzwerkbandbreite nicht belastet und mehr Kosten spart. Da Sie keine Daten über einen Internetserver speichern, müssen Sie nicht für Datenübertragung oder elektronischen Datenaustausch bezahlen, und das erschöpft Ihr Datenpaket nicht.
  • Bessere Datensicherheit: Die direkte Inferenz auf Ihrem Gerät reduziert das Risiko von Datendiebstahl und erhöht die Privatsphäre. Es minimiert auch das Risiko von unbefugtem Zugriff und Hacking, da Informationen auf dem lokalen Gerät bleiben. Dieser Ansatz kann für Branchen verfolgt werden, die sensible Informationen wie Gesundheitsüberwachung, biometrische Authentifizierung oder Sicherheitssysteme hosten.

Kleine Punkte einer globalen Revolution

TinyML macht es möglich, kleinen Geräten Intelligenz zu verleihen. Da Mikrocontroller fast überall sind und große Mengen an Daten sammeln, kann TinyML helfen, die gesammelten Daten besser zu nutzen.

Landwirtschaft, Fertigung, Lieferkettenmanagement, Gesundheitswesen, Transport, Naturschutz und Sicherheit sind einige der Bereiche, in denen TinyML enormes Potenzial hat. Tatsächlich hat TinyML das Potenzial, die Welt um uns herum zu verändern. Stellen Sie sich vor, jeder Sensor da draußen hätte die Fähigkeit, intelligent und reaktiv auf uns zu sein.

Lernen Sie, wie TinyML maschinelle Lern-Frameworks vereinfachen kann, um intelligente Anwendungen zu erstellen und Ihr KI-Schwungrad für zukünftigen Erfolg zu skalieren.

Dieser Artikel wurde ursprünglich 2022 veröffentlicht. Er wurde mit neuen Informationen aktualisiert.
Amal Joby
AJ

Amal Joby

Amal is a Research Analyst at G2 researching the cybersecurity, blockchain, and machine learning space. He's fascinated by the human mind and hopes to decipher it in its entirety one day. In his free time, you can find him reading books, obsessing over sci-fi movies, or fighting the urge to have a slice of pizza.