Künstliche Intelligenz wird als ein umfassender Sammelbegriff für viele Teilbereiche der KI verwendet, die wiederum selbst ein Teilbereich der Informatik ist.
Während Sie die Welt der KI durchstöbern, könnten Sie das Gefühl haben, kopfüber in haiverseuchte Gewässer zu tauchen. Es gibt so viele Komponenten und Unterthemen der KI, dass es schwierig sein kann, sich ohne Anleitung zurechtzufinden. Um über ein Thema sachkundig zu klingen, ist es entscheidend, dass Sie zunächst einige wichtige Anwendungen des gesamten Bereichs kennenlernen.
Anwendungen der künstlichen Intelligenz
Klicken Sie auf einen der untenstehenden Begriffe, um eine ausführliche Beschreibung sowie ein Beispiel für heutige Anwendungen zu lesen.
- Künstliche enge Intelligenz (ANI)
- Künstliche allgemeine Intelligenz (AGI)
- Big Data
- Computer Vision
- Data Mining
- Maschinelles Lernen
- Natürliche Sprachverarbeitung (NLP)
Künstliche enge Intelligenz (ANI)
Künstliche enge Intelligenz (ANI), oder schwache KI, ist eine Art von künstlicher Intelligenz, die sich jeweils nur auf eine spezifische Aufgabe oder ein Problem konzentrieren kann. Dies ist unsere derzeit weit verbreitete Definition von künstlicher Intelligenz als Ganzes. Enge KI ist so programmiert, dass sie eine einzelne Aufgabe erledigt, wie zum Beispiel das Wetter vorhersagen oder ein Spiel spielen.
Enge KI ist weder selbstbewusst noch empfindungsfähig. Obwohl sie sehr fähig erscheinen mag, ist ANI durch strikte Programmierung für einzelne Aufgaben gebunden. ANI wird als schwach angesehen, weil sie nicht die Fähigkeit hat, menschliche Intelligenz zu erreichen oder zu übertreffen oder zu lernen und sich anzupassen, wie es andere Formate der KI können.
Trotzdem können ANI-Maschinen wissender und ausgefeilter erscheinen, indem sie menschliches Wissen oder Können bei der individuellen Aufgabe, für die sie programmiert wurden, übertreffen; jedoch arbeiten diese Systeme wie programmiert, nicht weil sie aktiv neue Informationen lernen.
Ein Beispiel für enge KI sind Smartphone-Assistenten wie Bixby oder Siri. Auch wenn sie mit menschlichen Nutzern „kommunizieren“ können, sind ihre Antworten durch ein mangelndes Verständnis von Wörtern und Phrasen begrenzt, die über das hinausgehen, was sie zu interpretieren programmiert wurden.
GIF mit freundlicher Genehmigung von F. Martin Ramin über amysboyd.com
Möchten Sie mehr über MLOps-Plattformen erfahren? Erkunden Sie MLOps-Plattformen Produkte.
Künstliche allgemeine Intelligenz (AGI)
Künstliche allgemeine Intelligenz (AGI), oder starke KI, ist das Gegenteil von ANI. AGI bezieht sich auf Maschinen, die erfolgreich menschliche Aufgaben ausführen können. Diese Art von Intelligenz wird als „menschenähnlich“ angesehen, da allgemeine KI strategisieren, argumentieren, lernen und kommunizieren kann, in einer Weise, die mit menschlichen Funktionen und Prozessen übereinstimmt. Darüber hinaus können einige AGI-Maschinen sehen (mittels Computer Vision) oder Objekte manipulieren.
Derzeit befindet sich AGI in den Anfangsstadien mit hypothetischen realen Anwendungen, die in naher Zukunft am Horizont stehen.
Big Data
Big Data definiert große Mengen an strukturierten und unstrukturierten Daten. Es ist ein Bereich, der Informationen aus großen Mengen von Informationen (Daten) analysiert und extrahiert, die zu komplex sind, um von Standard-Datenverarbeitungssoftware verarbeitet zu werden.
Ein Beispiel für Big Data in der Produktentwicklung ist Netflix. Da die Nutzerbasis von Netflix bei oder über 100+ Millionen Menschen liegt, nutzen sie Big Data, um prädiktive Modelle zu erstellen, um die Benutzererfahrung zu verbessern. Immer wenn Sie eine Empfehlung zu einer Show oder einem Film erhalten, der Sie interessieren könnte, basierend auf dem, was Sie zuvor gesehen haben, nutzt Netflix seine große Menge an Benutzerdaten und -präferenzen, um eine Auswahl wahrscheinlicher Übereinstimmungen für einzelne Benutzer zu kuratieren.
GIF mit freundlicher Genehmigung von Ramy Khuffash über uimovement.com
Netflix sammelt Big Data auf vielfältige Weise, indem es verfolgt, wie ein Nutzer ein Programm oder einen Film entdeckt (Suchfunktion, Vorschlag); Sternebewertungen; Suchanfragen; wann oder ob Nutzer eine Show/ein Programm pausieren oder stoppen; Datum/Daten, an denen der Inhalt angesehen wurde; und mehr. Sie nutzen diese Daten, um den Nutzern neue Inhalte zu empfehlen und einem Nutzer zu zeigen, „was im Trend liegt“ (was einige Nutzer dazu verleiten könnte, zu schauen, um im Bilde zu sein) mit heißen, neuen Programmen.
Computer Vision
Computer Vision ist, wenn eine Maschine visuelle Eingaben aus Bilddateien (JPEGs) oder Kamerafeeds verarbeitet. Computer Vision kann nicht nur die Bild(er) „sehen“, sondern auch verstehen und verarbeiten, was es sieht. Wenn man dies in Bezug auf die menschliche Existenz ausdrücken würde, ist Computer Vision für das Gehirnverständnis das, was die Augen für das Sehen sind.
Grundsätzlich, wann immer eine Maschine rohe visuelle Eingaben – wie eine JPEG-Datei oder einen Kamerafeed – verarbeitet, nutzt sie Computer Vision, um zu verstehen, was sie sieht. Es ist am einfachsten, sich Computer Vision als den Teil des menschlichen Gehirns vorzustellen, der die von den Augen empfangenen Informationen verarbeitet – nicht die Augen selbst. Um es zu vereinfachen: Die Nutzung von Computer Vision bedeutet, dass der Nutzer ein Bild in das System eingibt, und was der Nutzer als Ausgabe erhält, kann quantitative und qualitative Merkmale des Bildes umfassen, einschließlich Farbe, Form, Größe und Klassifizierung.
Ein Beispiel für Computer Vision sind die Bilder, die Teslas selbstfahrende Autos sehen. Das System muss nicht nur Bilder nach Form, Typ und Farbe erkennen, sondern auch diese Informationen extrem schnell verarbeiten, da es in Echtzeit eine Aktion ausführt.
GIF mit freundlicher Genehmigung von Steph Davidson über Tesla
Verwandt: Schauen Sie sich 7 Rollen für künstliche Intelligenz in der Bildung an, um zu sehen, wie KI über den Technologiebereich hinaus in Bildungseinrichtungen integriert wird. |
Data Mining
Data Mining ist der Prozess des Durchsuchens großer Datenmengen, um wiederkehrende Muster zu identifizieren und problemlösende Beziehungen herzustellen. Data Mining ist ein gemischter Teilbereich der Informatik und Statistik, dessen einziger Zweck es ist, Daten mit KI zu extrahieren und in nützliche Informationen zu verwandeln.
Beispiele für Data Mining finden sich im E-Commerce, wobei Amazon das Datensammelspiel anführt. Amazon zielt auf seine Kunden ab und nutzt deren Daten, indem es Käufern empfohlene Produkte zeigt, die „andere“ in Bezug auf den beabsichtigten Kauf des Verbrauchers gekauft haben (d. h. wenn Sie dies in Betracht ziehen, kaufen Menschen normalerweise auch das). Amazon nutzt Kundendaten (was Menschen gekauft haben plus was Menschen über ihre Käufe gesagt haben), um Kaufmuster zu identifizieren und zu schließen, was Kunden basierend auf anderen Benutzerdaten gefallen könnte.
Maschinelles Lernen
Maschinelles Lernen konzentriert sich auf die Entwicklung von Programmen, die selbstständig auf Daten zugreifen und diese nutzen, wodurch Maschinen selbst lernen und sich aus erlernten Erfahrungen verbessern können, ohne explizit programmiert zu werden.
Viele Beispiele für maschinelles Lernen im Alltag existieren derzeit, darunter zielgerichtete Werbung in sozialen Medien, virtuelle Sprachassistenten auf Mobiltelefonen, Gesichtserkennungssoftware auf sozialen Medien-Websites und Pendelvorhersagen von Apps wie Google Maps oder Mobiltelefon-GPS-Daten.
Bild mit freundlicher Genehmigung von vigilantsolutions.com
Deep Learning
Deep Learning ist eine Technik des maschinellen Lernens, die Computern beibringt, wie man auswendig lernt. Mit anderen Worten, Deep Learning ermöglicht es Maschinen, die Fähigkeit zu erlangen, das Lernen wie ein menschlicher Geist zu imitieren, indem sie Text, Ton und Bilder in Kategorien klassifizieren.
Beispiele für Deep Learning finden sich in verschiedenen bestehenden Technologien, wie selbstfahrenden Autos und Sprachassistenten. Diese spezifischen Beispiele nutzen Deep-Learning-Techniken, indem sie aus Hunderten – wenn nicht Tausenden – von Stunden Video, Bildern und Beispielen lernen, durch die die Technologie selbstständig Mustererkennung erlernt.
Zum Beispiel lernen selbstfahrende Autos, wie man fährt und Straßen navigiert, indem sie Straßenmuster und Fahrgewohnheiten bestehender menschlicher Fahrer und anderer Fahrzeuge studieren. Ebenso hören Sprachassistenten endlose Stunden Sprachdaten von Menschen mit unterschiedlichen Stimmtypen, Sprachen und Sprachmustern, um zu lernen, wie man menschliche Sprache repliziert.
Neuronale Netze
Ein neuronales Netz modelliert sich nach dem menschlichen Gehirn, indem es ein künstliches neuronales Netz über einen mustererkennenden Algorithmus erstellt. Dieser Algorithmus ermöglicht es einem Computer, aus sensorischen Daten zu lernen und diese zu interpretieren, mit dem Ziel, diese Daten zu klassifizieren und zu clustern.
Zum Beispiel ist eine häufige Aufgabe für neuronale Netze die Objekterkennung. Objekterkennung ist, wenn ein neuronales Netz eine große Anzahl ähnlicher Objekte (Verkehrsschilder, Bilder von Tieren usw.) zur Inspektion und Analyse erhält. Es interpretiert dann, was die Objekte sind, während es lernt, Muster innerhalb dieser Objekte zu identifizieren, und schließlich herausfindet, wie zukünftige Inhalte kategorisiert werden können.
GIF mit freundlicher Genehmigung von www.analyticsindiamag.com
Convolutional Neural Networks (CNN)
Convolutional Neural Networks sind eine Art von neuronalen Netzen, die speziell für die Analyse, Klassifizierung und Clusterbildung von visuellen Bildern durch die Verwendung von Multilayer-Perceptrons entwickelt wurden. CNNs helfen bei der Objekterkennung innerhalb von Szenen (denken Sie an: Objekte innerhalb eines größeren Bildes, nicht nur das eigenständige Objekt) sowie bei digitalisiertem oder handgeschriebenem Text durch die Verwendung von optischen Zeichenerkennungstools (OCR).
Generative Adversarial Networks (GAN)
Generative Adversarial Networks sind eine Art von neuronalen Netzen, die scheinbar authentische Fotografien erzeugen können, zumindest auf einer oberflächlichen Ebene für menschliche Augen. GAN-erzeugte Bilder nehmen Elemente von fotografischen Daten und formen sie zu realistisch aussehenden Bildern von Menschen, Tieren und Orten.
Ein aktuelles Beispiel wird in einem Papier von NVIDIA präsentiert, einer Style-Based Generator Architecture for GANs (StyleGAN). StyleGAN ist in der Lage, künstliche Bilder auf allmähliche Weise zu erzeugen, von einem pixeligen, minderwertigen Bild, das schließlich zu einem realistischen hochauflösenden Bild einer Person bei https://thispersondoesnotexist.com/ oder einer Katze bei https://thiscatdoesnotexist.com/ heranwächst.
Der StyleGAN modifiziert Merkmale dessen, wie eine Person (oder eine Katze) aussehen würde, indem er von tatsächlichen Bildern existierender Menschen und Katzen entlehnt, und weist Merkmale und physische Eigenschaften bis ins Detail zu (z. B. Hautfarbe, Poren, Frisur, Augenfarbe, Gesichtsbehaarung und mehr).
GIF mit freundlicher Genehmigung von https://arxiv.org/pdf/1710.10196.pdf
Natürliche Sprachverarbeitung (NLP)
Natürliche Sprachverarbeitung (NLP) hilft Computern, menschliche Sprache und ihre Merkmale zu verarbeiten, zu interpretieren und zu analysieren, indem sie natürliche Sprachdaten verwenden. NLP wird mit der Absicht eingesetzt, die Lücke zwischen Menschen und Computern zu schließen, die miteinander sprechen und sich verstehen.
Ein Beispiel für NLP kann in der Sprach-zu-Text-Umwandlung von Voicemail-Transkriptionen gesehen werden.
Durch das Fachjargon sichten
Jetzt, da Sie einige der wichtigsten Anwendungen der KI kennengelernt haben, können Sie erleichtert aufatmen und sich den Schweiß von der Stirn wischen – Sie haben es geschafft! Sie sind auf dem Weg, sich in allen Dingen, die mit künstlicher Intelligenz zu tun haben, auszukennen.
Möchten Sie Ihr Wissen über künstliche Intelligenz über die Grundlagen hinaus weiter ausbauen? Schauen Sie sich unseren Leitfaden zur Geschichte der KI an.

Rebecca Reynoso
Rebecca Reynoso is the former Sr. Editor and Guest Post Program Manager at G2. She holds two degrees in English, a BA from the University of Illinois-Chicago and an MA from DePaul University. Prior to working in tech, Rebecca taught English composition at a few colleges and universities in Chicago. Outside of G2, Rebecca freelance edits sales blogs and writes tech content. She has been editing professionally since 2013 and is a member of the American Copy Editors Society (ACES).