Überwachtes Lernen: Wie man Maschinen beibringt, uns zu helfen
Veröffentlicht: 2021-02-11Sie können sich überwachtes Lernen als einen Lehrer vorstellen, der den gesamten Lernprozess überwacht.
Es ist eine der häufigsten Lernmethoden von Maschinen und ein unschätzbares Werkzeug im Bereich der künstlichen Intelligenz. Dieser Lernprozess ist vergleichbar mit einer Schüler-Lehrer-Beziehung, obwohl Maschinen nicht so stur sind wie Menschen.
Wenn Sie gerade erst in die Welt der künstlichen Intelligenz eingetreten sind, ist überwachtes Lernen vielleicht kein Begriff, auf den Sie bisher gestoßen sind. Kurz gesagt, es ist eine maschinelle Lernstrategie, die es KI-Systemen ermöglicht, zu lernen und Fortschritte zu machen.
Was ist überwachtes Lernen?
Überwachtes Lernen ist eine Unterkategorie des maschinellen Lernens, das gekennzeichnete Datensätze verwendet, um Algorithmen zu trainieren. Es handelt sich um einen maschinellen Lernansatz, bei dem dem Programm beschriftete Eingabedaten zusammen mit den erwarteten Ausgabeergebnissen gegeben werden.
Einfach ausgedrückt, sind überwachte Lernalgorithmen darauf ausgelegt, anhand von Beispielen zu lernen. Solche Beispiele werden als Trainingsdaten bezeichnet, und jedes Beispiel ist ein Paar aus einem Eingabeobjekt und dem gewünschten Ausgabewert. Das in das System eingespeiste Paar von Eingabe- und Ausgabedaten wird im Allgemeinen als gekennzeichnete Daten bezeichnet .
Indem Sie beschriftete Daten zuführen, zeigen Sie einer Maschine die Verbindungen zwischen verschiedenen Variablen und bekannten Ergebnissen. Beim überwachten Lernen wird dem KI-System explizit mitgeteilt, wonach es in den gegebenen Eingabedaten suchen soll. Dies ermöglicht es Algorithmen, regelmäßig besser zu werden und maschinelle Lernmodelle zu erstellen, die Ergebnisse vorhersagen oder Daten genau klassifizieren können, wenn sie mit unbekannten Daten präsentiert werden.
Im Allgemeinen werden drei Datensätze in verschiedenen Phasen des Modellerstellungsprozesses verwendet:
- Trainingsdatensatz: die Beispieldaten, die zum Trainieren des Modells verwendet werden. Mit anderen Worten, es handelt sich um eine Reihe von Trainingsbeispielen, die verwendet werden, um die Parameter des Modells anzupassen.
- Validierungsdatensatz: Die Beispieldaten, die verwendet werden, um eine unvoreingenommene Bewertung einer Modellanpassung an den Trainingsdatensatz bereitzustellen
- Testdatensatz: Die Beispieldaten, die verwendet werden, um eine unvoreingenommene Bewertung einer endgültigen Modellanpassung an den Trainingsdatensatz bereitzustellen
Die Modellanpassung bezieht sich auf das Maß dafür, wie gut das Modell auf ähnliche Daten verallgemeinert werden kann wie die, auf denen es trainiert wurde. Ein gut angepasstes Modell liefert genaue Ergebnisse; ein überangepasstes Modell stimmt zu genau mit den Daten überein; ein unterangepasstes Modell stimmt nicht genau genug mit den Daten überein.
Wie funktioniert überwachtes Lernen?
Training spielt beim überwachten Lernen eine zentrale Rolle. Während der Trainingsphase wird das KI-System mit riesigen Mengen gekennzeichneter Trainingsdaten gefüttert. Wie zuvor erwähnt, weisen die Trainingsdaten das System an, wie die gewünschte Ausgabe von jedem unterschiedlichen Eingabewert aussehen sollte.
Das trainierte Modell erhält dann die Testdaten . Dadurch können Data Scientists die Effektivität des Trainings und die Genauigkeit des Modells bestimmen. Die Genauigkeit eines Modells hängt von der Größe und Qualität des Trainingsdatensatzes und dem verwendeten Algorithmus ab.
Eine hohe Genauigkeit ist jedoch nicht immer eine gute Sache. Eine hohe Genauigkeit könnte beispielsweise bedeuten, dass das Modell unter Überanpassung leidet – ein Modellierungsfehler oder die falsche Optimierung eines Modells, wenn es zu stark auf seinen Trainingsdatensatz abgestimmt ist, und kann sogar zu Fehlalarmen führen.
In einem solchen Fall kann das Modell in Testszenarien bemerkenswert gut abschneiden, liefert aber unter realen Umständen möglicherweise keine korrekte Ausgabe. Um die Wahrscheinlichkeit einer Überanpassung auszuschließen, stellen Sie sicher, dass sich die Testdaten vollständig von den Trainingsdaten unterscheiden. Stellen Sie außerdem sicher, dass das Modell keine Antworten aus früheren Erfahrungen zieht.
Auch die Trainingsbeispiele sollten vielfältig sein. Andernfalls wird das Modell nicht funktionieren, wenn es mit nie zuvor gesehenen Fällen konfrontiert wird.
Im Zusammenhang mit Data Science und Data Mining (dem Prozess der Umwandlung von Rohdaten in nützliche Informationen) kann überwachtes Lernen weiter in zwei Arten unterteilt werden: Klassifizierung und Regression .
Ein Klassifizierungsalgorithmus versucht, die Kategorie oder Klasse der ihm präsentierten Daten zu bestimmen. E-Mail-Spam-Klassifizierung, Computer Vision und Drogenklassifizierung sind einige der häufigsten Beispiele für Klassifizierungsprobleme.
Andererseits versuchen Regressionsalgorithmen , den Ausgabewert basierend auf den Eingabemerkmalen der bereitgestellten Daten vorherzusagen. Die Vorhersage von Klickraten digitaler Anzeigen und die Vorhersage des Preises eines Hauses auf der Grundlage seiner Merkmale sind einige der häufigsten Regressionsprobleme.
Überwachtes vs. unüberwachtes vs. halbüberwachtes Lernen
Eine der besten Möglichkeiten, den Unterschied zwischen überwachtem und unüberwachtem Lernen zu verstehen, besteht darin, sich anzusehen, wie Sie lernen würden, ein Brettspiel zu spielen – sagen wir Schach.

Eine Möglichkeit besteht darin, einen Schachlehrer zu engagieren. Ein Tutor wird Ihnen beibringen, wie man das Schachspiel spielt, indem er Ihnen die Grundregeln erklärt, was jede Schachfigur tut und vieles mehr. Sobald Sie die Spielregeln und den Umfang jedes Stücks kennen, können Sie fortfahren und üben, indem Sie gegen den Tutor spielen.
Der Tutor würde Ihre Bewegungen überwachen und Sie korrigieren, wenn Sie Fehler machen. Sobald Sie genug Wissen und Übung gesammelt haben, können Sie anfangen, kompetitiv gegen andere zu spielen.
Dieser Lernprozess ist vergleichbar mit überwachtem Lernen . Beim überwachten Lernen fungiert ein Datenwissenschaftler wie ein Tutor und trainiert die Maschine, indem er die Grundregeln und die Gesamtstrategie füttert.
Wenn Sie keinen Tutor engagieren möchten, können Sie trotzdem das Schachspiel lernen. Eine Möglichkeit besteht darin, anderen beim Spielen zuzusehen. Sie können ihnen wahrscheinlich keine Fragen stellen, aber Sie können zuschauen und lernen, wie man das Spiel spielt.
Obwohl Sie die Namen der einzelnen Schachfiguren nicht kennen, können Sie lernen, wie sich jede Figur bewegt, indem Sie das Spiel beobachten. Je mehr Spiele Sie sich ansehen, desto besser verstehen Sie und desto besser werden Sie über verschiedene Strategien informiert, die Sie anwenden können, um zu gewinnen.
Dieser Lernprozess ähnelt dem unüberwachten Lernen . Der Data Scientist lässt die Maschine durch Beobachtung lernen. Obwohl die Maschine die spezifischen Namen oder Bezeichnungen nicht kennt, kann sie Muster selbst finden.
Einfach ausgedrückt liegt unüberwachtes Lernen vor, wenn einem Algorithmus ein Trainingsdatensatz gegeben wird, der nur die Eingabedaten und keine entsprechenden Ausgabedaten enthält.
Wie Sie sehen können, haben beide Lernmethoden bemerkenswerte Stärken und Schwächen.
Für überwachtes Lernen benötigen Sie einen sachkundigen Tutor, der der Maschine die Regeln und Strategien beibringen kann. Im Beispiel Schach bedeutet dies, dass Sie einen Tutor benötigen, um das Spiel zu lernen. Wenn nicht, könnten Sie das Spiel falsch lernen.
Beim unüberwachten Lernen benötigen Sie riesige Datenmengen, die die Maschine beobachten und lernen kann. Obwohl unbeschriftete Daten billig (und reichlich vorhanden) und leicht zu sammeln und zu speichern sind, dürfen sie keine Duplikate oder Datenmüll enthalten. Fehlerhafte oder unvollständige Daten können auch zu Verzerrungen beim maschinellen Lernen führen – ein Phänomen, bei dem Algorithmen diskriminierende Ergebnisse liefern.
Wenn Sie beim Beispiel Schach lernen, indem Sie andere Spieler beobachten, bedeutet dies, dass Sie Dutzende von Partien ansehen müssen, bevor Sie es verstehen. Auch wenn Sie Spieler beobachten, die das Spiel falsch spielen, könnten Sie am Ende dasselbe tun.
Dann gibt es halbüberwachtes Lernen .
Wie Sie vielleicht schon erraten haben, ist halbüberwachtes Lernen eine Mischung aus überwachtem und unüberwachtem Lernen. In diesem Lernprozess trainiert ein Data Scientist die Maschine nur ein wenig, damit sie einen Überblick auf hohem Niveau erhält. Die Maschine lernt dann die Regeln und die Strategie, indem sie Muster beobachtet. Ein kleiner Prozentsatz der Trainingsdaten wird beschriftet, der Rest bleibt unbeschriftet.
Im Beispiel des Schachlernens wäre semi-überwachtes Lernen vergleichbar mit einem Tutor, der Ihnen nur die Grundlagen erklärt und Sie lernen lässt, indem Sie gegeneinander spielen.
Ein weiterer Lernprozess ist das Reinforcement Learning (RL) . Es ist eine maschinelle Lernstrategie, bei der ein KI-System einer spielähnlichen Situation gegenübersteht. Um der KI beizubringen, verwendet ein Programmierer eine Belohnungs-Straf-Technik, bei der sich das System darauf konzentrieren muss, geeignete Maßnahmen zu ergreifen, um die Belohnung zu maximieren und Strafen zu vermeiden.

Überwachte Lernalgorithmen
Beim überwachten Lernen kommen zahlreiche Rechentechniken und Algorithmen zum Einsatz.
Bei der Auswahl eines überwachten maschinellen Lernalgorithmus werden im Allgemeinen die folgenden Faktoren berücksichtigt:
- Die Komplexität des Modells, das das System zu lernen versucht
- Bias und Varianz, die innerhalb des Algorithmus vorhanden sind
- Größe der Trainingsdaten
- Genauigkeit, Heterogenität, Redundanz und Linearität der Daten
- Verfügbare Zeit zum Trainieren
Hier sind einige der gängigen Algorithmen für überwachtes maschinelles Lernen, auf die Sie stoßen werden.
Lineare Regression
Die lineare Regression ist sowohl ein statistischer Algorithmus als auch ein maschineller Lernalgorithmus. Es ist ein Algorithmus, der versucht, die Beziehung zwischen zwei Variablen zu modellieren, indem eine lineare Gleichung an die beobachteten Daten angehängt wird. Von den beiden Variablen wird eine als erklärende Variable und die andere als abhängige Variable betrachtet.
Die lineare Regression kann auch verwendet werden, um die Beziehung zwischen einer abhängigen Variablen und einer oder mehreren unabhängigen Variablen zu identifizieren. Im Bereich des maschinellen Lernens wird die lineare Regression verwendet, um Vorhersagen zu treffen.
Logistische Regression
Die logistische Regression ist ein mathematisches Modell, das verwendet wird, um die Wahrscheinlichkeit eines Ereignisses basierend auf den bereitgestellten vorherigen Daten abzuschätzen. Kreditbewertung und Online-Transaktionsbetrugserkennung sind einige der realen Anwendungen dieses Algorithmus. Mit anderen Worten, es handelt sich um einen prädiktiven Analysealgorithmus, der auf Wahrscheinlichkeitskonzepten basiert, die zur Lösung binärer Klassifizierungsprobleme verwendet werden.
Ebenso wie die logistische Regression ist auch die lineare Regression der Statistik entlehnt. Im Gegensatz zur linearen Regression, die mit kontinuierlichen abhängigen Variablen arbeitet, arbeitet die logistische Regression jedoch mit binären Daten wie „wahr“ oder „falsch“.
Neuronale Netze
Künstliche neuronale Netze (KNNs) werden hauptsächlich von Deep-Learning-Algorithmen verwendet. Sie sind eine Reihe von Algorithmen, die die Funktionen des menschlichen Gehirns nachahmen, um Beziehungen zwischen riesigen Datenmengen zu erkennen. Wie Sie vielleicht erraten haben, sind KNNs für Systeme der künstlichen Intelligenz von entscheidender Bedeutung.
Neuronale Netze bestehen aus Schichten mehrerer Knoten. Jeder Knoten besteht aus Eingaben, Gewichtungen, Bias und Ausgaben. Ein KNN wird trainiert, indem die Eingabegewichte basierend auf der Leistung des Netzwerks angepasst werden. Wenn das neuronale Netzwerk beispielsweise ein Bild richtig klassifiziert, werden Gewichtungen, die zur richtigen Antwort beitragen, erhöht, während andere Gewichtungen verringert werden.
Naive Bayes
Naive Bayes ist eine Klassifikationsmethode, die auf dem Prinzip der klassenbedingten Unabhängigkeit des Bayes-Theorems basiert. Einfacher ausgedrückt geht der Naive-Bayes-Klassifizierungsansatz davon aus, dass das Vorhandensein eines bestimmten Merkmals in einer Klasse das Vorhandensein eines anderen Merkmals nicht beeinflusst.
Zum Beispiel kann eine Frucht als Apfel betrachtet werden, wenn sie rot, rund und ungefähr drei Zoll im Durchmesser ist. Auch wenn diese Merkmale voneinander abhängig sind, tragen alle diese Eigenschaften einzeln zur Wahrscheinlichkeit bei, dass es sich bei der Frucht selbst um einen Apfel handelt.
Das Naive-Bayes-Modell ist beim Umgang mit großen Datensätzen nützlich. Es ist einfach zu erstellen, schnell und leistungsfähiger als fortschrittliche Klassifizierungsmethoden.
Support-Vektor-Maschine (SVM)
Support Vector Machine (SVM) ist ein bekannter Algorithmus für überwachtes maschinelles Lernen, der von Vladimir Vapnik entwickelt wurde. Obwohl sie hauptsächlich für Klassifizierungsprobleme verwendet werden, können SVMs auch für die Regression verwendet werden.
SVMs basieren auf der Idee, eine Hyperebene zu finden, die einen gegebenen Datensatz am besten in zwei Klassen unterteilt. Eine solche Hyperebene wird als Entscheidungsgrenze bezeichnet und trennt Datenpunkte in beide Seiten. Gesichtserkennung, Textkategorisierung, Bildklassifizierung sind einige der vielen realen Anwendungen von SVM.
K-nächste Nachbarn (KNN)
Der K-Nächste-Nachbarn-Algorithmus (KNN) ist ein überwachter maschineller Lernalgorithmus, der zur Lösung von Regressions- und Klassifizierungsproblemen verwendet wird. Es ist ein Algorithmus, der Datenpunkte basierend auf ihrer Nähe zu und Beziehung zu anderen Daten gruppiert.
Es ist einfach zu verstehen, einfach zu implementieren und hat eine geringe Rechenzeit. Der Algorithmus wird jedoch merklich langsam, wenn die Größe der verwendeten Daten zunimmt. KNN wird im Allgemeinen für Bilderkennungs- und Empfehlungssysteme verwendet.
Zufälliger Wald
Random Forest ist eine Lernmethode, die aus einer großen Anzahl von Entscheidungsbäumen besteht, die als Ensemble operieren (die Verwendung mehrerer Lernalgorithmen, um eine bessere Vorhersageleistung zu erzielen). Jeder Entscheidungsbaum liefert eine Klassenvorhersage, und die Klasse mit den höchsten Stimmen wird zur Vorhersage des Modells.
Der Random-Forest-Algorithmus wird ausgiebig in den Bereichen Börse, Bankwesen und Medizin eingesetzt. Beispielsweise kann es verwendet werden, um Kunden zu identifizieren, die ihre Schulden mit größerer Wahrscheinlichkeit pünktlich zurückzahlen.
Beispiele für überwachtes Lernen
Wie bereits erwähnt, sind die Vorhersage von Hauspreisen, die Klickraten von Online-Anzeigen und sogar die Zahlungsbereitschaft eines Kunden für ein bestimmtes Produkt einige der bemerkenswerten Beispiele für überwachte Lernmodelle.
Hier sind einige weitere Beispiele, denen Sie im täglichen Leben begegnen könnten.
- Stimmungsanalyse : eine Verarbeitungstechnik für natürliche Sprache, die verwendet wird, um die Produktstimmung zu bestimmen und die Kundenbedürfnisse zu verstehen
- Bilderkennung: Eine Technik zum Lokalisieren, Identifizieren und Kategorisieren von Objekten in Videos und Bildern
- Spam-Erkennung: Die Methode zur Klassifizierung von Spam- und Nicht-Spam-Inhalten durch Erkennung von Mustern und Anomalien in Daten
Maschinen das Denken beibringen
Durch die Nutzung gekennzeichneter Daten können überwachte Lernalgorithmen Modelle erstellen, die große Datenmengen problemlos klassifizieren und sogar Vorhersagen über zukünftige Ergebnisse treffen können. Es ist eine brillante Lerntechnik, die Maschinen in die menschliche Welt einführt.
Apropos Lerntechniken, um Maschinen intelligent zu machen, haben Sie sich jemals gefragt, wozu künstliche Intelligenzsysteme, die wir heute haben, wirklich in der Lage sind? Wenn ja, stillen Sie Ihre Neugier, indem Sie mehr über Narrow AI lesen.
