Definitionen durchsuchen :
Definition

Machine Learning

Machine Learning ist eine Form der künstlichen Intelligenz (KI), die einer Anwendung die Fähigkeit gibt, etwas zu erlernen, ohne dass diese explizit programmiert werden muss. Machine Learning fokussiert sich auf die Entwicklung von Programmen, die sich selbst ändern, wenn sie neue Daten erhalten.

Machine Learning ist ähnlich zum Data Mining und der prädiktiven Modellierung. Dabei wird jeweils nach Mustern in einem vorgegebenen Datenberg gesucht. Doch während es beim Data Mining darum geht, Daten für ein besseres Verständnis zu extrahieren, geht es beim Machine Learning darum, die erkannten Datenmuster zu einer Anpassung der Software zu nutzen.

Machine-Learning-Algorithmen werden häufig in zwei Kategorien getrennt: Überwachte und unbewachte Algorithmen. Der überwachte Algorithmus lernt aus den Eingabedaten korrekte Ausgabedaten zu generieren. Hierzu wird das Programm von einem Lehrer so lange korrigiert, bis die Ausgabekorrelation ausreichend genau ist. Bei den unbewachten Algorithmen wird aus den Eingabedaten ein Modell generiert, das diesen Datensatz beschreibt und darauf aufbauend eigenständige Prognosen und Entscheidungen generieren kann.

Der Newsfeed von Facebook nutzt Machine Learning, um ihn für jedes Mitglied zu personalisieren. Immer wenn ein Nutzer beim Scrollen einen Post liest oder auf den Like Button klickt, werden von Facebook automatisch weitere ähnliche Posts angezeigt.

Dahinter verbergen sich einfache statistische Verfahren zur Mustererkennung, Analyse und Prognose, mit deren Hilfe der Newsfeed gesteuert wird. Hört der Benutzer auf, die entsprechenden Posts zu lesen oder zu liken, werden die Daten und der Newsfeed entsprechend angepasst.

Diese Definition wurde zuletzt im April 2018 aktualisiert

- GOOGLE-ANZEIGEN

SearchDataCenter.de

SearchEnterpriseSoftware.de

SearchNetworking.de

SearchSecurity.de

SearchStorage.de

Close