Definitionen durchsuchen :
Definition

Fuzzy Logic

Fuzzy Logic ist eine Softwaretheorie auf der Grundlage von „graduellen Wahrheiten“, statt der sonst üblichen, nur auf wahr oder falsch (1 oder 0) basierenden Booleschen Logik, die die Grundstruktur für alle Rechenoperationen bildet.

Die Idee der Fuzzy Logic wurde zuerst von Dr. Lotfi Zadeh von der University of California in Berkeley, in den 1960er Jahren vorgestellt. Zadeh arbeitete an dem Problem, dass Computer natürliche Sprache verstehen sollten. Doch die natürliche Sprache lässt sich nicht leicht in die absoluten Ausdrücke von 0 und 1 übertragen.

Damit ähnelt sie den meisten Dingen im Leben und im Universum. (Ob wirklich alles in binären Zuständen beschrieben werden kann, ist eine interessante philosophische Frage, die man verfolgen sollte. In der Praxis sind viele Daten, die man zur Verfügung hat, aber irgendwo dazwischen. Auch bei den Ergebnissen ist vieles zwischen dem einen und dem anderen binären Zustand angesiedelt.) Es hilft, wenn man Fuzzy Logic als eine Methode für logisches Denken betrachtet und die Boolesche Logik nur ein besonderer Fall davon ist.

Fuzzy Logic kennt zwar ebenfalls 0 und 1. Aber das sind extreme Fälle von Wahrheit oder „dem Zustand der Dinge“ oder einer „Tatsache“. Fuzzy Logic kennt darüber hinaus aber auch viele andere Wahrheitszustände. Zum Beispiel könnte ein Vergleich von zwei Dingen zu folgenden Ergebnissen führen: „Nicht groß“ oder „kurz“ oder „0,38 m in der Höhe“.

Fuzzy Logic scheint näher an der Art und Weise zu sein, wie das menschliche Gehirn funktioniert. Wir aggregieren im Kopf Daten und generieren eine Anzahl von partiellen Wahrheiten, die wir dann in höheren Aggregationsebenen weiter zusammenfassen. Erst wenn wir die vorgegebenen Schwellwerte überschreiten, werden bestimmte Ereignisse, wie eine motorische Reaktion, ausgelöst.

Ähnlich verlaufen die Prozesse in neuronalen Netzwerken, Expertensystemen und anderen Anwendungen der künstlichen Intelligenz (KI). Fuzzy Logic ist von wesentlicher Bedeutung zur weiteren Entwicklung von menschlichen Fähigkeiten im Bereich KI. Sie wird deshalb auch als „allgemeine KI“ bezeichnet. Hierbei geht es darum, allgemeine kognitive Fähigkeiten so in KI-Software abzubilden, dass diese auch bei unvorhergesehenen Anforderungen selbstständig eine Lösung findet.

Diese Definition wurde zuletzt im April 2018 aktualisiert

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close