Start
eBook
Das
eBook
Künstliche
Intelligenz
Datenanalyse
Expertensysteme
Copyright
------
Fuzzy Logic
------------------
001 Wahr und
Falsch
002
Mengenlehre
003
Mathematik
004
Zugehörigkeit
005
Rechnen mit Mengen
006
Rechnen mit Mengen
007
Kleine und große Menschen scharf
008
Kleine
und große Menschen unscharf
009
Unscharfe Zugehörigkeit
010
Fuzzy-Komplement
011
Fuzzy-Durchschnitt (UND)
012
Fuzzy-Vereiningung (ODER)
013
Gesetze der Mengenlehre
014
Der Satz vom ausgeschlossenen Dritten
015
Seltsame Behauptungen!
016
Wahrheit und Lüge
017
Relationen
018
Wahrscheinlichkeit (Probability)
019
Möglichkeitstheorie (Possibility)
------
Fuzzy Regelung ---------------
020
Was ist eine Regelung?
021
Duschen Temperatur
022
Wassertemperstur fuzzifizieren
023
Linguistische Variablen
024
Regelbasis
025
Ausgang Zugehörigkeitsfunktionen
026
Regelbasis vervollständigen
027
Inferenz
028
Aggregation
029
Implikation
030
Akkumulation
031
Schwerpunktmethode
032
Kennlinie
033
Linear und nichtlinear
034 2 Eingangsvariablen und ein Ausgang
035
Aggregation und Implikation
036
Akkumulation
037
Defuzzifizieren Singletons
038
3-D-Kennfeld
----
Neuronale Netzwerke -------------
039
Vorteile der Fuzzy-Kennfelder
040
Einführung
041
Das Gehirn
042
Gehirn
und seine Leistungsfähigkeit
043
Das Netzwerk
044
Neuronen
045
Das Neuron und Synapse
046
Lernen
047
Die künstlichen Elemente
048
Funktion der künstlichen Elemente
049
Beispiel XOR-Funktion
050
Beispiel XOR-Funktion
051
Separierbarkeit
052
Wie lernt der Mensch?
053
Überwachtes Lernen
054
Lineare und nichtlineare Transferfunktion
055
Wie verändert man die Gewichte?
056
Backpropagation Lernmethode
057
Lernrate
058
Lokale und globale Minima
059
Lernen ohne Lehrer
060
Netzformen
----
Anwendung neuronale
Netzwerke --------
061
Einführung
062
Identifikation einer Regelstrecke
063
Beispiel Identifikation
064
Trainings- und Validierungsdaten
065
Zustandsraum und Normierung
066
Abbruchschranke für den Lernvorgang
067
Autonomes Fahren
068
NN lernt LKW rückwärts fahren
069
Datenanalyse
070
Diagnose und Prognose
071
Data-Mining und Big Data
---
Machinelles Lernen mit PyBrain
--------
072
Was bedeutet Machine Learning?
073
NN soll Qudrieren erlernen
074
Supervised NN in PyBrain
075
Supervides NN in PyBrain
076
Supervised Lernalgorithmus
077
Backpropagation ist aktiv
078
Wie benutzt man ein Netzwerk?
079
Mehr Training ist besser?
080
Ist noch mehr Training besser?
081
Mehr Neuronen?
082
Noch mehr Neuronen?
083
Overloading
084
Input-Output erhöhren
085
Mehr Neuronen!
086
Lerningrate und Gewichte
087
Momentum!
088
Speichern der Gewichte
089
Warum normieren auf 0 und 1?
090
Lernen bis eine Schwelle erreicht ist
091
Mehr Daten
092
Random daten zwischen 0 und 1
093
Zwei Eingänge und ein Ausgang
094
Aus Regression wird Klassifikation
095
Klassifikation mit neuronalen Netzwerken
096
Klassifikation = das Ergebnis
097
Sequentieller Datentyp
---
NN mit TensorFlow
-------------------
098
TensorFlow
099
Simple Example
100
Simple Example Übersicht
101
MNIST Bilder
102
Datasets bei TensorFlow
103
Bilder
laden
104
Bilder normieren
105
Neuronales Netzwerk aufbauen
106
Erste Schicht
107
Versteckte Schicht
108
Dropout Schicht
109
Ausgabe Schicht
110
NN Blockschaltbild
111
Compile Model
112
Kostenfunktion
113
Metrics
114
NN lernt
115
NN testen
116
NN run in Browser
117
NN run in SPYDER
118
Parallelrechner und Cloud
---- Genetische Algorithmen
-----------
119
Was bedutet Optimierung?
120
Charles Darwin
121
Evolutionäre Algorithmen
122
Genetische Algorithmen
123
Genetische Codierung in der Natur
124
Fuktionsweise Genetische Algorithmen
125
Kodierung der Parameter
126
Population
127
Fitness Funktion
128
Ablauf der Optimierung
129
Selektion
130
Modifikation der genetischen Information
131
Crossover
132
Mutation
133
Nachkommen und die nächste Generation
-----
Chaos
Theorie ---------------------
134
Theorie: Einführung
135
Wettervorhersage
136
Vorhersage und Determinsmus
137
Feigenbaum-Diagramm und Mendelbrotmengen
138
Das Lorenz-Wasserrad
---------- ENDE
--------------------------
|