Μεθοδολογία αμφίδρομων νευρωνικών δικτύων και νευρωνικών δικτύων ενεργειακών καταστάσεων.
Φόρτωση...
Αρχεία
Ημερομηνία
2010-06-01T11:23:36Z
Συγγραφείς
Τίτλος Εφημερίδας
Περιοδικό ISSN
Τίτλος τόμου
Εκδότης
Τ.Ε.Ι. Κρήτης, Σχολή Εφαρμοσμένων Επιστημών (Σ.Εφ.Ε), Τμήμα Ηλεκτρονικών Μηχανικών Τ.Ε.
T.E.I. of Crete, School of Applied Sciences, Department of Electronic Engineering
T.E.I. of Crete, School of Applied Sciences, Department of Electronic Engineering
Επιβλέπων
Περίληψη
Αυτή η εργασία περιγράφει νευρωνικά δίκτυα ενεργειακών καταστάσεων τύπου Hopfield καθώς και την μεταβλητή ανάδρασης: ένα μοναδικό τρόπο υλοποίησης πίνακα που επιτρέπει την εξέλιξη των νευρωνικών δικτύων με εγγενή επιβλεπόμενη μαθησιακή ικανότητα. Αυτό διευρύνει την κλίμακα των δικτύων που μπορούν να εξελιχθούν αποδοτικά συγκρινόμενα με προηγούμενες προσεγγίσεις και επίσης επιτρέπει στα δίκτυα να είναι αντιστρέψιμα, δηλαδή μόλις ένα δίκτυο έχει εξελιχθεί για έναν δεδομένο προβληματικό τομέα και έχει εκπαιδευτεί σε ένα συγκεκριμένο σετ εντολών, το δίκτυο τότε μπορεί να λειτουργήσει ανάποδα για να παρατηρήσουμε τι είδους χαρτογράφηση έχουμε μάθει ή για χρήση σε προβλήματα ελέγχου. ∆ίνεται μια επίδειξη του είδους των αυτό εκπαιδευόμενων δικτύων που θα μπορούσαν να εξελιχθούν.
This final year project thesis describes energy state neural networks as well as the forward – backward module: a simple building block that allows the evolution of neural networks with intrinsic supervised learning ability. This expands the range of networks that can be efficiently evolved compared to previous approaches, and also enables the networks to be invertible i.e. once a network has been evolved for a given problem domain, and trained on a particular dataset, the network can then be run backwards to observe what kind of mapping has been learned, or for use in control problems. A demonstration is given of the kind of self- training networks that could be evolved.
This final year project thesis describes energy state neural networks as well as the forward – backward module: a simple building block that allows the evolution of neural networks with intrinsic supervised learning ability. This expands the range of networks that can be efficiently evolved compared to previous approaches, and also enables the networks to be invertible i.e. once a network has been evolved for a given problem domain, and trained on a particular dataset, the network can then be run backwards to observe what kind of mapping has been learned, or for use in control problems. A demonstration is given of the kind of self- training networks that could be evolved.