Εκπαίδευση τεχνητών νευρωνικών δικτύων με στοχαστικές τεχνικές
Φόρτωση...
Ημερομηνία
Συγγραφείς
Τοκμακίδου, Παρασκευή
Τίτλος Εφημερίδας
Περιοδικό ISSN
Τίτλος τόμου
Εκδότης
Τμήμα Πληροφορικής και Τηλεπικοινωνιών
Περίληψη
Τύπος
Είδος δημοσίευσης σε συνέδριο
Είδος περιοδικού
Είδος εκπαιδευτικού υλικού
Όνομα συνεδρίου
Όνομα περιοδικού
Όνομα βιβλίου
Σειρά βιβλίου
Έκδοση βιβλίου
Συμπληρωματικός/δευτερεύων τίτλος
Περιγραφή
Ο νευρώνας είναι το πιο σημαντικό στοιχείο ενός εγκεφάλου και είναι υπεύθυνο για ευφυείς διαδικασίες. Γεγονός που αποτέλεσε έμπνευση για τη ανάπτυξη δικτύων με σκοπό την προσομοίωση τέτοιων διαδικασιών, με κυριότερο εκπρόσωπο, την διαδικασία της μάθησης. Σκοπός αυτής της πτυχιακής εργασίας είναι η κατανόηση των βασικών εννοιών του κλάδου των ΤΝΔ καθώς και η μελέτη κάποιων βασικών στοχαστικών αλγορίθμων με έμφαση στο μοντέλο και όχι στη μαθηματική ανάλυση.
Στο πρώτο κεφάλαιο περιγράφονται κάποιες θεμελιώδεις έννοιες, απαραίτητες για την κατανόηση των ΤΝΔ. Στο δεύτερο κεφάλαιο, αναλύεται ο τρόπος λειτουργίας κάποιων ΤΝΔ με επίβλεψη, με αφετηρία το πιο ιστορικό δίκτυο, το Perceptron του Rosenblatt. Στη συνέχεια, αναλύεται το Adaline δίκτυο και έπειτα το δίκτυο Multi-Layer Perceptron. Συνδυαστικά με το τελευταίο δίκτυο, περιγράφονται δύο βασικοί μέθοδοι για την εκπαίδευση του: Back Propagation και Gradient Descent. Στο τρίτο κεφάλαιο, αναλύονται οι γενετικοί αλγόριθμοι. Ένα άλλο είδος αλγορίθμων, οι οποίοι έχουν την δυνατότητα βελτιστοποίησης των ΤΝΔ.
Παράλληλα με το κείμενο της πτυχιακής εργασίας, έγινε υλοποίηση μίας εφαρμογής σε γλώσσα JAVA στην οποία υπάρχει η δυνατότητα εκπαίδευσης ενός δικτύου MLP με τις μεθόδους Back Propagation και Gradient Descent αλλά και με τη αξιοποίηση ενός γενετικού αλγορίθμου με σκοπό την βέλτιστη αρχικοποίηση των βαρών του MLP δικτύου. Σε αυτή την εφαρμογή υπάρχουν ήδη έτοιμα κάποια σύνολα δεδομένων για δοκιμή, αλλά υπάρχει και η δυνατότητα να φορτώσει ο χρήστης κάποιο που επιθυμεί, με την προϋπόθεση ότι πληρεί κάποιες προϋποθέσεις. Η υλοποίηση είναι διαθέσιμη στον ιστότοπο https://github.com/Paraskevi-Tokmakidou/artificial-neural-networks
The neuron is the most important component of the brain and is responsible for intelligent processes. This fact was an inspiration for the development of networks to simulate such processes, with the main representative being the learning process. The purpose of this thesis is to understand the basic concepts of the ANN branch and to study some basic stochastic algorithms with an emphasis on the model and not on the mathematical analysis. In the first chapter, a description of fundamental concepts necessary for the basic understanding of ANN is given. In the second chapter, the operational mode of some supervised ANN is analyzed, starting with the most historical network, Rosenblatt's Perceptron. Subsequently, the Adaline network and the Multi-Layer Perceptron are examined. Along with the latter network, two basic methods for its training are described, Back Propagation and Gradient Descent. In the third chapter, genetic algorithms are described - another type of algorithm that has the potential of optimising ANN. In conjunction with the thesis text, an application implemented with Java language, which includes the ability to train an MLP network using the Back Propagation and Gradient Descent methods, as well as with the utilization of a genetic algorithm with the purpose of optimizing the initial weights of the MLP network. In this application, some datasets are already prepared for testing, but the user can also load any file, provided it meets specific conditions. The implementation is available on the website https://github.com/Paraskevi-Tokmakidou/artificial-neural-networks
The neuron is the most important component of the brain and is responsible for intelligent processes. This fact was an inspiration for the development of networks to simulate such processes, with the main representative being the learning process. The purpose of this thesis is to understand the basic concepts of the ANN branch and to study some basic stochastic algorithms with an emphasis on the model and not on the mathematical analysis. In the first chapter, a description of fundamental concepts necessary for the basic understanding of ANN is given. In the second chapter, the operational mode of some supervised ANN is analyzed, starting with the most historical network, Rosenblatt's Perceptron. Subsequently, the Adaline network and the Multi-Layer Perceptron are examined. Along with the latter network, two basic methods for its training are described, Back Propagation and Gradient Descent. In the third chapter, genetic algorithms are described - another type of algorithm that has the potential of optimising ANN. In conjunction with the thesis text, an application implemented with Java language, which includes the ability to train an MLP network using the Back Propagation and Gradient Descent methods, as well as with the utilization of a genetic algorithm with the purpose of optimizing the initial weights of the MLP network. In this application, some datasets are already prepared for testing, but the user can also load any file, provided it meets specific conditions. The implementation is available on the website https://github.com/Paraskevi-Tokmakidou/artificial-neural-networks
Περιγραφή
Λέξεις-κλειδιά
Νευρωνικά δίκτυα, Δίκτυα, Αλγόριθμοι
Θεματική κατηγορία
Τεχνητά νευρωνικά δίκτυα, Δίκτυα, Αλγόριθμοι
Παραπομπή
Σύνδεσμος
Γλώσσα
el
Εκδίδον τμήμα/τομέας
Τμήμα Πληροφορικής και Τηλεπικοινωνιών
Όνομα επιβλέποντος
Τσούλος, Ιωάννης
Εξεταστική επιτροπή
Γιαννακέας, Νικόλαος
Χαριλόγης, Βασίλειος
Χαριλόγης, Βασίλειος
Γενική Περιγραφή / Σχόλια
Ίδρυμα και Σχολή/Τμήμα του υποβάλλοντος
Πανεπιστήμιο Ιωαννίνων. Σχολή Πληροφορικής και Τηλεπικοινωνιών. Τμήμα Πληροφορικής και Τηλεπικοινωνιών.
Πίνακας περιεχομένων
Χορηγός
Βιβλιογραφική αναφορά
Ονόματα συντελεστών
Αριθμός σελίδων
49 σ.
Λεπτομέρειες μαθήματος
item.page.endorsement
item.page.review
item.page.supplemented
item.page.referenced
Άδεια Creative Commons
Άδεια χρήσης της εγγραφής: Attribution-NonCommercial-NoDerivs 3.0 United States