Μηχανική μάθηση: Διαφορά μεταξύ των αναθεωρήσεων

Περιεχόμενο που διαγράφηκε Περιεχόμενο που προστέθηκε
Melmathiakh (συζήτηση | συνεισφορές)
μΧωρίς σύνοψη επεξεργασίας
Melmathiakh (συζήτηση | συνεισφορές)
Δημιουργήθηκε από μετάφραση της σελίδας "Machine learning"
Γραμμή 21:
 
Μια άλλη κατηγοριοποίηση των εργασιών  μηχανικής μάθησης προκύπτει όταν κάποιοςθεωρήσει'' το ε''πιθυμητό'' αποτέλεσμα του ''σύστηματος μηχανικής μάθησης.:<ref name="bishop">Machine learning and pattern recognition "can be viewed as two facets of
the same field."</ref>{{Πρότυπο<sup class="reference" style="white-space:nowrap;" contenteditable="false">:Rp|3}}</sup>
* Στην [[Στατιστική ταξινόμηση|ταξινόμηση]], τα δεδομένα εισόδου χωρίζονται σε δύο ή περισσότερες κλάσεις, και η μηχανή πρέπει να κατασκευάσει ένα μοντέλο, το οποίο θα αντιστοιχίζει τα δεδομένα  σε μία ή περισσότερες ([[:en:Multi-label_classification|multi-label ταξινόμηση]]) κλάσεις. Αυτό είναι συνήθως εμπίπτει στην επιτηρούμενη μάθηση. Τα φίλτρα Spam  είναι ένα παράδειγμα  ταξινόμησης, όπου οι είσοδοι είναι τα emails ή άλλα μηνύματα και οι κλάσεις είναι "spam" και "όχι spam".
* Στην [[Παλινδρόμηση (στατιστική)|παλινδρόμηση]], επίσης πρόβλημα επιτηρούμενης μάθησης, τα αποτελέσματα είναι συνεχή και όχι διακριτά.
Γραμμή 29:
 
== Ιστορία και σχέσεις με άλλους τομείς ==
Ως επιστημονικό εγχείρημα, η μηχανική μάθηση  αναπτύχθηκε από την αναζήτηση για την τεχνητή νοημοσύνη. Ήδη κατά τις πρώτες ημέρες της Τεχνητής νοημοσύνης ως ακαδημαϊκής εργασίας,  το ζήτημα της κατασκευής μηχανών που θα μάθαιναν από δεδομένα απασχόλησε τους ερευνητές. Προσπάθησαν να προσεγγίσουν το πρόβλημα με διάφορες συμβολικές μεθόδους, καθώς και με τα λεγόμενα "[[Νευρωνικό δίκτυο|νευρωνικά δίκτυα]]".Αυτά ήταν ως επί το πλείστον[[Perceptron| perceptrons]] και  μοντέλα, που όπως διαπιστώθηκε αργότερα ήταν επανεφευρέσεις των γενικευμένων γραμμικών μοντέλων της στατιστικής. Επίσης χρησιμοποιήθηκε η πιθανοθεωρητική λογική, ιδιαίτερα  στην αυτοματοποιημένη ιατρική διάγνωση.<ref name="aima"><cite class="citation book">Russell, Stuart; Norvig, Peter (2003) [1995]. </cite></ref>{{Πρότυπο<sup class="reference" style="white-space:nowrap;" contenteditable="false">:Rp|488}}</sup>
 
Ωστόσο, μια αυξανόμενη έμφαση σε προσεγγίσεις που βασίζονται στην λογική γνώση προκάλεσε ένα ρήγμα μεταξύ Τεχνητής Νοημοσύνης και μηχανικής μάθησης. Τα πιθανοθεωρητικά συστήματα μαστίζονταν από θεωρητικά και πρακτικά προβλήματα  απόκτησης δεδομένων και αναπαράστασης τους.<ref name="aima"><cite class="citation book">Russell, Stuart; Norvig, Peter (2003) [1995]. </cite></ref>{{Πρότυπο<sup class="reference" style="white-space:nowrap;" contenteditable="false">:Rp|488}}</sup> Από το 1980, [[έμπειρα συστήματα]] , επικράτησαν στο πεδίο της Τεχνητής Νοημοσύνης, και ο ρόλος της στατιστικής υποχώρησε.<ref name="changing">{{Πρότυπο:Cite journal|title=The changing science of machine learning|journal=[[Machine Learning (journal)|Machine Learning]]|issue=3|doi=10.1007/s10994-011-5242-y|year=2011|volume=82|pages=275–279|pmc=|pmid=|last1=Langley|first1=Pat}}</ref> Η εργασία σε συμβολική/βασισμένη σε γνώση εκμάθηση συνεχίστηκε εντός της ΤΝ, οδηγώντας στον  [[:en:Inductive_logic_programming|επαγωγικό λογικό προγραμματισμό]], αλλά οι κατευθηντήριες γραμμές της στατιστικής ήταν τώρα έξω από το χώρο της τεχνητής νοημοσύνης, στην [[αναγνώριση προτύπων]]  και στην [[ανάκτηση πληροφοριών]].<ref name="aima"><cite class="citation book">Russell, Stuart; Norvig, Peter (2003) [1995]. </cite></ref>{{Πρότυπο<sup class="reference" style="white-space:Rp|708–710nowrap;" contenteditable="false">:708-710; 755}}</sup> Η έρευνα για νευρωνικά δίκτυα εγκαταλήφθηκε από την ΤΝ και την Επιστήμη Υπολογιστών τον ίδιο περίπου καιρό. Η ίδια επίσης κατεύθυνση ακολουθήθηκε πέρα από την ΤΝ και την πληροφορική, από  ερευνητές άλλων ειδικοτήτων, συμπεριλαμβανομένων των Hopfield, Rumelhart και Χίντον. Η επιτυχία ήρθε μέσα της δεκαετίας του 1980 με την επανεφεύρεση του backpropagation.<ref name="aima"><cite class="citation book">Russell, Stuart; Norvig, Peter (2003) [1995]. </cite></ref>{{Πρότυπο<sup class="reference" style="white-space:nowrap;" contenteditable="false">:Rp|25}}</sup>
 
Η Μηχανική μάθηση, αναδιοργανώθηκε ως ένα ξεχωριστό πεδίο, που  άρχισε να ακμάζει κατά τη δεκαετία του 1990. Η προσοχή μετατοπίστηκε από τις συμβολικές προσεγγίσεις που κληρονόμησε από την Τεχνητή Νοημοσύνη, που στόχο είχαν την αντιμετώπιση επιλύσιμων προβλημάτων πρακτικής φύσης, και δόθηκε έμφαση σε μεθόδους και μοντέλα της στατιστικής και της <span class="cx-segment" data-segmentid="442"></span>[[Θεωρία πιθανοτήτων|θεωρίας πιθανοτήτων]].<ref name="changing">{{Πρότυπο:Cite journal|title=The changing science of machine learning|journal=[[Machine Learning (journal)|Machine Learning]]|issue=3|doi=10.1007/s10994-011-5242-y|year=2011|volume=82|pages=275–279|pmc=|pmid=|last1=Langley|first1=Pat}}</ref> Επίσης επωφελήθηκε από την διαθεσιμότητα ψηφιοποιημένων πληροφοριών και της δυνατότητας να διανεμηθούν μέσω [[Διαδίκτυο|Διαδικτύου]].
Γραμμή 45:
Η μηχανική μάθηση και η [[στατιστική]] είναι δύο στενά συνδεδεμένοι επιστημονικοί τομείς. Σύμφωνα με τον Michael Jordan, οι ιδέες της μηχανικής μάθησης, από τις μεθοδολογικές αρχές μέχρι τα θεωρητικά εργαλεία, προϋπάρχουν στην στατιστική. Ο ίδιος επίσης πρότεινε τον όρο [[Επιστήμη Δεδομένων]] για το συνολικό πεδίο<ref name="mi jordan ama">{{Πρότυπο:Cite web|url=http://www.reddit.com/r/MachineLearning/comments/2fxi6v/ama_michael_i_jordan/ckelmtt?context=3|title=statistics and machine learning|date=2014-09-10|publisher=reddit|language=|accessdate=2014-10-01|author=MI Jordan}}</ref><ref name="mi jordan ama">{{Πρότυπο:Cite web|url=http://www.reddit.com/r/MachineLearning/comments/2fxi6v/ama_michael_i_jordan/ckelmtt?context=3|title=statistics and machine learning|date=2014-09-10|publisher=reddit|language=|accessdate=2014-10-01|author=MI Jordan}}</ref>
 
Ο Leo Breiman διέκρινε δύο υποδείγματα στατιστικής μοντελοποίησης: το μοντέλο δεδομένων και το αλγοριθμικό μοντέλο<ref>{{Πρότυπο:Cite web|url=http://projecteuclid.org/download/pdf_1/euclid.ss/1009213726|title=Breiman : Statistical Modeling: The Two Cultures (with comments and a rejoinder by the author)|publisher=|accessdate=8 August 2015|author=Cornell University Library}}</ref>[[:en:Random_forest| , όπου το δεύτερο σημαίνει λίγο πολύ τους αλγορίθμους μηχανικής μάθησης, όπως τα [[:en:Random_forest|Τυχαία Δάση.]]
 
Τέλος, ορισμένοι στατιστικολόγοι υιοθετούν μεθόδους μηχανικής μάθησης, με αποτέλεσμα την δημιουργία ενός ανασυνδυσμένου τομέα που ονομάζεται ''στατιστική μάθηση''.<ref name="islr">{{Πρότυπο:Cite book|url=http://www-bcf.usc.edu/~gareth/ISL/|title=An Introduction to Statistical Learning|publisher=Springer|year=2013|page=vii|author1=Gareth James|author2=Daniela Witten|author3=Trevor Hastie|author4=Robert Tibshirani}}</ref>
Γραμμή 60:
Υπάρχουν πολλές ομοιότητες μεταξύ της μηχανικής μάθησης και της [[:en:Statistical_inference|στατιστικής συμπερασματολογίας]], αν και χρησιμοποιούν διαφορετικούς όρους.
 
== Προσεγγίσεις ==
== Δείτε επίσης ==
 
=== Εκμάθηση με δέντρο απόφασης ===
Η εκμάθηση με δέντρο απόφασης χρησιμοποιεί ένα [[:en:Decision_tree|δέντρο απόφασης]] ως [[:en:Predictive_modelling|προγνωστικό μοντέλο]], το οποίο αντιστοιχίζει  παρατηρήσεις σχετικά με ένα στοιχείο σε συμπεράσματα σχετικά με την τιμή στόχο του αντικειμένου.
 
=== Εκμάθηση με Κανόνες συσχέτισης ===
Η εκμάθηση με κανόνες συσχέτισης είναι μια μέθοδος ανακάλυψης ενδιαφέρων σχέσεων μεταξύ των μεταβλητών σε μεγάλες βάσεις δεδομένων.
 
=== Τεχνητά νευρωνικά δίκτυα ===
Ένας αλγόριθμος εκμάθησης Τεχνητού νευρωνικού δικτύου, που συνήθως ονομάζεται "νευρωνικό δίκτυο" (NN), είναι ένας αλγόριθμος μάθησης, που εμπνέεται από τη δομή και τις λειτουργικές πτυχές των [[Νευρωνικό δίκτυο|βιολογικών νευρωνικών δικτύων]]. H δομή των υπολογισμών βασίζεται σε μια ομάδα εσωτερικά διασυνδεδεμένων τεχνητών νευρώνων, οι οποίοι επεξεργάζονται την πληροφορία και εκτελούν υπολογισμούς επικοινωνώντας μεταξύ τους. Τα σύγχρονα νευρωνικά δίκτυα είναι εργαλεία [[μη γραμμικής στατιστικής μοντελοποίησης δεδομένων]]. Συνήθως χρησιμοποιούνται για τη μοντελοποίηση σύνθετων σχέσεων μεταξύ δεδομένων εισόδου και εξόδου, για την ανακάλυψη προτύπων στα δεδομένα, ή για τον εντοπισμό στατιστικής δομής σε μία  άγνωστη [[:en:Joint_probability_distribution|κοινή κατανομή πιθανότητας]] μεταξύ των παρατηρούμενων μεταβλητών.
 
=== Βαθιά Μάθηση ===
Η πτώση των τιμών του υλικού των τελευταίων ετών καθώς και η ανάπτυξη των GPU για προσωπική χρήση, οδήγησε στην ανάπτυξη της ιδέας της Βαθιάς Μάθησης. Αυτή η προσέγγιση προσπαθεί να μοντελοποιήσει τον τρόπο που ο ανθρώπινος εγκέφαλος επεξεργάζεται το φως και τον ήχο και τα μετατρέπει σε όραση και ακοή. Ορισμένες επιτυχείς εφαρμογές της Βαθιάς μάθησης είναι η μηχανική όραση και η αναγνώριση ομιλίας.
 
=== Επαγωγικός λογικός προγραμματισμός ===
Ο Επαγωγικός λογικός προγραμματισμός (ILP) είναι μια προσέγγιση που διέπει την μάθηση και χρησιμοποιεί λογικό προγραμματισμό ως τρόπο παρουσίασης των παραδειγμάτων εισόδου, του γνωστικού υποβάθρου και των υποθέσεων.Δεδομένης μιας κωδικοποίησης του γνωστικού υποβάθρου και ενός συνόλου παραδειγμάτων που παρουσιάζονται σαν λογική βάση γεγονότων, το σύστημα ΕΛΠ παράγει το υποτιθέμενο λογικό πρόγραμμα που περιέχει όλα τα θετικά και κανένα αρνητικό παράδειγμα. Ο επαγωγικός προγραμματισμός είναι ένας σχετικός τομέας που λαμβάνει υπόψιν κάθε είδος προγραμματιστικής γλώσσας για την αναπαράσταση  υποθέσεων  (και όχι μόνο λογικό προγραμματισμό), όπως τα συναρτησιακά προγράμματα.
 
=== Μηχανές διανυσμάτων υποστήριξης ===
Οι μηχανές διανυσμάτων υποστήριξης είναι ένα σύνολο μεθόδων [[επιτηρούμενη μαθηση|επιτηρούμενης μάθησης]]  που χρησιμοποιούνται για την [[Στατιστική ταξινόμηση|ταξινόμηση]] και την [[Παλινδρόμηση (στατιστική)|παλινδρόμηση]]. Σ' αυτήν την περίπτωση δίνεται ένα σύνολο παραδειγμάτων εκπαίδευσης και κάθε φορά δηλώνεται σε ποια από τις δύο κατηγορίες ανήκει το παράδειγμα. Μία μηχανή διανυσμάτων υποστήριξης κατασκεάζει ένα μοντέλο που προβλέπει αν το νέο παράδειγμα εμπίπτει στην μία κατηγορία ή την άλλη.
 
=== Ομαδοποίηση ===
Η ομαδοποίηση είναι η διαδικασία κατά την οποία ένα σύνολο παρατηρήσεων χωρίζεται σε υποσύνολα έτσι ώστε οι παρατηρήσεις που ανήκουν στην ίδια ομάδα   (''cluster'') είναι όμοιες, σύμφωνα με κάποιο ή κάποια προκαθορισμένα κριτήρια, ενώ οι παρατηρήσεις που προέρχονται από διαφορετικά υποσύνολα είναι ανόμοιες. Διαφορετικές τεχνικές κατηγοριοποίησης οδηγούν σε διαφορετικές υποθέσεις σχετικά με τη δομή των δεδομένων, οι οποίες συχνά καθορίζονται από κάποιο μέτρο ομοιότητας και αξιολογούνται για παράδειγμα ως προς την ''εσωτερική συνοχή'' (ομοιότητα μεταξύ των μελών του ίδιου cluster) και ''το διαχωρισμό'' ανάμεσα σε διαφορετικές ομάδες. Άλλες μέθοδοι  βασίζονται στην ''εκτιμώμενη πυκνότητα'' και ''την συνεκτικότητα των  γραφημάτων''. Η ομαδοποίηση είναι μία μέθοδος μη [[επιτηρούμενης μάθησης]] και μία τεχνική η οποία χρησιμοποιείται επίσης στην [[στατιστική ανάλυση δεδομένων]].
 
=== Δίκτυα Bayes ===
Ένα δίκτυο Bayes, ένα δίκτυο εμπιστοσύνης ή ένα άκυκλο γραφικό μοντέλο είναι ένα [[πιθανοθεωρητικό γραφικό μοντέλο]] που απεικονίζει ένα σύνολο [[Τυχαία μεταβλητή|τυχαίων μεταβλητών]] και την μεταξύ τους υποθετική ανεξαρτησία διαμέσου ενός [[Κατευθυνόμενος άκυκλος γράφος|κατευθυνόμενου άκυκλου γράφου]] . Για παράδειγμα, ένα δίκτυο Bayes μπορεί να αναπαραστήσει την πιθανοθεωρητική σχέση μεταξύ ασθενειών και συμπτωμάτων. Δεδομένων των συμπτωμάτων, το δίκτυο μπορεί να χρησιμοποιηθεί για να υπολογίσει τις πιθανότητες παρουσίας  διαφόρων ασθενειών. <span class="cx-segment" data-segmentid="620"></span>
 
=== Ενισχυτική μάθηση ===
H Ενισχυτική μάθηση ασχολείται με το πώς ένα'' υποκείμενο (πράκτορας) '' θα πρέπει να δράσει σε ένα ''περιβάλλον'' , έτσι ώστε να μεγιστοποιηθεί κάποια έννοια μακροπρόθεσμης ''ανταμοιβής''. Οι αλγόριθμοι ενισχυτικής μάθησης προσπαθούν να βρούν μια ''πολιτική'' που ''αντιστοιχίζει τις καταστάσεις του περιβάλλοντος με'' τις ενέργειες  που ο πράκτορας θα πρέπει να επιτελέσει σε αυτές τις καταστάσεις. Η ενισχυτική μάθηση διαφέρει από τα προβλήματα  [[:en:Supervised_learning|επιτηρούμενης μάθησης]] αφού  τα σωστά ζεύγη δεδομένων εισόδου/εξόδου ζεύγη δεν παρουσιάστηκαν ποτέ, ούτε οι βέλτιστες δυνατές ενέργειες  έχουν ρητά διορθωθεί.
 
<span class="cx-segment" data-segmentid="638"></span>
 
 
 
=== Εκμάθηση με μέτρο ομοιότητας ===
<span class="cx-segment" data-segmentid="661"></span>Σε αυτή την κατηγορία προβλημάτων δίνονται στην μηχανή μάθησης ζεύγη παραδειγμάτων που θεωρούνται όμοια  και ζεύγη που θεωρούνται ανόμοια. Τότε η μηχανή μάθησης πρέπει να μάθει μια συνάρτηση ομοιότητας  (ή μια συνάρτηση μετρικής απόστασης), που μπορεί να προβλέψει αν δύο  καινούρια αντικείμενα είναι όμοια. Πρόκειται για μια τεχνική που χρησιμοποιείται σε [[συστημα σύστασης|συστήματα σύστασης]].
 
<span class="cx-segment" data-segmentid="671"></span>
 
=== Γενετικοί αλγόριθμοι ===
Ένας γενετικός αλγόριθμος (GA) είναι μια [[Αλγόριθμος αναζήτησης|ευρετική αναζήτηση]]  που μιμείται τη διαδικασία της [[Φυσική επιλογή|φυσικής επιλογής]], και χρησιμοποιεί μεθόδους όπως αυτή  της [[Χρωμοσωμική μετάλλαξη|μετάλλαξη]]<nowiki/>ς και της [[:en:Crossover_(genetic_algorithm)|διασταύρωσης]] προκειμένου να δημιουργήσει καινούρια γονότυπα με την ελπίδα εύρεσης αποτελεσματικών λύσεων σε ένα συγκεκριμένο πρόβλημα. Στη  μηχανική μάθηση, γενετικοί αλγόριθμοι χρησιμοποιήθηκαν τη δεκαετία του 1980 και του 1990.<ref>{{Πρότυπο:Cite journal|title=Genetic algorithms and machine learning|last2=Holland|first2=John H.|journal=[[Machine Learning (journal)|Machine Learning]]|issue=2|doi=10.1007/bf00113892|year=1988|volume=3|pages=95–99|last1=Goldberg|first1=David E.}}</ref><ref>{{Πρότυπο:Cite book|title=Machine Learning, Neural and Statistical Classification|last2=Spiegelhalter|first2=D. J.|publisher=Ellis Horwood|year=1994|first1=D.|last1=Michie|first3=C. C.|last3=Taylor}}</ref> Αντίστροφα, τεχνικές μηχανικής μάθησης έχουν χρησιμοποιηθεί για την  βελτίωση της απόδοσης γενετικών και [[:en:Evolutionary_algorithm|εξελικτικών αλγορίθμων]].<ref>{{Πρότυπο:Cite journal|url=http://ieeexplore.ieee.org/iel5/10207/6052357/06052374.pdf?arnumber=6052374|title=Evolutionary Computation Meets Machine Learning: A Survey|last2=Zhan|first2=Zhi-hui|journal=Computational Intelligence Magazine|publisher=IEEE|issue=4|doi=10.1109/mci.2011.942584|year=2011|volume=6|pages=68–75|last3=Lin|first3=Ying|last4=Chen|first4=Ni|last5=Gong|first5=Yue-jiao|last6=Zhong|first6=Jing-hui|last7=Chung|first7=Henry S.H.|last8=Li|first8=Yun|last9=Shi|first9=Yu-hui|last1=Zhang|first1=Jun}}</ref>
 
== See also ==
 
== Παραπομπές ==