Φιλοσοφία της Τεχνητής Νοημοσύνης: Διαφορά μεταξύ των αναθεωρήσεων

Περιεχόμενο που διαγράφηκε Περιεχόμενο που προστέθηκε
Mika kts (συζήτηση | συνεισφορές)
Νέα σελίδα: {{Υπό κατασκευή}} Η '''Φιλοσοφία της Τεχνητής Νοημοσύνης''' απαντά σε ερωτήματα του κλάδου της Με...
 
Mika kts (συζήτηση | συνεισφορές)
Χωρίς σύνοψη επεξεργασίας
Γραμμή 1:
{{Υπό κατασκευή}}
 
Η '''Φιλοσοφία της Τεχνητής Νοημοσύνης''' απαντά σε ερωτήματα του κλάδου της [[Μεταφυσική|μεταφυσικής φιλοσοφίας]] και πιο συγκεκριμένα σε εκείνα που αναζητούν την εξήγηση των όρων "μηχανής" και "νόησης". Άλλα ερωτήματα που την απασχολούν είναι:
 
Γραμμή 42 ⟶ 40 :
 
==== Ο εγκέφαλος μπορεί να προσομοιωθεί ====
[[Αρχείο:Hubert Dreyfus.jpg|μικρογραφία|Χούμπερτ Ντρέιφους]]
Ο '''Χ. Ντρέιφους''' περιγράφει το επιχείρημά του λέγοντας ότι: <blockquote>"''Αν το νευρικό σύστημα υπακούει στους νόμους της φυσικής και της χημείας, που έχουμε κάθε λόγο να πιστεύουμε ότι το κάνει, τότε..εμείς.. θα έπρεπε να είμαστε ικανοί να αναπαραγάγουμε τη συμπεριφορά του νευρικού συστήματος με κάποια υλική μηχανή''". <ref name=":4">{{Cite book|title=What Computers Can't Do|first=Hubert|last=Dreyfus|isbn=0-06-011082-1|year=1972|location=New York: MIT Press|page=}}</ref></blockquote>Το επιχείρημα, αυτό, ειπώθηκε για πρώτη φορά το [[1943]] και έντονα υποστηρίχθηκε το [[1988]] από τον '''Χανς Μόραβεκ'''<ref>{{Cite book|title=Mind Children|first=Hans|last=Moravec|isbn=|year=1988|location=Harvard University Press|page=}}</ref>. Ο '''Ρέι Κουρτσβάιλ''', υπολογίζει ότι η υπολογιστική δύναμη θα είναι επαρκής για να πραγματοποιήσει προσομοίωση εγκεφάλου το 2029<ref>{{Cite book|title=The Singularity is Near|first=Ray|last=Kurzweil|isbn=0-670-03384-7|year=2005|location=New York: Viking Press|page=}}</ref>. Αντίστοιχα, μια μη-πραγματικού-χρόνου προσομοίωση θαλαμοφλοιωδούς μοντέλου που είχε το μέγεθος ανθρώπινου εγκεφάλου, πραγματοποιήθηκε το 2005 και χρειάστηκαν 50 μέρες για την προσομοίωση 1 δευτερολέπτου εγκεφαλικής δραστηριότητας από σύμπλεγμα 27 επεξεργαστών.
 
Γραμμή 47 ⟶ 46 :
 
==== Η ανθρώπινη σκέψη είναι επεξεργασία συμβόλων ====
[[Αρχείο:Herbert simon red complete.jpg|αριστερά|μικρογραφία|Xέρμπερτ Σάιμον]]
 
Το [[1963]], ο '''Άλεν Νιούελ''' και ο '''Χέρμπετ Σάιμον''' πρότειναν ότι ένας "συμβολικός χειρισμός" αποτελεί την ουσία της ανθρώπινης και της μηχανικής νοημοσύνης. Πιο συγκεκριμένα: <blockquote>''"Ένα φυσικό συμβολικό σύστημα έχει τα απαραίτητα και τα επαρκή χαρακτηριστικά της γενικής νοητικής πράξης".''<ref name=":0" /></blockquote>Η πεποίθηση αυτή είναι πολύ ισχυρή: Υπονοεί ότι και η ανθρώπινη σκέψη είναι είδος συμβολικού χειρισμού (επειδή ένα συμβολικό σύστημα είναι '''απαραίτητο''' για τη νοημοσύνη) και ότι οι μηχανές μπορούν να είναι έξυπνης (επειδή ένα συμβολικό σύστημα είναι '''επαρκές''' για τη νοημοσύνη). Μια άλλη εκδοχή της πρότασης αυτής, περιγράφηκε από τον φιλόσοφο '''Χ. Ντρέιφους''', και ονομάζεται "''Φιλοσοφική Υπόθεση''": <blockquote>''"Η σκέψη μπορεί να παρατηρηθεί ως μια μηχανή που χειρίζεται στοιχεία πληροφοριών, σύμφωνα με επίσημους κανόνες".''<ref name=":4" /></blockquote>
 
Γραμμή 54 ⟶ 55 :
 
== Ερωτήματα για τη Συναίσθηση ==
[[Αρχείο:John Searle speaking at Google 1.jpg|μικρογραφία|Tζον Σέαρλ]]
 
Τα ερωτήματα για τη συναίσθηση αποτελούν φιλοσοφικά ερωτήματα. Το ερώτημα σχετίζεται από την άποψη του '''Τζ. Σέαρλ''', που την ονομάζει "Ισχυρή τεχνητή νοημοσύνη":<blockquote>''"Ένα φυσικό συμβολικό σύστημα μπορεί να έχει νόηση και ψυχικές καταστάσεις."''<ref name=":1" /></blockquote>Και την διαχωρίζει από την άποψη που ονομάζει "Ανίσχυρη τεχνητή νοημοσύνη": <ref name=":1" /><blockquote>''"Ένα φυσικό συμβολικό σύστημα μπορεί να πράξει έξυπνα".''</blockquote>Ο '''Σέαρλ''' εισαγάγει τις δυο απόψεις για να μπορεί να συγκεντρωθεί σε εκείνη που θεωρεί πιο ενδιαφέρουσα και αμφιλεγόμενη. Θεωρεί ότι ακόμη κι αν πούμε ότι έχουμε ένα υπολογιστικό πρόγραμμα που πράττει ακριβώς όπως ο ανθρώπινος νους, ακόμη θα υπάρχει μια δύσκολη φιλοσοφική ερώτηση που χρειάζεται να απαντηθεί. Καμία, όμως, από τις δυο θέσεις του '''Σέαρλ''' δεν απασχολεί ιδιαίτερα τους ερευνητές της τεχνητής νοημοσύνης, καθώς δεν απαντάνε άμεσα στην ερώτηση "''Μπορεί μια μηχανή να παρουσιάσει νοημοσύνη;''" (Εκτός αν μπορεί να αποδειχθεί ότι αυτή η συναίσθηση είναι '''απαραίτητη''' για την νόηση). Ο '''Τούρινγκ''' έγραψε: <blockquote>''"Δεν επιθυμώ να δώσω την εντύπωση ότι πιστεύω ότι δεν υπάρχει μυστήριο που σχετίζεται με τη συναίσθηση..αλλά δεν πιστεύω ότι αυτά τα μυστήρια είναι απαραίτητα να έχουν λυθεί πριν καταφέρουμε να απαντήσουμε στην ερώτηση (αν οι μηχανές μπορούν να σκεφτούν)".''<ref name=":5">{{Cite book|title=Computing Machinery and Intelligence|first=Alan|last=Turing|isbn=|year=Οκτώβριος 1950|location=Mind, LIX|page=(236): 433–460}}</ref></blockquote>Ο '''Ράσελ''' και ο '''Νόρβιγκ''' συμφωνούν: <blockquote>''"Οι περισσότεροι ερευνητές της τεχνητής νοημοσύνης ενδιαφέρονται για την "Ανίσχυρη τεχνητή νοημοσύνη" και όχι για την "Ισχυρή τεχνητή νοημοσύνη".'' <ref name=":3" /></blockquote>Υπάρχουν λίγοι ερευνητές που πιστεύουν ότι οι συναίσθηση είναι ουσιώδες στοιχείο της νόησης, όπως ο '''Ιγκόρ Αλεξάντερ''', '''Σταν Φράνκλιν''', '''Ρον Σαν'''. Αν και, ο ορισμός της "συναίσθησης" προσεγγίζει πολύ τον ορισμό της "νόησης",όπως τον εξετάζουν.
 
Γραμμή 70 ⟶ 73 :
==== Είναι μια μηχανή φιλική ή εχθρική; ====
Το ερώτημα έχει δύο μορφές: α) η "εχθρικότητα" μπορεί να οριστεί ως λειτουργία ή συμπεριφορά, που σε αυτήν την περίπτωση, "εχθρικός" είναι το συνώνυμο του "επικίνδυνου" β) η "εχθρικότητα" μπορεί να οριστεί ως πρόθεση, δηλαδή, μπορεί μια μηχανή "εσκεμμένα" να ρυθμιστεί για να κάνει κακό. Το ερώτημα που σχετίζεται με το αν υψηλής νοημοσύνης και εντελώς αυτόνομα μηχανήματα μπορούν να είναι επικίνδυνα εξετάζεται λεπτομερώς από τους φουτουριστές.
[[Αρχείο:Vernor Vinge small.jpg|αριστερά|μικρογραφία|Βέρνορ Βινκ]]
 
Ένα πρόβλημα είναι ότι οι μηχανές μπορεί να αποκτήσουν την αυτονομία και τη νοημοσύνη που χρειάζονται για να γίνουν επικίνδυνες, πολύ γρήγορα<ref name=":7">{{Cite news|url=https://www.nytimes.com/2009/07/26/science/26robot.html?_r=1&ref=todayspaper|title=Scientists Worry Machines May Outsmart Man|last=Markoff|first=John|language=en|accessdate=2018-09-11}}</ref>. Ο '''Βέρνορ ΒίνγκΒινγκ''' θεωρεί ότι σε λίγα χρόνια, οι υπολογιστές ξαφνικά θα γίνουν χιλιάδες ή μυριάδες φορές πιο έξυπνοι από τους ανθρώπους και υποθέτει ότι αυτό με κάποιο τρόπο ή πιθανώς να γίνει επικίνδυνο για τους ανθρώπους.<ref>{{Cite web|url=https://web.archive.org/web/20070101133646/http://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html|title=The Coming Technological Singularity|date=2007-01-01|accessdate=2018-09-11}}</ref> Αυτό είναι ένα ζήτημα που ερευνάται από τη φιλοσοφία που καλείται '''Σινγκιουλαριταριανισμός''' (Singularitarianism).
 
To [[2009]], ακαδημαϊκοί και τεχνολογικά εξειδικευμένοι παρευρέθησαν σε συνέδριο για να συζητήσουν την ενδεχόμενη σύγκρουση των ρομπότ και των υπολογιστών και τη σύγκρουση με την υποθετική πιθανότητα ότι μπορούν να γίνουν αυτόνομα και ικανά να λαμβάνουν τις δικές τους αποφάσεις. Συζήτησαν, ακόμη, την πιθανότητα και την έκταση που οι υπολογιστές και τα ρομπότ θα μπορούν να αποκτήσουν και σε ποιο βαθμό θα μπορούν να χρησιμοποιήσουν τις ικανότητες αυτές ώστε να πραγματοποιήσουν οποιαδήποτε απειλή. Σημειώθηκε ότι μερικές μηχανές έχουν αποκτήσει διάφορες μορφές αυτονομίας, περιλαμβάνοντας τη δυνατότητα αναζήτησης πηγών ενέργειας από μόνες τους και τη δυνατότητα να επιλέγουν στόχους επίθεσης με όπλα. Επιπροσθέτως, υπογράμμισαν όταν ορισμένοι ιοί υπολογιστών μπορούν να επιβιώσουν με τις ικανότητες "κατσαρίδας". Βεβαίως, τόνισαν ότι η αυτονομία στο επίπεδο που παρουσιάζεται στα σενάρια επιστημονικής φαντασίας είναι σχεδόν απίθανη αλλά υπάρχουν ορισμένοι δυνητικοί κίνδυνοι<ref name=":7" />.