Φιλοσοφία της Τεχνητής Νοημοσύνης: Διαφορά μεταξύ των αναθεωρήσεων

Περιεχόμενο που διαγράφηκε Περιεχόμενο που προστέθηκε
Mika kts (συζήτηση | συνεισφορές)
Νέα σελίδα: {{Υπό κατασκευή}} Η '''Φιλοσοφία της Τεχνητής Νοημοσύνης''' απαντά σε ερωτήματα του κλάδου της Με...
(Καμία διαφορά)

Έκδοση από την 18:22, 11 Σεπτεμβρίου 2018

Η Φιλοσοφία της Τεχνητής Νοημοσύνης απαντά σε ερωτήματα του κλάδου της μεταφυσικής φιλοσοφίας και πιο συγκεκριμένα σε εκείνα που αναζητούν την εξήγηση των όρων "μηχανής" και "νόησης". Άλλα ερωτήματα που την απασχολούν είναι:

  • "Είναι δυνατό, για μια μηχανή, να πράξει ως νοήμον ον; Έχει τη δυνατότητα να λύσει οποιοδήποτε πρόβλημα, που ένα άτομο θα έλυνε μέσω της σκέψης;"
  • "Είναι η ανθρώπινη νοημοσύνη και η τεχνητή νοημοσύνη παρόμοια; Είναι στην ουσία του ο ανθρώπινος εγκέφαλος ένας υπολογιστής;"
  • "Είναι δυνατό, μια μηχανή να έχει νου, ψυχικές καταστάσεις και συναίσθηση, όπως ο άνθρωπος; Έχει τη δυνατότητα να αισθανθεί το πώς είναι τα πράγματα;"

Οι τρεις, αυτές, ερωτήσεις αντικατοπτρίζουν το ερευνητικό αντικείμενο των ερευνητών της τεχνητής νοημοσύνης, των γλωσσολόγων, των γνωστικών επιστημόνων και των φιλοσόφων. Όπως προαναφέρθηκε, η απάντηση των ερωτημάτων έγκειται στην προσέγγιση των ορισμών της "νοημοσύνης" και της "συναίσθησης" και της επακριβής αναφοράς των "μηχανών", που εξετάζονται. [1]

Ενδεικτικά αναφέρονται μερικές σημαντικές προτάσεις ορισμών, από τον κλάδο της φιλοσοφίας:

  • Άλαν Τούρινγκ : " Αν μια μηχανή συμπεριφέρεται τόσο έξυπνα όσο ένα ανθρώπινο ον, τότε είναι τόσο νοήμον όσο ένα ανθρώπινο ον. "[2]
  • Η πρόταση Dartmouth: " Κάθε πλευρά της μάθησης ή οποιοδήποτε άλλο χαρακτηριστικό της νοημοσύνης μπορεί να περιγραφεί με τόση ακρίβεια, που μια μηχανή μπορεί να φτιαχτεί ώστε να το απομιμείται."
  • Η υπόθεση φυσικού συμβολικού συστήματος των Νιούελ και Σάιμον:" Ένα φυσικό συμβολικό σύστημα έχει τα απαραίτητα και τα επαρκή χαρακτηριστικά μιας γενικής νοητής πράξης."[3]
  • Υπόθεση του Τζ. Σέαρλ: " Ο καταλλήλως προγραμματισμένος υπολογιστής με τα ορθά inputs και outputs μπορεί να έχει νου, με την ακριβώς ίδια συναίσθηση που έχουν τα ανθρώπινα νοήμονα όντα."[4]
  • Μηχανισμός του T. Χομπς: " Για "λόγο"... δεν είναι τίποτα άλλο παρά "υπολογισμός", που προσθέτει και αφαιρεί, τις συνέπειες των γενικών ονομάτων που συμφωνούν με το "μοτίβο" και τις "σημειώσεις" των σκέψεών μας.." [5]

Ερωτήματα για τη Νοημοσύνη

"Είναι δυνατό, να δημιουργηθεί μια μηχανή που να μπορεί να λύνει όλα τα προβλήματα, που οι άνθρωποι λύνουν χρησιμοποιώντας τη νοημοσύνη τους;". Αυτό το ερώτημα εξετάζει την οπτική των ικανοτήτων που θα αποκτήσουν στο μέλλον οι μηχανές και κατευθύνει τις έρευνες της τεχνητής νοημοσύνης. Οι έρευνες αυτές, εξετάζουν μόνο τη συμπεριφορά των μηχανών και αγνοούν τους προβληματισμούς που ενδιαφέρουν τους ψυχολόγους, τους γνωστικούς επιστήμονες και τους φιλοσόφους. Συνεπώς, η απάντησή τους δεν σχετίζεται με το αν οι μηχανές σκέφτονται πραγματικά (όπως το άτομο) ή αν πράττουν σαν να σκέφτονται.

Η θεμελιώδης σκέψης των περισσότερων ερευνητών της τεχνητής νοημοσύνης συμπεριλαμβάνεται στην πρόταση του Dartmouth workshop (1956): "Κάθε πλευρά της μάθησης ή οποιοδήποτε άλλο χαρακτηριστικό της νοημοσύνης μπορεί να περιγραφεί με τόση ακρίβεια, που μια μηχανή μπορεί να φτιαχτεί ώστε να το απομιμείται." Τα επιχειρήματα που ασκούν κριτική στην υπόθεση αυτή είναι δύο: α) Ο σχεδιασμός ενός συστήματος τεχνητής νοημοσύνης είναι αδύνατος, επειδή υπάρχουν ορισμένοι πρακτικοί περιορισμοί στις ικανότητες των υπολογιστών β) Υπάρχει μια ορισμένη μοναδική ικανότητα του ανθρώπινου νου που είναι απαραίτητη για τη σκέψη και δεν μπορεί να αντιγραφεί από τη μηχανή (ή από μεθόδους των ερευνητών της τεχνητής νοημοσύνης). Τα επιχειρήματα υπέρ της υπόθεσης αυτής, πρέπει να δείξουν ότι ένα τέτοιο σύστημα είναι δυνατό να υπάρξει. [6]

Το πρώτο βήμα για να απαντηθεί η ερώτηση είναι να καθοριστεί ο ορισμός της "νοημοσύνης".

Νοημοσύνη

Turing Test
 
Άλαν Τούριγνκ

O Άλαν Τούρινγκ περιόρισε το πρόβλημα του ορισμού της νοημοσύνης σε μια απλή ερώτηση σχετική με τη συζήτηση. Πρότεινε ότι: "Αν μια μηχανή μπορεί να απαντήσει σε οποιαδήποτε ερώτηση της θέσεις, χρησιμοποιώντας τις ίδιες λέξεις που ένα συνηθισμένο πρόσωπο θα χρησιμοποιούσε, τότε μπορούμε να αποκαλούμε αυτή τη μηχανή, έξυπνη." Μια μοντέρνα εκδοχή του πειραματικού σχεδιασμού του θα χρησιμοποιούσε ένα online chat room, που ο ένας από τους συνομιλητές είναι άνθρωπος και ο άλλος είναι υπολογιστικό πρόγραμμα. Το πρόγραμμα "περνάει" το τεστ αν δεν μπορεί κάποιος να ξεχωρίσει από τους συνομιλητές ποιος είναι ο άνθρωπος. Ο Τούρινγκ υπογραμμίζει ότι κανείς (εκτός από τους φιλόσοφους) δεν έχει αναρωτηθεί "μπορούν οι άνθρωποι να σκεφτούν;". Μάλιστα, γράφει: "Αντί να διαφωνούμε συνεχώς για το θέμα αυτό, είναι σύνηθες να έχουμε μια ευγενική σύμβαση ότι όλοι μπορούν να σκεφτούν". Το πείραμα του Τούρινγκ επεκτείνει την "ευγενική σύμβαση" και για της μιχανές: "Αν μια μηχανή συμπεριφέρεται τόσο έξυπνα όσο ένα ανθρώπινο ον, τότε είναι τόσο νοήμον όσο ένα ανθρώπινο ον." [7]

Ένα αντεπιχείρημα του πειράματος εκφράζει ότι είναι ανθρωπομορφικό. Αν ο ιδανικός σκοπός είναι να δημιουργήσουμε μηχανές που είναι πιο έξυπνες από τον άνθρωπο, γιατί να επιμένουμε ότι οι μηχανές πρέπει να είναι όσο πιο φαινομενικά, γίνεται, ανθρώπινες; Για παράδειγμα, ο St. Rusell και ο P. Norving γράφουν ότι : "Τα κείμενα της αεροναυτικής μηχανικής δεν προσδιορίζουν τον σκοπό του κλάδου τους λέγοντας ότι πρέπει να σχεδιάζουν μηχανές που πετάνε ακριβώς όπως τα περιστέρια ώστε να είναι δυνατό να ξεγελάνε τα άλλα περιστέρια. "[8]

Ορισμός Ευφυούς Πράκτορα
 
Σχεδιάγραμμα Ευφυούς Πράκτορα

Στη σύγχρονη εποχή, οι ερευνητές της τεχνητής νοημοσύνης ορίζουν την νοημοσύνη με κριτήρια του νοητικού παράγοντα. "Ευφυής Πράκτορας" είναι αυτός που αντιλαμβάνεται και πράττει σε ένα περιβάλλον. Το "μέτρο απόδοσης" προσδιορίζει τη μετρήσιμη επιτυχία του παράγοντα. Πιο συγκεκριμένα:

"Αν ένας παράγοντας πράττει έτσι ώστε να μεγιστοποιήσει την προσδοκώμενη αξία του μέτρου απόδοσης,που βασίζεται σε παλαιότερη εμπειρία και γνώση, τότε είναι νοήμων."

Ορισμοί, σαν αυτόν, προσπαθούν να συλλάβουν την ουσία της νοημοσύνης. Έχουν το πλεονέκτημα, σε αντίθεση με το πείραμα Turing, ότι δεν συμπεριλαμβάνουν ανθρώπινα χαρακτηριστικά που δεν θεωρούμε ότι είναι έξυπνα, όπως η ικανότητα να προσβάλλουμε ή η πρόθεση να ψευδόμαστε. Αντίστοιχα, έχουν το μειονέκτημα να αποτυγχάνουν στα ζητήματα κοινής λογικής όπως στο "καταστάσεις που σκεφτόμαστε" και "καταστάσεις που δεν σκεφτόμαστε", με αποτέλεσμα να θεωρείται, ότι ακόμη και ένας θερμοστάτης έχει στοιχειώδη νοημοσύνη. [9]

Επιχειρήματα υπέρ της τεχνητής νοημοσύνης

Ο εγκέφαλος μπορεί να προσομοιωθεί

Ο Χ. Ντρέιφους περιγράφει το επιχείρημά του λέγοντας ότι:

"Αν το νευρικό σύστημα υπακούει στους νόμους της φυσικής και της χημείας, που έχουμε κάθε λόγο να πιστεύουμε ότι το κάνει, τότε..εμείς.. θα έπρεπε να είμαστε ικανοί να αναπαραγάγουμε τη συμπεριφορά του νευρικού συστήματος με κάποια υλική μηχανή". [10]

Το επιχείρημα, αυτό, ειπώθηκε για πρώτη φορά το 1943 και έντονα υποστηρίχθηκε το 1988 από τον Χανς Μόραβεκ[11]. Ο Ρέι Κουρτσβάιλ, υπολογίζει ότι η υπολογιστική δύναμη θα είναι επαρκής για να πραγματοποιήσει προσομοίωση εγκεφάλου το 2029[12]. Αντίστοιχα, μια μη-πραγματικού-χρόνου προσομοίωση θαλαμοφλοιωδούς μοντέλου που είχε το μέγεθος ανθρώπινου εγκεφάλου, πραγματοποιήθηκε το 2005 και χρειάστηκαν 50 μέρες για την προσομοίωση 1 δευτερολέπτου εγκεφαλικής δραστηριότητας από σύμπλεγμα 27 επεξεργαστών. Μερικοί διαφωνούν ότι η προσομοίωση εγκεφαλικής δραστηριότητας είναι εφικτή ως θεωρία, ακόμη και κριτικοί της τεχνητής νοημοσύνης όπως ο Χ. Ντρέιφους και ο Τζ. Σέαρλ. Όμως, ο Σέαρλ τονίζει ότι θεωρητικά, τα πάντα μπορούν να προσομοιωθούν σε υπολογιστή, επομένως, σύμφωνα με τον ορισμό υπάρχει ένα σημείο που οδηγεί στο συμπέρασμα ότι οποιαδήποτε διαδικασία μπορεί τεχνικά να θεωρηθεί "υπολογιστική". Επισημαίνει:

"Αυτό που επιθυμούμε να γνωρίσουμε είναι αυτό που ξεχωρίζει τους θερμοστάτες από το ήπαρ". [13]

Συμπερασματικά, απλώς το γεγονός να αντιγραφεί η λειτουργία του εγκεφάλου θα μπορούσε από μόνο του, να είναι μια παραδοχή άγνοιας που σχετίζεται με τη νοημοσύνη και τη φύση του νου.

Η ανθρώπινη σκέψη είναι επεξεργασία συμβόλων

Το 1963, ο Άλεν Νιούελ και ο Χέρμπετ Σάιμον πρότειναν ότι ένας "συμβολικός χειρισμός" αποτελεί την ουσία της ανθρώπινης και της μηχανικής νοημοσύνης. Πιο συγκεκριμένα:

"Ένα φυσικό συμβολικό σύστημα έχει τα απαραίτητα και τα επαρκή χαρακτηριστικά της γενικής νοητικής πράξης".[3]

Η πεποίθηση αυτή είναι πολύ ισχυρή: Υπονοεί ότι και η ανθρώπινη σκέψη είναι είδος συμβολικού χειρισμού (επειδή ένα συμβολικό σύστημα είναι απαραίτητο για τη νοημοσύνη) και ότι οι μηχανές μπορούν να είναι έξυπνης (επειδή ένα συμβολικό σύστημα είναι επαρκές για τη νοημοσύνη). Μια άλλη εκδοχή της πρότασης αυτής, περιγράφηκε από τον φιλόσοφο Χ. Ντρέιφους, και ονομάζεται "Φιλοσοφική Υπόθεση":

"Η σκέψη μπορεί να παρατηρηθεί ως μια μηχανή που χειρίζεται στοιχεία πληροφοριών, σύμφωνα με επίσημους κανόνες".[10]

Γίνεται, συνήθως, διαφοροποίηση μεταξύ του είδους των υψηλών επιπέδων συμβόλων που άμεσα συμφωνούν με αντικείμενα του κόσμου, όπως "σκύλος" και "ουρά", και των πιο περίπλοκων συμβόλων που υπάρχουν στις μηχανές, όπως ένα νευρικό δίκτυο. Μια πρόσφατη έρευνα της τεχνητής νοημοσύνης, που καλείται "Παλιά καλή παραδοσιακή τεχνητή νοημοσύνη" (GOFAl) του Τζον Χόγκλαντ, εξετάζει αυτού του είδους υψηλού επιπέδου σύμβολα. [14]

Τα αντεπιχειρήματα αυτής της θέσης, υποστηρίζουν ότι η ανθρώπινη σκέψη δεν συγκροτείται από υψηλού επιπέδου συμβολικό χειρισμό. Δεν υποστηρίζουν, όμως, ότι δεν είναι δυνατή η τεχνητή νοημοσύνη αλλά ότι χρειάζεται κάτι περισσότερο από τη διαδικασία των συμβόλων.

Ερωτήματα για τη Συναίσθηση

Τα ερωτήματα για τη συναίσθηση αποτελούν φιλοσοφικά ερωτήματα. Το ερώτημα σχετίζεται από την άποψη του Τζ. Σέαρλ, που την ονομάζει "Ισχυρή τεχνητή νοημοσύνη":

"Ένα φυσικό συμβολικό σύστημα μπορεί να έχει νόηση και ψυχικές καταστάσεις."[4]

Και την διαχωρίζει από την άποψη που ονομάζει "Ανίσχυρη τεχνητή νοημοσύνη": [4]

"Ένα φυσικό συμβολικό σύστημα μπορεί να πράξει έξυπνα".

Ο Σέαρλ εισαγάγει τις δυο απόψεις για να μπορεί να συγκεντρωθεί σε εκείνη που θεωρεί πιο ενδιαφέρουσα και αμφιλεγόμενη. Θεωρεί ότι ακόμη κι αν πούμε ότι έχουμε ένα υπολογιστικό πρόγραμμα που πράττει ακριβώς όπως ο ανθρώπινος νους, ακόμη θα υπάρχει μια δύσκολη φιλοσοφική ερώτηση που χρειάζεται να απαντηθεί. Καμία, όμως, από τις δυο θέσεις του Σέαρλ δεν απασχολεί ιδιαίτερα τους ερευνητές της τεχνητής νοημοσύνης, καθώς δεν απαντάνε άμεσα στην ερώτηση "Μπορεί μια μηχανή να παρουσιάσει νοημοσύνη;" (Εκτός αν μπορεί να αποδειχθεί ότι αυτή η συναίσθηση είναι απαραίτητη για την νόηση). Ο Τούρινγκ έγραψε:

"Δεν επιθυμώ να δώσω την εντύπωση ότι πιστεύω ότι δεν υπάρχει μυστήριο που σχετίζεται με τη συναίσθηση..αλλά δεν πιστεύω ότι αυτά τα μυστήρια είναι απαραίτητα να έχουν λυθεί πριν καταφέρουμε να απαντήσουμε στην ερώτηση (αν οι μηχανές μπορούν να σκεφτούν)".[15]

Ο Ράσελ και ο Νόρβιγκ συμφωνούν:

"Οι περισσότεροι ερευνητές της τεχνητής νοημοσύνης ενδιαφέρονται για την "Ανίσχυρη τεχνητή νοημοσύνη" και όχι για την "Ισχυρή τεχνητή νοημοσύνη". [8]

Υπάρχουν λίγοι ερευνητές που πιστεύουν ότι οι συναίσθηση είναι ουσιώδες στοιχείο της νόησης, όπως ο Ιγκόρ Αλεξάντερ, Σταν Φράνκλιν, Ρον Σαν. Αν και, ο ορισμός της "συναίσθησης" προσεγγίζει πολύ τον ορισμό της "νόησης",όπως τον εξετάζουν.

Διάφορα Σχετικά Ερωτήματα

Ο Άλαν Τούρινγκ σημείωσε ότι υπάρχουν πολλές διαφωνίες του τύπου "μια μηχανή ποτέ δεν θα κάνει το Χ", όπου Χ μπορεί να είναι πολλά πράγματα, όπως:

"Να είναι ευγενική, επινοητική, όμορφη, φιλική, να παίρνει πρωτοβουλίες, να έχει αίσθηση του χιούμορ, να διακρίνει το σωστό από το λάθος, να κάνει λάθη, να ερωτεύεται, να απολαμβάνει φράουλες με σαντιγί, να κάνει κάποιον να την ερωτευτεί, να μαθαίνει από τις εμπειρίες, να χρησιμοποιεί της λέξεις σωστά, να είναι το αντικείμενο της σκέψης της, να έχει διάφορες συμπεριφορές όπως ο άνθρωπος, να κάνει κάτι καινούργιο." [15]

Έχει μια μηχανή αισθήματα;

Αν τα "αισθήματα" ορίζονται ως αποτελέσματα συμπεριφοράς ή ως δημιουργημένα στο εσωτερικό ενός οργανισμού, τότε μπορούν να παρατηρηθούν ως ένας μηχανισμός που ο ευφυής πράκτορας χρησιμοποιεί για να μεγιστοποιήσει την πρακτικότητα των πράξεων. Δίνοντας αυτόν τον ορισμό για τα συναισθήματα, ο Χανς Μόραβεκ πιστεύει ότι:

"Τα ρομπότ, γενικότερα, μπορούν να είναι τόσο συναισθηματικά όσο αν ήταν καλοί άνθρωποι".[16]

Ο φόβος πηγάζει από την αναγκαιότητα. Η εμπάθεια είναι απαραίτητο συστατικό μιας καλής ανθρώπινης υπολογιστικής αλληλεπίδρασης. Ακόμη, εκφράζει ότι:

"Τα ρομπότ θα προσπαθήσουν να σε ευχαριστήσουν με έναν προφανή ανιδιοτελή τρόπο επειδή θα ενθουσιαστούν από τη θετική ενίσχυση. Μπορείτε να το ερμηνεύσετε ως ένα είδος αγάπης". [16]

Ο Ντανιέλ Κριβιέρ γράφει:

"Η ιδέα του Μόραβεκ είναι ότι τα αισθήματα είναι απλώς συσκευές που αλλάζουν τη συμπεριφορά στην κατεύθυνση που είναι ωφέλιμη για την επιβίωση ενός είδους". [16]

Καταληκτικά, τα αισθήματα μπορούν να χαρακτηριστούν και ως υποκειμενικές ιδιότητες, του τι νιώθεις όταν έχεις κάποιο αίσθημα. Το ερώτημα που σχετίζεται με το αν νιώθουν πραγματικά οι μηχανές τα αισθήματα, ή αν πράττουν σαν να τα νιώθουν είναι το φιλοσοφικό ερώτημα "Μπορούν να έχουν επίγνωση οι μηχανές;", σε διαφορετική μορφή.

Έχει μια μηχανή αυτογνωσία;

Η αυτογνωσία κάποιες φορές χρησιμοποιείται από τους συγγραφείς επιστημονικής φαντασίας ως μια διαφορετική λέξη για την ουσιώδη ανθρώπινη περιουσία που συγκροτεί ένα χαρακτήρα ολοκληρωτικά ανθρώπινο. Ο Τούρινγκ απογυμνώνει όλες τις άλλες ιδιότητες των ανθρώπινων όντων και περιορίζει την ερώτηση στο "Μπορεί μια μηχανή να αποτελεί αντικείμενο της σκέψης της; Μπορεί να σκεφτεί τον εαυτό της;" .[7] Παρουσιάζοντάς το, με αυτό τον τρόπο, ένα πρόγραμμα μπορεί να γραφτεί ώστε να αναφέρει τις εσωτερικές καταστάσεις τους. Αν και η αυτογνωσία συνήθως συμπεριλαμβάνει μια παραπάνω ικανότητα, μια μηχανή που μπορεί να εξηγήσει με κάποιο τρόπο όχι μόνο τη δική της κατάσταση αλλά γενικότερα, διατυπώνει ερωτήματα που δεν έχουν ακλόνητες απαντήσεις.

Έχει μια μηχανή αυθεντικότητα και δημιουργικότητα;

Ο Τούρινγκ περιορίζει το ερώτημα αυτό λέγοντας αν μια μηχανή μπορεί "να μας εκπλήξει" και θεωρεί ότι αυτό μπορεί να πραγματοποιηθεί, όπως και κάθε προγραμματιστής μπορεί να επιβεβαιώσει[7].Σημειώνει ότι υπάρχει αρκετή χωρητικότητα, που ένας υπολογιστής μπορεί να συμπεριφερθεί με διαφορετικούς αστρονομικούς αριθμούς. Πρέπει να είναι δυνατό, ακόμη και πανεύκολο, για έναν υπολογιστή να παρουσιάσει ιδέες και να της συνδυάσει με νέους διαφορετικούς τρόπους. Το 2009, επιστήμονες του Aberystwyth University στην Ουαλία και του University of Cambridge στο Ηνωμένο Βασίλειο, σχεδίασαν ένα ρομπότ που το ονόμασαν Άνταμ και πίστευαν ότι είναι η πρώτη μηχανή που αυτόνομα σκεφτόταν νέα επιστημονικά πορίσματα[17].

Είναι μια μηχανή φιλική ή εχθρική;

Το ερώτημα έχει δύο μορφές: α) η "εχθρικότητα" μπορεί να οριστεί ως λειτουργία ή συμπεριφορά, που σε αυτήν την περίπτωση, "εχθρικός" είναι το συνώνυμο του "επικίνδυνου" β) η "εχθρικότητα" μπορεί να οριστεί ως πρόθεση, δηλαδή, μπορεί μια μηχανή "εσκεμμένα" να ρυθμιστεί για να κάνει κακό. Το ερώτημα που σχετίζεται με το αν υψηλής νοημοσύνης και εντελώς αυτόνομα μηχανήματα μπορούν να είναι επικίνδυνα εξετάζεται λεπτομερώς από τους φουτουριστές.

Ένα πρόβλημα είναι ότι οι μηχανές μπορεί να αποκτήσουν την αυτονομία και τη νοημοσύνη που χρειάζονται για να γίνουν επικίνδυνες, πολύ γρήγορα[18]. Ο Βέρνορ Βίνγκ θεωρεί ότι σε λίγα χρόνια, οι υπολογιστές ξαφνικά θα γίνουν χιλιάδες ή μυριάδες φορές πιο έξυπνοι από τους ανθρώπους και υποθέτει ότι αυτό με κάποιο τρόπο ή πιθανώς να γίνει επικίνδυνο για τους ανθρώπους.[19] Αυτό είναι ένα ζήτημα που ερευνάται από τη φιλοσοφία που καλείται Σινγκιουλαριταριανισμός (Singularitarianism).

To 2009, ακαδημαϊκοί και τεχνολογικά εξειδικευμένοι παρευρέθησαν σε συνέδριο για να συζητήσουν την ενδεχόμενη σύγκρουση των ρομπότ και των υπολογιστών και τη σύγκρουση με την υποθετική πιθανότητα ότι μπορούν να γίνουν αυτόνομα και ικανά να λαμβάνουν τις δικές τους αποφάσεις. Συζήτησαν, ακόμη, την πιθανότητα και την έκταση που οι υπολογιστές και τα ρομπότ θα μπορούν να αποκτήσουν και σε ποιο βαθμό θα μπορούν να χρησιμοποιήσουν τις ικανότητες αυτές ώστε να πραγματοποιήσουν οποιαδήποτε απειλή. Σημειώθηκε ότι μερικές μηχανές έχουν αποκτήσει διάφορες μορφές αυτονομίας, περιλαμβάνοντας τη δυνατότητα αναζήτησης πηγών ενέργειας από μόνες τους και τη δυνατότητα να επιλέγουν στόχους επίθεσης με όπλα. Επιπροσθέτως, υπογράμμισαν όταν ορισμένοι ιοί υπολογιστών μπορούν να επιβιώσουν με τις ικανότητες "κατσαρίδας". Βεβαίως, τόνισαν ότι η αυτονομία στο επίπεδο που παρουσιάζεται στα σενάρια επιστημονικής φαντασίας είναι σχεδόν απίθανη αλλά υπάρχουν ορισμένοι δυνητικοί κίνδυνοι[18].

Κάποιοι ειδικοί και ακαδημαϊκοί θέτουν τις αμφιβολίες τους για τη χρήση ρομπότ από τον στρατό, ειδικά για τα ρομπότ που έχουν αυτόνομες ιδιότητες.[20] Το Ναυτικό των Η.Π.Α. συγκρότησε μια δήλωση που υποστηρίζει ότι τα στρατιωτικά ρομπότ καθώς γίνονται πιο περίπλοκα, χρειάζονται μεγαλύτερη προσοχή στη διαχείρισή τους και στις ικανότητες που έχουν για τη λήψη αυτόνομων αποφάσεων.

Κάποιοι άλλοι ειδικοί πρότειναν την ανάγκη σχεδιασμού "Φιλικής τεχνητής νοημοσύνης", υποστηρίζοντας ότι στα πλεονεκτήματα που προκύπτουν από την τεχνητή νοημοσύνη, πρέπει να συμπεριληφθούν και οι προσπάθειες δημιουργίας μιας τεχνητής νοημοσύνης που είναι φιλική και ανθρώπινη.

Παραπομπές

  1. Βιρβιδάκης, Καρασμάνης, Τουρνά, Στέλιος , Βασίλης , Χαρινέλα (2013). Αρχές Φιλοσοφίας (Β' Τάξη Γεν. Λυκείου- Θεωρητική Κατεύθυνση). Ινστιτούτο Τεχνολογίας Υπολογιστών και Εκδόσεων Διόφαντος. σελ. Κεφάλαιο 5: Ανακαλύπτοντας τον Νου. ISBN 0212201540120127 Check |isbn= value: length (βοήθεια). 
  2. Turing, Alan (1950, 1985). Turing test. Turing 1950, Haugeland 1985. σελ. 6–9.  Ελέγξτε τις τιμές ημερομηνίας στο: |year= (βοήθεια)
  3. 3,0 3,1 Newell,Simon, Allen , Herbert A. (Μάρτιος, 1976). Computer Science as Empirical Inquiry: Symbols and Search. Communications of the ACM. σελ. vol. 19, No. 3, pp. 113-126.  line feed character in |title= at position 47 (βοήθεια); Ελέγξτε τις τιμές ημερομηνίας στο: |year= (βοήθεια)
  4. 4,0 4,1 4,2 Searle, John (1999). Searle (1980,1999). σελ. 1. 
  5. Hobbes, Thomas (1651). Hobbes, 1651. σελ. Κεφάλαιο 5. 
  6. «1. Thinkers, and Thoughts a. What Things Think?». Internet Encyclopedia of Philosophy.  line feed character in |title= at position 26 (βοήθεια)
  7. 7,0 7,1 7,2 Turing, Alan (1950). Computing Machinery and Intelligence. σελ. Mind 49: 433-460. 
  8. 8,0 8,1 Russel, Norving, Stuart J, Peter (2003). Artificial Intelligence: A Modern Approach (2nd ed.). Upper Saddle River, New Jersey: Prentice Hall. σελ. Kεφάλαιο 2. ISBN 0-13-790395-2. 
  9. Franklin, Graesser, Stan , Art (1996). Is it an Agent, or just a Program?: A Taxonomy for Autonomous Agents; Proceedings of the Third International Workshop on Agent Theories, Architectures, and Languages. Springer-Verlag. 
  10. 10,0 10,1 Dreyfus, Hubert (1972). What Computers Can't Do. New York: MIT Press. ISBN 0-06-011082-1. 
  11. Moravec, Hans (1988). Mind Children. Harvard University Press. 
  12. Kurzweil, Ray (2005). The Singularity is Near. New York: Viking Press. ISBN 0-670-03384-7. 
  13. Searle, John (1980). Minds, Brains and Programs" (PDF), Behavioral and Brain Sciences. σελ. 3 (3): 417-457. 
  14. Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass.: MIT Press. 
  15. 15,0 15,1 Turing, Alan (Οκτώβριος 1950). Computing Machinery and Intelligence. Mind, LIX. σελ. (236): 433–460. 
  16. 16,0 16,1 16,2 Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: BasicBooks. ISBN 0-465-02997-3. 
  17. «Robo-scientist makes gene discovery--on its own» (στα αγγλικά). CNET. 2009-04-02. https://www.cnet.com/news/robo-scientist-makes-gene-discovery-on-its-own/. Ανακτήθηκε στις 2018-09-11. 
  18. 18,0 18,1 Markoff, John. «Scientists Worry Machines May Outsmart Man» (στα αγγλικά). https://www.nytimes.com/2009/07/26/science/26robot.html?_r=1&ref=todayspaper. Ανακτήθηκε στις 2018-09-11. 
  19. «The Coming Technological Singularity». 1 Ιανουαρίου 2007. Ανακτήθηκε στις 11 Σεπτεμβρίου 2018. 
  20. «Call for debate on killer robots» (στα αγγλικά). 2009-08-03. http://news.bbc.co.uk/2/hi/technology/8182003.stm. Ανακτήθηκε στις 2018-09-11. 
 
 
Στο λήμμα αυτό έχει ενσωματωθεί κείμενο από το λήμμα Philosophy of artificial intelligence (έκδοση 855228932) της Αγγλικής Βικιπαίδειας, η οποία διανέμεται υπό την GNU FDL και την CC-BY-SA 4.0. (ιστορικό/συντάκτες).