Root NationΝέαειδήσεις πληροφορικήςΘα είναι αδύνατο να διαχειριστείς μια εξαιρετικά ευφυή τεχνητή νοημοσύνη

Θα είναι αδύνατο να διαχειριστείς μια εξαιρετικά ευφυή τεχνητή νοημοσύνη

-

Η ιδέα της τεχνητής νοημοσύνης που ανατρέπει την ανθρωπότητα έχει συζητηθεί εδώ και δεκαετίες, και τον Ιανουάριο του 2021, οι επιστήμονες έδωσαν την ετυμηγορία τους για το αν θα μπορούσαμε να ελέγξουμε μια υπερευφυΐα υπολογιστή υψηλού επιπέδου. Απάντηση? Σχεδόν σίγουρα όχι.

Το πρόβλημα είναι ότι ο έλεγχος ενός υπερμυαλού πολύ πέρα ​​από την ανθρώπινη κατανόηση θα απαιτούσε μια προσομοίωση αυτού του υπερμυαλού που θα μπορούσαμε να αναλύσουμε. Αλλά αν δεν είμαστε σε θέση να το καταλάβουμε, είναι αδύνατο να δημιουργήσουμε μια τέτοια προσομοίωση.

Κανόνες όπως "μην κάνετε κακό στους ανθρώπους" δεν μπορούν να θεσπιστούν αν δεν καταλάβουμε ποια σενάρια θα δημιουργήσει η τεχνητή νοημοσύνη (AI), πιστεύουν οι συντάκτες μιας εργασίας του 2021. Από τη στιγμή που το σύστημα υπολογιστών λειτουργεί σε επίπεδο που υπερβαίνει τις δυνατότητες των προγραμματιστών μας, δεν θα μπορούμε πλέον να θέτουμε όρια.

Τεχνητή νοημοσύνη

«Η υπερευφυΐα είναι ένα θεμελιωδώς διαφορετικό πρόβλημα από αυτά που συνήθως μελετώνται κάτω από το έμβλημα της «ηθικής των ρομπότ»», γράφουν οι ερευνητές. «Αυτό συμβαίνει επειδή το υπερμυαλό είναι πολύπλευρο και επομένως δυνητικά ικανό να κινητοποιήσει μια ποικιλία πόρων για την επίτευξη στόχων που είναι δυνητικά ακατανόητοι για τον άνθρωπο, πόσο μάλλον ελεγχόμενοι».

Μέρος του συλλογισμού της ομάδας προέρχεται από προβλήματα διακοπής, που προτάθηκε από τον Άλαν Τούρινγκ το 1936. Η πρόκληση είναι να καταλάβουμε εάν το πρόγραμμα υπολογιστή θα καταλήξει σε ένα συμπέρασμα και θα απαντήσει (και θα σταματήσει) ή απλώς θα τριγυρνάει για πάντα προσπαθώντας να βρει την απάντηση.

Όπως απέδειξε ο Turing με τη βοήθεια ευφυή μαθηματικά, ενώ μπορεί να το γνωρίζουμε αυτό για ορισμένα συγκεκριμένα προγράμματα, είναι λογικά αδύνατο να βρούμε έναν τρόπο που θα μας επέτρεπε να το γνωρίζουμε αυτό για κάθε πιθανό πρόγραμμα που θα μπορούσε ποτέ να γραφτεί. Αυτό μας φέρνει πίσω στο AI, το οποίο σε υπερέξυπνη κατάσταση θα μπορούσε να αποθηκεύσει όλα τα πιθανά προγράμματα υπολογιστή στη μνήμη του ταυτόχρονα.

Επίσης ενδιαφέρον:

Οποιοδήποτε πρόγραμμα γραμμένο, για παράδειγμα, για να σταματήσει μια τεχνητή νοημοσύνη από το να βλάψει τους ανθρώπους και να καταστρέψει τον κόσμο μπορεί να καταλήξει ή να μην καταλήξει σε ένα συμπέρασμα (και να σταματήσει) - είναι μαθηματικά αδύνατο να είμαστε απολύτως βέβαιοι σε κάθε περίπτωση, πράγμα που σημαίνει ότι δεν μπορεί να περιοριστεί. «Βασικά κάνει τον αλγόριθμο αποτροπής άχρηστο», δήλωσε τον Ιανουάριο ο επιστήμονας υπολογιστών Iyad Rahwan του Ινστιτούτου Max Planck για την Ανθρώπινη Ανάπτυξη στη Γερμανία.

Μια εναλλακτική λύση στη διδασκαλία της ηθικής της τεχνητής νοημοσύνης και των απαγορεύσεων κατά της καταστροφής του κόσμου, για την οποία κανένας αλγόριθμος δεν μπορεί να είναι απολύτως σίγουρος, λένε οι ερευνητές, είναι να περιορίσει τις δυνατότητες του υπερμυαλού. Για παράδειγμα, μπορεί να είναι αποκομμένο από μέρος του Διαδικτύου ή ορισμένα δίκτυα.

Οι συντάκτες μιας πρόσφατης μελέτης απορρίπτουν και αυτή την ιδέα, πιστεύοντας ότι θα περιορίσει το εύρος της τεχνητής νοημοσύνης - λένε, αν δεν πρόκειται να τη χρησιμοποιήσουμε για να λύσουμε προβλήματα πέρα ​​από τις ανθρώπινες δυνατότητες, τότε γιατί να τη δημιουργήσουμε καθόλου;

Τεχνητή νοημοσύνη

Αν πρόκειται να προωθήσουμε την τεχνητή νοημοσύνη, μπορεί να μην γνωρίζουμε καν πότε θα εμφανιστεί μια υπερευφυΐα, πέρα ​​από τον έλεγχό μας, τόσο ανεξιχνίαστο είναι. Αυτό σημαίνει ότι πρέπει να αρχίσουμε να κάνουμε σοβαρές ερωτήσεις σχετικά με το πού πάμε.

«Μια υπερέξυπνη μηχανή που τρέχει τον κόσμο ακούγεται σαν επιστημονική φαντασία», λέει ο επιστήμονας υπολογιστών Manuel Kebrian του Ινστιτούτου Max Planck για την Ανθρώπινη Ανάπτυξη. Αλλά υπάρχουν ήδη μηχανές που εκτελούν ανεξάρτητα ορισμένες σημαντικές εργασίες, ενώ οι προγραμματιστές δεν καταλαβαίνουν πλήρως πώς το έμαθαν αυτό.

Επομένως, τίθεται το ερώτημα αν μπορεί κάποια στιγμή να γίνει ανεξέλεγκτη και επικίνδυνη για την ανθρωπότητα...

Διαβάστε επίσης:

Εγγραφείτε
Ειδοποίηση για
επισκέπτης

0 Σχόλια
Ενσωματωμένες κριτικές
Δείτε όλα τα σχόλια
Εγγραφείτε για ενημερώσεις