Root NationΆρθραAnalyticsΈξι εντολές τεχνητής νοημοσύνης

Έξι εντολές τεχνητής νοημοσύνης

-

Τα επόμενα χρόνια θα σηματοδοτηθούν από την ταχεία ανάπτυξη των τεχνολογιών τεχνητής νοημοσύνης. Ίσως είναι απαραίτητο να εισαχθούν σαφώς καθορισμένα πλαίσια για τη δημιουργία και τη χρήση της τεχνητής νοημοσύνης; Αρκεί 6 μήνες εμπειρίας για να ρυθμίσει μια τεχνολογία που δεν έχει φύγει ακόμη από το εργαστήριο; Αυτή η ερώτηση έρχεται όλο και περισσότερο από τα στόματα ειδικών και δημοσιογράφων όσον αφορά την τεχνητή νοημοσύνη. Φωνές και εκκλήσεις για λήψη μέτρων για τη ρύθμιση της τεχνητής νοημοσύνης -τόσο σε επίπεδο χρήστη όσο και σε επίπεδο ανάπτυξης έργων- ακούγονται όλο και πιο συχνά. Η ιστορία τέτοιων εκκλήσεων ξεκίνησε πριν από πολύ καιρό.

Η πανταχού παρούσα παρουσία τεχνητής νοημοσύνης στον ψηφιακό χώρο και, κυρίως, μοντέλων ικανών να δημιουργήσουν περιεχόμενο που δεν θα διαφέρει από αυτό που δημιουργεί ο άνθρωπος, προκαλεί πολύ διαφορετικά συναισθήματα. Από τη μία πλευρά, έχουμε μια ομάδα ενθουσιωδών που βλέπουν το μέλλον στην τεχνητή νοημοσύνη και, παρά τις σχετικά περιορισμένες δυνατότητές της (επειδή η τεχνητή νοημοσύνη δεν σκέφτεται και συχνά απλώς παίρνει πληροφορίες από το Διαδίκτυο), δεν φοβάται να της αναθέσει πολλές εργασίες . Στην άλλη πλευρά του οδοφράγματος βρίσκεται μια ομάδα που εκφράζει τον σκεπτικισμό και την ανησυχία της για τις τρέχουσες τάσεις στην ανάπτυξη της τεχνητής νοημοσύνης.

αξίωμα AI

Η γέφυρα μεταξύ των δύο ομάδων είναι οι ερευνητές τεχνητής νοημοσύνης, οι οποίοι, αφενός, αναφέρουν πολυάριθμα παραδείγματα για το πώς η τεχνητή νοημοσύνη έχει επηρεάσει θετικά τη γύρω πραγματικότητα. Ταυτόχρονα, καταλαβαίνουν ότι είναι πολύ νωρίς για να επαναπαυτούν στις δάφνες τους και ένα τεράστιο τεχνολογικό άλμα φέρνει πολλές προκλήσεις και μεγάλη ευθύνη. Ένα ξεκάθαρο παράδειγμα αυτής της στάσης είναι μια διεθνής ομάδα ερευνητών τεχνητής νοημοσύνης και μηχανικής μάθησης με επικεφαλής τον Δρ Ozlem Garibay από το Πανεπιστήμιο της Κεντρικής Φλόριντα. Η δημοσίευση 47 σελίδων, που γράφτηκε από 26 επιστήμονες από όλο τον κόσμο, προσδιορίζει και περιγράφει έξι προκλήσεις που πρέπει να αντιμετωπίσουν ερευνητικά ιδρύματα, εταιρείες και εταιρείες για να κάνουν τα μοντέλα τους (και το λογισμικό που τα χρησιμοποιεί) ασφαλή.

Ναι, πρόκειται για μια σοβαρή επιστημονική εργασία με σημαντικές εξηγήσεις για την κατανόηση του μέλλοντος της τεχνητής νοημοσύνης. Όποιος ενδιαφέρεται, μπορεί ανεξάρτητα διαβάστε αυτήν την επιστημονική έκθεση και βγάλτε τα συμπεράσματά σας. Με απλά λόγια, οι επιστήμονες έχουν εντοπίσει 6 εντολές της τεχνητής νοημοσύνης. Όλες οι εξελίξεις και οι ενέργειες της τεχνητής νοημοσύνης πρέπει να συμμορφώνονται με αυτές, ώστε να είναι ασφαλές για τους ανθρώπους και τον κόσμο.

αξίωμα AI

Στο άρθρο μου, που γράφτηκε ακριβώς στη βάση αυτής της επιστημονικής εργασίας, θα προσπαθήσω να διατυπώσω τα βασικά αξιώματα, νόμους σύμφωνα με τους οποίους πρέπει να υπάρχει και να αναπτύσσεται η τεχνητή νοημοσύνη. Ναι, αυτή είναι η σχεδόν ελεύθερη ερμηνεία μου για τα συμπεράσματα των επιστημόνων σχετικά με την ανάπτυξη της τεχνητής νοημοσύνης και μια προσπάθεια να τα παρουσιάσω σε, ας πούμε, βιβλική εκδοχή. Αλλά έτσι ήθελα να σας μυήσω σε αυτή την επιστημονική εργασία των έγκριτων επιστημόνων.

Επίσης ενδιαφέρον: Building AI: Ποιος ηγείται του αγώνα;

Ο πρώτος νόμος: Ανθρώπινη ευημερία

Το πρώτο αξίωμα των ερευνητών είναι να επικεντρώσουν το έργο της τεχνητής νοημοσύνης στην ανθρώπινη ευημερία. Λόγω της έλλειψης «ανθρώπινων αξιών, κοινής λογικής και ηθικής», η τεχνητή νοημοσύνη μπορεί να δράσει με τρόπο που θα οδηγήσει σε σημαντική υποβάθμιση της ανθρώπινης ευημερίας. Τα προβλήματα μπορεί να οφείλονται στις υπεράνθρωπες ικανότητες της τεχνητής νοημοσύνης (για παράδειγμα, πόσο εύκολα η τεχνητή νοημοσύνη νικά τους ανθρώπους - και όχι μόνο στο σκάκι), αλλά και στο γεγονός ότι η τεχνητή νοημοσύνη δεν σκέφτεται μόνη της και επομένως δεν είναι σε θέση να «φιλτράρει» προκαταλήψεις ή προφανή λάθη.

AI Postulat

- Διαφήμιση -

Οι ερευνητές σημειώνουν ότι η υπερβολική εμπιστοσύνη στις τεχνολογίες τεχνητής νοημοσύνης μπορεί να επηρεάσει αρνητικά την ευημερία των ανθρώπων. Μια κοινωνία που έχει ελάχιστη κατανόηση του πώς λειτουργούν πραγματικά οι αλγόριθμοι τεχνητής νοημοσύνης τείνει να την εμπιστεύεται υπερβολικά ή, αντίθετα, έχει αρνητική στάση απέναντι στο περιεχόμενο που δημιουργείται από ένα συγκεκριμένο μοντέλο, ιδίως τα chatbots. Λαμβάνοντας υπόψη αυτούς και άλλους παράγοντες, η ομάδα του Garibay ζητά να τεθεί η ανθρώπινη ευημερία στο επίκεντρο της μελλοντικής αλληλεπίδρασης τεχνητής νοημοσύνης και ανθρώπου.

Διαβάστε επίσης: ChatGPT: ένας απλός οδηγός χρήστη

Ο δεύτερος νόμος: Ευθύνη

Η λογοδοσία είναι ένας όρος που εμφανίζεται συνεχώς στον κόσμο της τεχνητής νοημοσύνης στο πλαίσιο του τι χρησιμοποιούμε τη μηχανική εκμάθηση και πώς ακριβώς αναπτύσσονται και εκπαιδεύονται τα μοντέλα και οι αλγόριθμοι τεχνητής νοημοσύνης. Η διεθνής ομάδα τονίζει ότι ο σχεδιασμός, η ανάπτυξη και η εφαρμογή της τεχνητής νοημοσύνης θα πρέπει να γίνεται αποκλειστικά με καλές προθέσεις.

AI Postulat

Κατά τη γνώμη τους, η ευθύνη πρέπει να εξετάζεται όχι μόνο σε τεχνικό, αλλά και σε νομικό και ηθικό πλαίσιο. Η τεχνολογία πρέπει να εξετάζεται όχι μόνο από την άποψη της αποτελεσματικότητάς της, αλλά και στο πλαίσιο της χρήσης της.

"Με την εισαγωγή προηγμένων τεχνικών μηχανικής μάθησης, γίνεται όλο και πιο σημαντικό να κατανοήσουμε πώς ελήφθη μια απόφαση και ποιος είναι υπεύθυνος για αυτήν” – γράφουν οι ερευνητές.

Ο τρίτος νόμος: Εμπιστευτικότητα

Το απόρρητο είναι ένα θέμα που μπούμερανγκ σε κάθε συζήτηση για την τεχνολογία. Ειδικά όταν όλα συζητούνται στα κοινωνικά δίκτυα. Ωστόσο, αυτό είναι εξαιρετικά σημαντικό για την τεχνητή νοημοσύνη γιατί δεν υπάρχει χωρίς βάση δεδομένων. Και τι είναι οι βάσεις δεδομένων;

Οι επιστήμονες τα περιγράφουν ως «μια αφαίρεση των βασικών δομικών στοιχείων που συνθέτουν τον τρόπο που βλέπουμε τον κόσμο». Αυτά τα μπλοκ είναι συνήθως κοσμικές αξίες: χρώματα, σχήματα, υφές, αποστάσεις, χρόνος. Ενώ η στενή τεχνητή νοημοσύνη εστιάζεται σε έναν μόνο στόχο, όπως ο βαθμός στον οποίο ανοίγει το κλείστρο σε μια δεδομένη ένταση φωτός, χρησιμοποιεί δημόσια διαθέσιμα αντικειμενικά δεδομένα, η τεχνητή νοημοσύνη σε ευρύτερες εφαρμογές (εδώ, για παράδειγμα, μοντέλα κειμένου σε εικόνα όπως το Midjourney , ή μοντέλα γλώσσας όπως το ChatGPT ) μπορούν να χρησιμοποιούν δεδομένα σχετικά με και που δημιουργούνται από άτομα. Θα πρέπει επίσης να αναφέρονται άρθρα στον τύπο, βιβλία, εικονογραφήσεις και φωτογραφίες που δημοσιεύονται στο Διαδίκτυο. Οι αλγόριθμοι τεχνητής νοημοσύνης έχουν πρόσβαση σε όλα, γιατί εμείς οι ίδιοι τους τα δώσαμε. Διαφορετικά, δεν θα ξέρει τίποτα και δεν θα δώσει απαντήσεις σε καμία ερώτηση.

AI Postulat

Τα δεδομένα χρήστη επηρεάζουν θεμελιωδώς τόσο τα άτομα για τα οποία συλλέγονται αυτά τα δεδομένα όσο και τα άτομα στο σύστημα όπου θα εφαρμοστούν οι αλγόριθμοι τεχνητής νοημοσύνης.

Ως εκ τούτου, η τρίτη πρόκληση σχετίζεται με την ευρεία κατανόηση της ιδιωτικής ζωής και την παροχή τέτοιων δικαιωμάτων όπως το δικαίωμα να μένει κανείς μόνος, το δικαίωμα περιορισμού της πρόσβασης στον εαυτό του, το δικαίωμα στο απόρρητο της προσωπικής ζωής ή της επιχείρησής του, το δικαίωμα στον έλεγχο των προσωπικών πληροφορίες, δηλαδή το δικαίωμα να προστατεύει την προσωπικότητα, την ατομικότητα και την αξιοπρέπειά του. Όλα αυτά πρέπει να γράφονται στους αλγόριθμους, διαφορετικά το απόρρητο απλά δεν θα υπάρχει και οι αλγόριθμοι τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν σε δόλια συστήματα καθώς και σε ποινικά αδικήματα.

Διαβάστε επίσης: 7 καλύτεροι τρόποι χρήσης του ChatGPT

Τέταρτος νόμος: Δομή έργου

Η τεχνητή νοημοσύνη μπορεί να είναι εξαιρετικά απλή και απλής χρήσης, αλλά στην περίπτωση μεγαλύτερων μοντέλων με ευρεία και πολλαπλή φύση, το πρόβλημα δεν είναι μόνο το απόρρητο των δεδομένων, αλλά και η δομή του σχεδιασμού.

Για παράδειγμα, το GPT-4, το τελευταίο μοντέλο τεχνητής νοημοσύνης του OpenAI, παρά το μέγεθος και τον αντίκτυπό του στον κόσμο της τεχνητής νοημοσύνης (και όχι μόνο), δεν διαθέτει πλήρως δημόσια τεκμηρίωση. Δηλαδή, δεν έχουμε κατανόηση για το ποιοι είναι οι τελικοί στόχοι για τους προγραμματιστές, τι θέλουν να πάρουν στο τελικό αποτέλεσμα. Επομένως, δεν μπορούμε να αξιολογήσουμε πλήρως τους κινδύνους που σχετίζονται με τη χρήση αυτού του μοντέλου τεχνητής νοημοσύνης. Το GPT-3, από την άλλη πλευρά, εκπαιδευμένο σε δεδομένα από το φόρουμ 4chan, είναι ένα μοντέλο με το οποίο σίγουρα δεν θέλετε να αλληλεπιδράσετε. Το φόρουμ 4chan είναι ένα από τα πιο ενδιαφέροντα φαινόμενα στο Διαδίκτυο. Αυτό είναι ένα παράδειγμα απόλυτης, ολοκληρωτικής αναρχίας, που στην πράξη δεν περιορίζεται από κανένα πλαίσιο. Εδώ δημιουργήθηκαν ομάδες hacking όπως η Anonymous ή η LulzSec. Είναι η πηγή πολλών από τα πιο δημοφιλή μιμίδια, ένα μέρος για να συζητήσουμε αμφιλεγόμενα θέματα και να δημοσιεύσουμε ακόμη πιο αμφιλεγόμενες απόψεις. Αν και ο αγγλόφωνος πίνακας εικόνας σημειώνει ότι "μέχρι στιγμής είναι νόμιμο", αυτό είναι κάπως αμφίβολο, δεδομένου ότι ο 4chan περιστασιακά ασχολείται με τα μέσα ενημέρωσης, συμπεριλαμβανομένου ρατσιστικού, ναζιστικού και σεξιστικού περιεχομένου.

AI Postulat

- Διαφήμιση -

Η ομάδα του καθηγητή Garibay θέλει κάθε μοντέλο τεχνητής νοημοσύνης να λειτουργεί μέσα σε ένα σαφώς καθορισμένο πλαίσιο. Όχι μόνο λόγω της ευημερίας του ατόμου με το οποίο αλληλεπιδρά το AI, αλλά και λόγω της ικανότητας αξιολόγησης των κινδύνων που σχετίζονται με τη χρήση του μοντέλου. Η δομή οποιουδήποτε έργου θα πρέπει να περιλαμβάνει το σεβασμό των αναγκών, των αξιών και των επιθυμιών διαφορετικών πολιτιστικών ομάδων και ενδιαφερομένων. Η διαδικασία δημιουργίας, εκπαίδευσης και βελτίωσης της τεχνητής νοημοσύνης θα πρέπει να επικεντρώνεται στην ανθρώπινη ευημερία και το τελικό προϊόν – το μοντέλο τεχνητής νοημοσύνης – θα πρέπει να επικεντρώνεται στην ενίσχυση και τη βελτίωση της παραγωγικότητας της ίδιας της ανθρώπινης κοινότητας. Τα μοντέλα στα οποία δεν μπορούν να εντοπιστούν οι κίνδυνοι θα πρέπει να έχουν περιορισμένη ή ελεγχόμενη πρόσβαση. Δεν πρέπει να αποτελούν απειλή για την ανθρωπότητα, αλλά αντίθετα να συμβάλλουν στην ανάπτυξη του ανθρώπου και της κοινωνίας συνολικά.

Διαβάστε επίσης: Twitter στα χέρια του Έλον Μασκ - απειλή ή «βελτίωση»;

Ο πέμπτος νόμος: Διακυβέρνηση και ανεξάρτητη εποπτεία

Οι αλγόριθμοι τεχνητής νοημοσύνης άλλαξαν κυριολεκτικά τον κόσμο σε μόλις ένα χρόνο. Το Bard by Google και το Bing κάνουν πρεμιέρα από Microsoft επηρέασε σημαντικά τις μετοχές και των δύο κολοσσών στο χρηματιστήριο. Παρεμπιπτόντως, συνέβαλαν στην ανάπτυξη των μετοχών αυτών των εταιρειών ακόμη και στο πλαίσιο των μετοχών Apple. Το ChatGPT έχει αρχίσει να χρησιμοποιείται ενεργά από μαθητές σχολείων, επικοινωνούν μαζί του, το εξετάζουν και κάνουν ερωτήσεις. Το πιο σημαντικό είναι ότι έχει την ικανότητα να αυτομαθαίνει, να διορθώνει τα λάθη του. Η τεχνητή νοημοσύνη αρχίζει να λειτουργεί ακόμη και στις κυβερνήσεις ορισμένων χωρών. Αυτή είναι η περίπτωση του πρωθυπουργού της Ρουμανίας, Νικολάε Τσούκα προσέλαβε ένα εικονικό έναν βοηθό που θα τον ενημερώνει για τις ανάγκες της κοινωνίας. Δηλαδή, η τεχνητή νοημοσύνη παίζει όλο και πιο σημαντικό ρόλο στη ζωή μας.

Όλα συμπεριλαμβάνονται

Δεδομένης της διαρκώς αυξανόμενης αλληλεξάρτησης μεταξύ της τεχνητής νοημοσύνης, του ανθρώπου και του περιβάλλοντος, οι επιστήμονες θεωρούν απαραίτητη τη δημιουργία διοικητικών οργάνων και την ανεξάρτητη εποπτεία της ανάπτυξής της. Αυτοί οι φορείς θα ελέγχουν ολόκληρο τον κύκλο ζωής της τεχνητής νοημοσύνης: από την ιδέα μέχρι την ανάπτυξη και την υλοποίηση. Οι αρχές θα ορίσουν σωστά διαφορετικά μοντέλα τεχνητής νοημοσύνης και θα εξετάσουν περιπτώσεις που σχετίζονται με την τεχνητή νοημοσύνη και θέματα κοινωνικής ζωής. Δηλαδή, η τεχνητή νοημοσύνη μπορεί να γίνει αντικείμενο δικαστικών υποθέσεων, αλλά και αγωγών. Αν και, φυσικά, όχι ο ίδιος προσωπικά, αλλά οι προγραμματιστές του.

Διαβάστε επίσης: Όλα για το Neuralink: The Beginning of Cyberpunk Madness;

Ο έκτος νόμος: Η αλληλεπίδραση ανθρώπου και τεχνητής νοημοσύνης

Στα προγράμματα τεχνητής νοημοσύνης, ο καθένας μπορεί να βρει κάτι για τον εαυτό του: δημιουργία κειμένου, ανίχνευση περιεχομένου σε εικόνες, απάντηση ερωτήσεων, δημιουργία εικόνων, αναγνώριση ατόμων σε φωτογραφίες, ανάλυση δεδομένων. Αυτές οι πολλαπλές χρήσεις δεν απασχολούν μόνο τους ανθρώπους που προσπαθούν να προσαρμόσουν την τεχνητή νοημοσύνη σε νομικά και ηθικά πρότυπα. Πολλοί φοβούνται ότι θα εκτοπιστούν από την αγορά εργασίας από μοντέλα τεχνητής νοημοσύνης. Επειδή οι αλγόριθμοι τεχνητής νοημοσύνης θα μπορούν να κάνουν το ίδιο πράγμα γρηγορότερα, φθηνότερα και ίσως και καλύτερα από ένα άτομο. Ταυτόχρονα, υπάρχουν άνθρωποι που βασίζονται στην τεχνητή νοημοσύνη στην εργασία τους, δηλαδή, η τεχνητή νοημοσύνη είναι ήδη ένας απαραίτητος βοηθός για αυτούς σήμερα.

Όλα συμπεριλαμβάνονται

Όμως, από τις μελέτες στις οποίες αναφέρονται οι επιστήμονες, είναι σαφές ότι η αντικατάσταση των ανθρώπων από φθηνή τεχνητή εργασία είναι ακόμα αρκετά μακριά. Παρόλα αυτά, ήδη επιμένουν στην ανάγκη να δημιουργηθεί μια αυστηρή ιεραρχία αλληλεπίδρασης μεταξύ ανθρώπων και τεχνητής νοημοσύνης. Κατά τη γνώμη τους, οι άνθρωποι πρέπει να τοποθετούνται πάνω από την τεχνητή νοημοσύνη. Η τεχνητή νοημοσύνη πρέπει να δημιουργείται με σεβασμό στις γνωστικές ικανότητες ενός ατόμου, λαμβάνοντας υπόψη τα συναισθήματά του, τις κοινωνικές αλληλεπιδράσεις, τις ιδέες, τον σχεδιασμό και την αλληλεπίδραση με αντικείμενα. Δηλαδή, σε όλες τις καταστάσεις, είναι το άτομο που πρέπει να σταθεί πάνω από την τεχνητή νοημοσύνη, να ελέγξει τη συμπεριφορά και το περιεχόμενο που δημιουργεί το μοντέλο και να είναι υπεύθυνο για αυτό. Με απλά λόγια, ακόμη και η πιο προηγμένη τεχνητή νοημοσύνη πρέπει να υπακούει σε έναν άνθρωπο και να μην υπερβαίνει τα επιτρεπόμενα, για να μην βλάψει τον δημιουργό του.

Διαβάστε επίσης: Πώς η Ουκρανία χρησιμοποιεί και προσαρμόζει το Starlink κατά τη διάρκεια του πολέμου

συμπεράσματα

Ναι, κάποιος θα πει ότι οι επιστήμονες δεν ανέφεραν τίποτα σημαντικό και νέο στην έκθεσή τους. Όλοι μιλούσαν για αυτό εδώ και πολύ καιρό. Αλλά ήδη τώρα είναι απαραίτητο να τεθεί η τεχνητή νοημοσύνη σε κάποιο πλαίσιο νόμου. Το να φτάσεις στο GPT-4 είναι σαν να πιάνεις ένα μαχαίρι στα τυφλά. Μας κρύβουν βασικές πληροφορίες. Όλες οι εξελίξεις στην τεχνητή νοημοσύνη, και συγκεκριμένα το έργο ChatGPT από το Open AI, μου θυμίζουν συχνά την ανατροφή ενός μικρού παιδιού. Μερικές φορές φαίνεται ότι πρόκειται για παιδί εξωγήινης καταγωγής. Ναι, εξωγήινος, αλλά είναι ακόμα ένα παιδί που μαθαίνει, κάνει λάθη, μερικές φορές συμπεριφέρεται ανάρμοστα, είναι οξύθυμο, μαλώνει με τους γονείς του. Αν και μεγαλώνει και αναπτύσσεται πολύ γρήγορα.

Όλα συμπεριλαμβάνονται

Η ανθρωπότητα μπορεί να μην συμβαδίσει με την ανάπτυξή της και τα πράγματα να ξεφύγουν από τον έλεγχο. Επομένως, η ανθρωπότητα χρειάζεται ήδη να καταλάβει γιατί τα αναπτύσσουμε όλα αυτά, να γνωρίζει τους απώτερους στόχους, να είναι «υπεύθυνοι γονείς», γιατί αλλιώς το «παιδί» μπορεί απλά να καταστρέψει τους «γονείς» του.

Διαβάστε επίσης: 

Yuri Svitlyk
Yuri Svitlyk
Γιος των Καρπαθίων, αγνώριστη ιδιοφυΐα των μαθηματικών, «δικηγόρος»Microsoft, πρακτικός αλτρουιστής, αριστερά-δεξιά
- Διαφήμιση -
Εγγραφείτε
Ειδοποίηση για
επισκέπτης

0 Σχόλια
Ενσωματωμένες κριτικές
Δείτε όλα τα σχόλια
Εγγραφείτε για ενημερώσεις