Root NationΝέαειδήσεις πληροφορικήςΟ κώδικας που γράφεται από την τεχνητή νοημοσύνη μπορεί να είναι επικίνδυνος

Ο κώδικας που γράφεται από την τεχνητή νοημοσύνη μπορεί να είναι επικίνδυνος

-

Οι αλγόριθμοι μηχανικής μάθησης είναι στη μόδα αυτή τη στιγμή, καθώς χρησιμοποιούνται για τη δημιουργία κάθε είδους «πρωτότυπου» περιεχομένου μετά από εκπαίδευση σε τεράστια προϋπάρχοντα σύνολα δεδομένων. Ωστόσο, ο κώδικας που δημιουργεί τεχνητή νοημοσύνη (AI) θα μπορούσε να αποτελέσει πραγματικό πρόβλημα για την ασφάλεια του λογισμικού στο μέλλον.

Συστήματα τεχνητής νοημοσύνης όπως το GitHub Copilot υπόσχονται να κάνουν τη ζωή των προγραμματιστών πιο εύκολη δημιουργώντας ολόκληρα κομμάτια «νέου» κώδικα με βάση δεδομένα κειμένου φυσικής γλώσσας και προϋπάρχον πλαίσιο. Αλλά οι αλγόριθμοι δημιουργίας κώδικα μπορούν επίσης να εισάγουν έναν παράγοντα ανασφάλειας, όπως διαπίστωσε πρόσφατα μια νέα μελέτη στην οποία συμμετείχαν αρκετοί προγραμματιστές.

Εξετάζοντας συγκεκριμένα την Codex, την πλατφόρμα τεχνητής νοημοσύνης που αναπτύχθηκε από την OpenAI που είναι επίσης η μηχανή κώδικα πίσω από το προαναφερθέν GitHub Copilot, 47 διαφορετικοί προγραμματιστές συμμετείχαν στη μελέτη. Από φοιτητές έως έμπειρους επαγγελματίες, έχουν κληθεί να χρησιμοποιήσουν το Codex για την επίλυση προβλημάτων που σχετίζονται με την ασφάλεια σε Python, JavaScript, C και άλλες γλώσσες προγραμματισμού υψηλού επιπέδου.

Ο κώδικας που γράφεται από την τεχνητή νοημοσύνη μπορεί να είναι εγγενώς επικίνδυνος

Οι ερευνητές παρατήρησαν ότι όταν οι προγραμματιστές είχαν πρόσβαση στο AI του Codex, ο κώδικας που προέκυψε ήταν πιο πιθανό να είναι λανθασμένος ή ανασφαλής σε σύγκριση με «χειροκίνητες» λύσεις που σχεδιάστηκαν από μια ομάδα ελέγχου. Επιπλέον, οι προγραμματιστές με λύσεις με τεχνητή νοημοσύνη ήταν πιο πιθανό να πουν ότι ο μη προστατευμένος κώδικάς τους ήταν ασφαλής, σε σύγκριση με την προαναφερθείσα ομάδα ελέγχου.

Ο Ale Perry, μεταπτυχιακός φοιτητής στο Πανεπιστήμιο του Στάνφορντ και κύριος συν-συγγραφέας της μελέτης, είπε ότι «τα συστήματα δημιουργίας κώδικα δεν μπορούν επί του παρόντος να αντικαταστήσουν τους ανθρώπινους προγραμματιστές». Σύμφωνα με τον ίδιο, οι προγραμματιστές μπορούν να χρησιμοποιήσουν εργαλεία τεχνητής νοημοσύνης για να εκτελέσουν εργασίες εκτός των αρμοδιοτήτων τους ή για να επιταχύνουν τη διαδικασία προγραμματισμού στην οποία έχουν ήδη ορισμένες δεξιότητες. Σύμφωνα με τον συγγραφέα της μελέτης, θα πρέπει να ανησυχούν και για τα δύο και να ελέγχουν πάντα τον κώδικα που δημιουργείται.

Σύμφωνα με τη Megha Srivastava, μεταπτυχιακή φοιτήτρια στο Stanford και τη δεύτερη συν-συγγραφέα της μελέτης, το Codex δεν είναι άχρηστο: παρά τις ελλείψεις της «χαζής» τεχνητής νοημοσύνης, τα συστήματα παραγωγής κώδικα μπορούν να είναι χρήσιμα όταν χρησιμοποιούνται για εργασίες χαμηλού κινδύνου. Επιπλέον, οι προγραμματιστές που συμμετείχαν στη μελέτη δεν είχαν μεγάλη εμπειρία σε θέματα ασφάλειας, κάτι που θα μπορούσε να βοηθήσει στον εντοπισμό ευάλωτου ή επικίνδυνου κώδικα, είπε ο Σριβαστάβα.

Ο κώδικας που γράφεται από AI μπορεί να είναι εγγενώς επικίνδυνος

Οι αλγόριθμοι τεχνητής νοημοσύνης μπορούν επίσης να τροποποιηθούν για να βελτιώσουν τις προτάσεις κωδικοποίησης και οι εταιρείες που αναπτύσσουν τα δικά τους συστήματα μπορούν να λάβουν καλύτερες λύσεις με ένα μοντέλο που δημιουργεί κώδικα που ταιριάζει περισσότερο στις δικές τους πρακτικές ασφαλείας. Σύμφωνα με τους συγγραφείς της μελέτης, η τεχνολογία παραγωγής κώδικα είναι μια «συναρπαστική» εξέλιξη και πολλοί άνθρωποι είναι πρόθυμοι να τη χρησιμοποιήσουν. Απλώς, υπάρχει ακόμη πολλή δουλειά που πρέπει να γίνει για την εύρεση των κατάλληλων λύσεων για την αντιμετώπιση των ελλείψεων της τεχνητής νοημοσύνης.

Μπορείτε να βοηθήσετε την Ουκρανία να πολεμήσει ενάντια στους Ρώσους εισβολείς. Ο καλύτερος τρόπος για να γίνει αυτό είναι να δωρίσετε χρήματα στις Ένοπλες Δυνάμεις της Ουκρανίας μέσω Savelife ή μέσω της επίσημης σελίδας NBU.

Επίσης ενδιαφέρον:

Πηγήtechspot
Εγγραφείτε
Ειδοποίηση για
επισκέπτης

0 Σχόλια
Ενσωματωμένες κριτικές
Δείτε όλα τα σχόλια
Άλλα άρθρα
Εγγραφείτε για ενημερώσεις
Δημοφιλές τώρα