Η τεχνητή νοημοσύνη συνεχίζει να εξελίσσεται και να μας εκπλήσσει με τα κατορθώματά της. Υπάρχει όμως δυνατότητα να μπορεί ο υπάλληλος να σημάνει συναγερμό; Οι υπεύθυνοι μπορούν να ειδοποιήσουν ή και να αντιδράσουν όταν αντιληφθούν ότι κάτι δεν πάει καλά;

Μια ομάδα που αποτελείται από 11 νυν και πρώην υπαλλήλους της OpenAI, καθώς και δύο υπαλλήλους της Google DeepMind (ο ένας από τους οποίους εργαζόταν επίσης στο Anthropic), δημοσίευσε μια ανοιχτή επιστολή αυτή την εβδομάδα στην οποία εκφράζουν πολύ σοβαρούς φόβους σχετικά με την έλλειψη επίβλεψη ασφάλειας στον κλάδο της τεχνητής νοημοσύνης. Η επιστολή ζητά να έχουν «δικαίωμα να σημάνουν συναγερμό για την τεχνητή νοημοσύνη και ταυτόχρονα να προστατεύεται όποιος σημάνει συναγερμό».

Κίνδυνος να μείνουν ανεξέλεγκτες οι εταιρείες τεχνητής νοημοσύνης

Οι συντάκτες της επιστολής ισχυρίζονται ότι οι εταιρείες τεχνητής νοημοσύνης κατέχουν «ουσιώδεις» αλλά μη δημοσιοποιημένες πληροφορίες σχετικά με τις δυνατότητες και τους περιορισμούς των συστημάτων τους, καθώς και την αποτελεσματικότητα των προστατευτικών τους μέτρων και τα επίπεδα κινδύνου που σχετίζονται με διαφορετικούς τύπους της ζημιάς.

Αυτές οι εταιρείες δεν έχουν σχεδόν καμία υποχρέωση να μοιράζονται τις εν λόγω πληροφορίες με τις κυβερνήσεις ή την κοινωνία των πολιτών. Οι υπογράφοντες θεωρούν πολύ προβληματικό το γεγονός ότι αυτές οι εταιρείες δεν αναγκάζονται να κοινοποιήσουν οικειοθελώς αυτές τις πληροφορίες. Η OpenAI υπερασπίστηκε τις πρακτικές της λέγοντας ότι έχει τρόπους να αναφέρει προβλήματα εντός της εταιρείας. Επιπλέον, ο δημιουργός του ChatGPT διασφαλίζει ότι δεν καθιστά διαθέσιμες νέες τεχνολογίες χωρίς να έχει λάβει τα κατάλληλα μέτρα ασφαλείας.

Η επιστολή επισημαίνει ότι αν και οι εταιρείες τεχνητής νοημοσύνης έχουν δηλώσει δημόσια τη δέσμευσή τους να αναπτύξουν την τεχνολογία με ασφάλεια, ερευνητές και εργαζόμενοι έχουν προειδοποιήσει για έλλειψη εποπτείας που θα μπορούσε να επιδεινώσει τα τρέχοντα προβλήματα της εταιρείας ή να δημιουργήσει νέα. Αυτοί οι εργαζόμενοι πιστεύουν ότι είναι απαραίτητη η αυξημένη προστασία για όσους επιλέγουν να σημάνουν συναγερμό και να αναφέρουν ανησυχίες για την ασφάλεια.

Έκκληση για δέσμευση των εταιρειών

Οι υπογράφοντες της επιστολής προτείνουν μια δέσμευση σε τέσσερις αρχές σχετικά με τη διαφάνεια και τη λογοδοσία, συμπεριλαμβανομένης μιας διάταξης ότι οι εταιρείες δεν θα αναγκάζουν τους υπαλλήλους να υπογράφουν συμφωνίες που απαγορεύουν να εγείρουν ερωτήματα σχετικά με κινδύνους τεχνητής νοημοσύνης.

Ζητούν επίσης μηχανισμό ώστε οι εργαζόμενοι να μοιράζονται ανώνυμα τις ανησυχίες τους με τα μέλη του διοικητικού συμβουλίου. «Μέχρι να υπάρξει αποτελεσματική δημόσια εποπτεία αυτών των εταιρειών, οι νυν και πρώην εργαζόμενοι θα είναι από τους λίγους που θα μπορούν να τους ζητήσουν να λογοδοτήσουν στο κοινό», αναφέρει η επιστολή. «Ωστόσο, οι ευρείες συμφωνίες εμπιστευτικότητας μάς εμποδίζουν να εκφράσουμε τις ανησυχίες μας εκτός από τις ίδιες εταιρείες που ενδέχεται να μην αντιμετωπίσουν αυτά τα ζητήματα».

συναγερμό

Αυτή η ανοιχτή επιστολή έρχεται μετά την παραίτηση δύο βασικών υπαλλήλων του OpenAI, του συνιδρυτή Ilya Sutskever και του ερευνητή ασφαλείας Jan Leike, τον περασμένο μήνα. Μετά την αποχώρησή του, ο Leike ανέφερε ότι το OpenAI είχε εγκαταλείψει μια «κουλτούρα ασφάλειας» προς όφελος προϊόντων ελκυστικών για το ευρύ κοινό και τις επιχειρήσεις. Αυτή η επιστολή απηχεί επίσης ορισμένες από τις δηλώσεις του ερευνητή ασφάλειας.

-----------
Κάποιες από τις αναρτήσεις μας μπορεί να περιέχουν συνδέσμους συνεργατών. Το Gizchina Greece μπορεί να λαμβάνει ένα μικρό ποσοστό, εάν κάνετε κλικ σε έναν σύνδεσμο και αγοράσετε κάποιο προιόν. Αν θέλετε περισσότερες λεπτομέρειες, εδώ μπορείτε να μάθετε πώς χρησιμοποιούμε τους συνδέσμους συνεργατών. Σας ευχαριστούμε για την υποστήριξη!


-----------

Ακολουθήστε το Gizchina Greece στο Google News για να μαθαίνετε πρώτοι και άμεσα, όλα τα τεχνολογικά νέα! Αν ψάχνετε HOT προσφορές, κάντε εγγραφή στο κανάλι μας στο Telegram!


[Πηγή] :