Σε πρόσφατα άρθρα είχαμε αναφερθεί στους κινδύνους που κρύβει η υιοθέτηση της τεχνητής νοημοσύνης για τα προσωπικά δεδομένα των χρηστών. Με αφορμή την Ημέρα Προστασίας Δεδομένων, τίθεται εκ νέου το ζήτημα καθώς και το ποιες είναι οι κινήσεις της Ε.Ε. για την προστασία των πολιτών.

Η τεχνητή νοημοσύνη βασίζεται σε μεγάλα γλωσσικά μοντέλα που εκπαιδεύονται από τα δεδομένα που εισάγουν οι χρήστες. Αυτά είναι μερικές φορές ευαίσθητα και εμπιστευτικά, αλλά η τεχνητή νοημοσύνη δεν ξέρει πώς να τα ταξινομήσει. Πώς μπορούμε να διασφαλίσουμε ότι δεν θα αποκαλυφθούν;

Προσωπικά δεδομένα που παύουν να είναι προσωπικά

Οι AI που χρησιμοποιούνται σε συνδεδεμένες συσκευές, όπως έξυπνα ρολόγια και διαδικτυακές πλατφόρμες, μπορούν να έχουν πρόσβαση σε ευαίσθητες πληροφορίες, συχνά χωρίς να το γνωρίζουν πλήρως οι χρήστες. Φανταστείτε στοιχεία της προσωπικής σας ζωής να εμφανίζονται σε μια απάντηση από ένα chatbot όπως το ChatGP σε οποιονδήποτε…

Αυτό δυστυχώς είναι δυνατό γιατί το γλωσσικό μοντέλο εμπλουτίζεται από αυτά που εισάγουν οι χρήστες του. Οι καταναλωτές δεν γνωρίζουν πάντα ότι η υποβολή προσωπικών ερωτήσεων, ιατρικής φύσης, για παράδειγμα, σε ένα εργαλείο συνομιλίας σημαίνει ότι παρέχουν στις εταιρείες που διαχειρίζονται αυτήν την τεχνητή νοημοσύνη ευαίσθητες πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για εμπορικούς σκοπούς. Και αυτό δεν είναι το μόνο πρόβλημα, γιατί η τεχνητή νοημοσύνη εμπλέκει πολλούς παράγοντες (προγραμματιστής, πάροχος, διανομέας, χρήστης κτλ). Όλο αυτό παραμένει μάλλον αδιαφανές για τον καταναλωτή. Επομένως, είναι δύσκολο να γνωρίζουμε ποιος έχει πραγματικά πρόσβαση στα προσωπικά δεδομένα και ποιος θα είναι υπεύθυνος σε περίπτωση προβλημάτων.

Αυτό ισχύει και για εταιρείες των οποίων οι εργαζόμενοι εισάγουν εμπιστευτικά οικονομικά δεδομένα ή αποκλειστικούς πηγαίους κώδικες χωρίς να συνειδητοποιούν ότι το μοντέλο θα τα απορροφήσει και αναμφίβολα θα τα αναδείξει τελικά. Επιπλέον, η έρευνα δείχνει ότι το ποσοστό των διαρροών δεδομένων αυτού του τύπου δεν είναι ευκαταφρόνητο : μόνο για το ChatGPT, μηνιαία υπάρχουν 158 τέτοια περιστατικά ανά 10.000 χρήστες! 

 

Κανονιστικό πλαίσιο από την Ε.Ε.

Αυτός είναι ο λόγος που αρχίζουν να εμφανίζονται κανονισμοί σχετικά με την προστασία δεδομένων στην περίπτωση της τεχνητής νοημοσύνης. Τον Δεκέμβριο του 2023, η Ευρωπαϊκή Ένωση συμφώνησε να αναπτύξει εναρμονισμένους κανόνες για την τεχνητή νοημοσύνη. Για την καλύτερη προστασία των χρηστών, η Ευρωπαϊκή Ένωση έχει ως εκ τούτου προτείνει τρία κείμενα: ένα κανονιστικό πλαίσιο για την τεχνητή νοημοσύνη, μια οδηγία για την ευθύνη σε θέματα τεχνητής νοημοσύνης και μια οδηγία για την ευθύνη προϊόντων. Η ΕΕ θέλει να αναγκάσει τους ψηφιακούς γίγαντες και άλλες πλατφόρμες και κοινωνικά δίκτυα να ενημερώνουν καλύτερα τους χρήστες σχετικά με τους αλγόριθμους τους.  Και για να τους υποχρεώσει, το κείμενο προβλέπει σημαντικές κυρώσεις. Θα μπορούσαν να κυμαίνονται από 10 έως 30 εκατ. ευρώ ή 2 έως 4% του τζίρου σε περίπτωση μη τήρησης αυτών των νέων υποχρεώσεων.

Προβλέπουν την υποχρέωση διαφάνειας και τη δημοσίευση περίληψης των δεδομένων εκπαίδευσης που χρησιμοποιούνται για τα μοντέλα. Εκτός από τους κανονισμούς που σε κάθε περίπτωση παραμένουν εκτός του ρυθμού της καινοτομίας, υπάρχουν λύσεις για την προστασία των δεδομένων και παραδόξως, είναι η ίδια η τεχνητή νοημοσύνη που μπορεί να εκτελέσει αυτό το έργο!

προσωπικά δεδομένα

Συνθετικά δεδομένα

Μία λύση θα ήταν να μπορούμε να υποδείξουμε στο AI ποια δεδομένα πρέπει να προστατεύονται. Και στη συνέχεια η τεχνητή νοημοσύνη να καθιστά δυνατό τον έλεγχο του κατά πόσον ευαίσθητες πληροφορίες είναι πιθανό να φύγουν από το δίκτυο μιας εταιρείας.

Η άλλη τεχνική λύση συνίσταται στην εκμάθηση τεχνητής νοημοσύνης με συνθετικά δεδομένα. Πρόκειται για δεδομένα που δημιουργούνται τεχνητά και αντικαθιστούν πραγματικά δεδομένα για την προστασία των αυθεντικών. Είναι ανώνυμα, όμως για την τεχνητή νοημοσύνη θα έχουν το ίδιο αποτέλεσμα με τα πραγματικά δεδομένα.  Συγκεκριμένα, στην ιατρική για παράδειγμα, αντί να τροφοδοτεί το AI με πραγματικές ακτινογραφίες που δείχνουν όγκους, ένα AI θα παράγει ισοδύναμες ακτινογραφίες για να εκπαιδεύσει ένα σύστημα μηχανικής μάθησης. 

Αυτά τα συνθετικά δεδομένα θα έχουν το ίδιο αποτέλεσμα και θα επιτρέψουν στην τεχνητή νοημοσύνη να υποστηρίξει το έργο των ακτινολόγων εξίσου αποτελεσματικά. Το πρόβλημα είναι ότι η δημιουργία αυτών των συνθετικών δεδομένων απαιτεί τη δημιουργία συγκεκριμένης τεχνητής νοημοσύνης και αυτό έχει τεράστιο κόστος. Στην πραγματικότητα, η προστασία δεδομένων σε επίπεδο AI ​​δεν αποτελεί επί του παρόντος προτεραιότητα.

-----------
Κάποιες από τις αναρτήσεις μας μπορεί να περιέχουν συνδέσμους συνεργατών. Το Gizchina Greece μπορεί να λαμβάνει ένα μικρό ποσοστό, εάν κάνετε κλικ σε έναν σύνδεσμο και αγοράσετε κάποιο προιόν. Αν θέλετε περισσότερες λεπτομέρειες, εδώ μπορείτε να μάθετε πώς χρησιμοποιούμε τους συνδέσμους συνεργατών. Σας ευχαριστούμε για την υποστήριξη!


-----------

Ακολουθήστε το Gizchina Greece στο Google News για να μαθαίνετε πρώτοι και άμεσα, όλα τα τεχνολογικά νέα! Αν ψάχνετε HOT προσφορές, κάντε εγγραφή στο κανάλι μας στο Telegram!