Τα τελευταία χρόνια, η Apple έχει εδραιώσει τη φήμη της ως εταιρείας που εστιάζει στην προστασία της ιδιωτικής ζωής. Αναφέρει συχνά την προσέγγιση του «περιτειχισμένου κήπου» ως όφελος για την προστασία της ιδιωτικής ζωής και της ασφάλειας. Ωστόσο, ένα νέο δημοσίευμα από τους Financial Times θέτει αυτή τη φήμη υπό αμφισβήτηση. Ο λόγος που η Apple θα «θυσιάσει την ιδιωτικότητα του iPhone» με αυτόν τον τρόπο είναι για να να σταματήσει την κακοποίηση παιδιών. Το σύστημα φέρεται να είναι γνωστό ως «neuralMatch». Ουσιαστικά, το σύστημα θα χρησιμοποιήσει λογισμικό για τη σάρωση εικόνων που δημιουργούσαν οι χρήστες στα προϊόντα της Apple. Εάν το λογισμικό εντοπίσει οποιοδήποτε μέσο που θα μπορούσε να περιλαμβάνει κακοποίηση παιδιών – συμπεριλαμβανομένης της παιδικής πορνογραφίας – θα ειδοποιηθεί ένας υπάλληλος. Στη συνέχεια, ο άνθρωπος θα αξιολογήσει τη φωτογραφία για να αποφασίσει ποια ενέργεια πρέπει να γίνει.
Προφανώς, η εκμετάλλευση και κακοποίηση παιδιών είναι ένα τεράστιο πρόβλημα και ένα πρόβλημα που κάθε άνθρωπος γνωρίζει πως πρέπει να αντιμετωπιστεί γρήγορα και σθεναρά. Ωστόσο, η ιδέα κάποιου στην Apple να βλέπουν τις φωτογραφίες των παιδιών σας που το neuralMatch μπορεί να επισημάνει κατά λάθος ως παράνομη είναι ένα σοβαρό θέμα για όλους τους πελάτες της εταιρείας. Υπάρχει επίσης η ιδέα ότι το λογισμικό που έχει σχεδιαστεί για να εντοπίζει την κακοποίηση παιδιών τώρα θα μπορούσε να εκπαιδευτεί για να εντοπίσει κάτι άλλο αργότερα. Είναι πιθανό η Apple να δημοσιοποιήσει αυτό το σύστημα σε λίγες μέρες. Θα πρέπει να περιμένουμε και να δούμε πώς θα αντιδράσει ο κόσμος, αν προχωρήσει η Αμερικανική εταιρεία στα σχέδια της.
Ακολουθήστε το Gizchina Greece στο Google News για να μαθαίνετε πρώτοι και άμεσα, όλα τα τεχνολογικά νέα! Αν ψάχνετε HOT προσφορές, κάντε εγγραφή στο κανάλι μας στο Telegram!