Στις 5 Ιουνίου 2018, η Ευρωπαϊκή Ομοσπονδία Ενώσεων Καταναλωτών (BEUC) και ερευνητές του Ευρωπαϊκού Πανεπιστημιακού Ινστιτούτου της Φλωρεντίας δημοσίευσαν μια μελέτη, πώς η τεχνητή νοημοσύνη μπορεί να βοηθήσει στη σάρωση και ανάλυση των πολιτικών απορρήτου.
Η ερευνητική ομάδα ανέλυσε την πολιτική προστασίας προσωπικών δεδομένων 14 δημοφιλών διαδικτυακών εταιρειών όπως είναι οι Google, Facebook και Instagram, Amazon, Apple, Microsoft, WhatsApp, Twitter, Uber, AirBnB,Booking.com, Skyscanner, Netflix, Steam και Epic Games, λαμβάνοντας ως βάση τις απαιτήσεις του Γενικού Κανονισμού Προστασίας Δεδομένων (GDPR) και τις σχετικές ευρωπαϊκές κατευθυντήριες γραμμές των αρχών προστασίας δεδομένων.
Με βάση αυτή την ανάλυση, οι πανεπιστημιακοί ερευνητές εκπαιδεύουν έναν αυτοματοποιημένο αξιολογητή πολιτικών απορρήτου, που ονομάζεται "Claudette". Ο στόχος είναι αυτό το εργαλείο Τεχνητής Νοημοσύνης να είναι σε θέση να ανιχνεύει, αυτόματα, τις πολιτικές απορρήτου των εταιρειών και να εντοπίζει όρους, που ενδεχομένως δε συμμορφώνονται, με τις απαιτήσεις του GDPR.
Η έρευνα δείχνει ότι, ένα μήνα μετά την έναρξη ισχύος του Γενικού Κανονισμού Προστασίας Δεδομένων (GDPR), οι πολιτικές απορρήτου ορισμένων από τις μεγαλύτερες ηλεκτρονικές υπηρεσίες - όπως τοFacebook, το Google και το Amazon - έχουν πολλά περιθώρια βελτίωσης, καθώς καμία από τις πολιτικές, που αναλύθηκαν, συμμορφώνονται, πλήρως, με τις απαιτήσεις του GDPR.
Συνολικά, όλες οι πολιτικές, που αναλύθηκαν, ανήλθαν σε 3.659 φράσεις (80.398 λέξεις). Από αυτές, 401 προτάσεις (11,0%) χαρακτηρίστηκαν ασαφείς, ως προς τη γλώσσα, που χρησιμοποιούσαν και 1,240 (33,9%) περιείχαν «δυνητικά προβληματικούς» όρους ή όρους, που παρέχουν «ανεπαρκείς» πληροφορίες.
Τα εντοπισμένα προβλήματα περιλαμβάνουν:
· Δεν παρέχονται όλες τις πληροφορίες, που απαιτούνται, βάσει των υποχρεώσεων διαφάνειας τουGDPR. Για παράδειγμα, οι εταιρείες δεν ενημερώνουν, πάντα, τους χρήστες, σχετικά με τα τρίτα μέρη, με τα οποία μοιράζονται ή λαμβάνουν δεδομένα.
· Η επεξεργασία δεδομένων προσωπικού χαρακτήρα, δε γίνεται, σύμφωνα με τις απαιτήσεις GDPR. Για παράδειγμα, ο όρος, που δηλώνει ότι ο χρήστης συμφωνεί με την πολιτική απορρήτου της εταιρείας, επειδή, απλά, χρησιμοποιεί την ιστοσελίδα της.
· Οι πολιτικές εκφράζονται, σε αόριστη και ασαφή γλώσσα, γεγονός που καθιστά πολύ δύσκολο, για τους καταναλωτές να κατανοήσουν το πραγματικό περιεχόμενο της πολιτικής και πώς χρησιμοποιούνται τα δεδομένα τους, στην πράξη. Συχνά χρησιμοποιούνται λέξεις, όπως: μπορεί, πιθανόν, κάποιος, συχνά, δυνατόν κ.λπ.
Η κ. Monique Goyens, Γενική Διευθύντρια τηε ΒEUC, δήλωσε:
«Λίγο περισσότερο από ένα μήνα, μετά την εφαρμογή του GDPR, πολλές πολιτικές απορρήτου μπορεί να μην πληρούν τους όρους του νόμου. Αυτό είναι πολύ σημαντικό. Είναι σημαντικό οι Αρχές Επιβολής του νόμου να εξετάσουν, προσεκτικά, αυτό το ζήτημα. Αυτή η καινοτόμος έρευνα καταδεικνύει ότι καθώς η Τεχνητή Νοημοσύνη και η αυτοματοποιημένη λήψη αποφάσεων θα είναι το μέλλον, για επιχειρήσεις όλων των τομέων, η Τ.Ν. μπορεί, επίσης, να χρησιμοποιηθεί, για να κρατήσει τις εταιρείες, υπό έλεγχο και να διασφαλίσει το σεβασμό των δικαιωμάτων των ανθρώπων. Είμαστε σίγουροι ότι η Τ.Ν. θα αποτελέσει ένα εργαλείο, για τις Ενώσεις Καταναλωτών, που θα παρακολουθούν την αγορά και θα διασφαλίζουν ότι οι παραβιάσεις δεν παραμένουν απαρατήρητες. Αναμένουμε, από τις εταιρείες, να σέβονται το απόρρητο των καταναλωτών και τα νέα δικαιώματα προστασίας δεδομένων. Στο μέλλον, η Τεχνητή Νοημοσύνη θα βοηθήσει στον εντοπισμό των παραβάσεων, γρήγορα και σε τεράστια κλίμακα, διευκολύνοντας, έτσι, την έναρξη νομικών ενεργειών.»
Οι ερευνητές ανέπτυξαν αυτή την καινοτόμο τεχνολογία, για να υποστηρίξουν τις Ενώσεις Καταναλωτών και τις δημόσιες αρχές, ώστε να εξασφαλίσουν καλύτερη επιβολή και συμμόρφωση, με σημαντικά δικαιώματα των καταναλωτών. Αυτό μπορεί, επίσης, να είναι πολύ εξυπηρετικό, για τους ίδιους τους καταναλωτές. Οι πολιτικές απορρήτου είναι, συνήθως, ογκώδεις και περίπλοκες. Σε έναν κόσμο, όπου οι καταναλωτές όλο και περισσότερο, περιβάλλονται, από τα συνδεδεμένα προϊόντα και χρησιμοποιούν ψηφιακές υπηρεσίες, για ό, τι κάνουν, η αξιολόγηση τέτοιων πολιτικών είναι απαραίτητη, για την προστασία της ιδιωτικής ζωής και της αυτονομίας των πολιτών.
Η BEUC θα ενημερώσει το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων σχετικά με τα ευρήματα αυτά. Θα συνεχίσουμε να παρακολουθούμε στενά τις πρακτικές της αγοράς και θα εξετάσουμε το ενδεχόμενο λήψης περαιτέρω νομικών ενεργειών.