Με μια μη-δημοκρατική πρόταση στη σύνοδο κορυφής της G20 το περασμένο Σαββατοκύριακο (21-22/11), η Κίνα επηρέασε θετικά για την υιοθέτηση του “COVID QR-code system” παγκοσμίως για την καταπολέμηση μίας γρίπης. Καλούμε τους παγκόσμιους ηγέτες να είναι εξαιρετικά προσεκτικοί.

Αρκετοί Έλληνες δυστυχώς επιστήμονες και πολιτικοί, ηγήθηκαν της Κινεζικής καμπάνιας ευαισθητοποίησης σχετικά με τη χρήση των εφαρμογών γρίπης. Σε μια επιστολή προς την ολλανδική κυβέρνηση περισσότεροι από 180 επιστήμονες και εμπειρογνώμονες εξέφρασαν τις πολλές ανησυχίες τους για αυτές τις εφαρμογές που οδήγησαν σε μια ευρεία και έντονη συζήτηση στα μέσα ενημέρωσης και το ολλανδικό κοινοβούλιο και σε αυστηρό έλεγχο της διαδικασίας ανάπτυξης εφαρμογών. Σε σύγκριση με το κινεζικό σύστημα QR-code, οι εφαρμογές Corona εσκεμμένα μοιάζουν με ένα παιδικό παιχνίδι!

Το κινεζικό σύστημα κωδικού QR είναι βασικά ένα σύστημα προειδοποίησης κινδύνου για την υγεία που παρέχει έναν πράσινο, κίτρινο ή κόκκινο κωδικό QR για κάθε πολίτη στο smartphone του. Τα χρώματα αντιπροσωπεύουν το επίπεδο του «κινδύνου Corona» που θέτει ο πολίτης ανά πάσα στιγμή. Σε γενικές γραμμές, το πράσινο σημαίνει ότι ένα άτομο δεν ενέχει κίνδυνο, το κίτρινο σημαίνει ότι ένα άτομο έχει δυνητικά εκτεθεί στον ιό Corona τις τελευταίες 14 ημέρες και το κόκκινο σημαίνει ότι ένα άτομο έχει μολυνθεί ή έχει μεγάλες πιθανότητες να μολυνθεί από τον ιό. Σε πολλές πόλεις της Κίνας ζητείται από τους πολίτες τον κωδικό QR τους πριν εισέλθουν σε μέσα μαζικής μεταφοράς, δημόσια κτίρια, εμπορικά κέντρα, αεροδρόμια κ.λπ.

Αυτά τα είδη εφαρμογών είναι ο λόγος που ξεκίνησαν το έργο Responsible AI & Corona. Υπό κανονικές συνθήκες, η ιδέα της χρωματικής κωδικοποίησης ενός ολόκληρου πληθυσμού με βάση τον κίνδυνο για την υγεία τους θα απορριφθεί κατηγορηματικά. Στην πραγματικότητα, η ομάδα εμπειρογνωμόνων υψηλού επιπέδου για την τεχνητή νοημοσύνη στις κατευθυντήριες γραμμές δεοντολογίας για την αξιόπιστη τεχνητή νοημοσύνη έχει ήδη χαρακτηρίσει αυτούς τους τύπους εφαρμογών ως εγείροντας «κρίσιμες ανησυχίες» επειδή  «Οποιαδήποτε μορφή βαθμολογίας πολιτών μπορεί να οδηγήσει στην απώλεια της αυτονομίας, θέτει σε κίνδυνο την αρχή της μη διάκρισης ».

Μην κάνετε λάθος, αυτό είναι το σκορ των πολιτών, και αν δεν ήταν για αυτήν την γρίπη, η Κίνα θα το σκεφτόταν δύο φορές πριν την προωθήσει στην παγκόσμια σκηνή. Σε περιόδους κρίσης, τείνουμε να είμαστε πιο δεκτικοί σε τέτοιου είδους «επεμβατικές» τεχνολογίες. Τείνουμε ακόμη και να πιστεύουμε ότι η τεχνολογία θα μας σώσει. «Κλείνουμε τα μάτια» στα θεμελιώδη δικαιώματα, τις ηθικές αξίες και ακόμη και την αποτελεσματικότητα. Το σύνθημα είναι συχνά: χωρίς κακό, χωρίς φάουλ. Πολλοί πιστεύουν επίσης ότι μια επεμβατική τεχνολογία όπως αυτές, θα αποσυναρμολογηθεί μετά την κρίση. Δυστυχώς, οι προηγούμενες κρίσεις έχουν δείξει ότι όταν υπάρχει μια τεχνολογία, δεν απομακρύνεται εύκολα. Ειδικά όχι όταν παρέχει στις αρχές αυξημένες εξουσίες για την παρακολούθηση των πολιτών τους.

Γιατί πρέπει να απορρίψουμε με αυτό το «σύστημα QR-code»;

Από μόνος του, αυτός ο κωδικός QR δεν φαίνεται να παρέχει  διεισδυτική ή πολύπλοκη τεχνολογία. Ωστόσο, δεν είναι ανησυχητικό το ίδιο το σύστημα κώδικα QR, αλλά το δυναμικό του για παρακολούθηση και βαθμολόγηση πολιτών. Ο ηθικός, νομικός και κοινωνικός αντίκτυπος αυτού του συστήματος είναι υψίστης σημασίας.

Τεχνική αντοχή

Πρώτα όμως πρώτα, πώς λειτουργεί το σύστημα; Σύμφωνα με τους New York Times, που αναφέρθηκαν στο κινεζικό σύστημα τον Μάρτιο του τρέχοντος έτους, δεν είναι σαφές πώς το σύστημα ταξινομεί κάποιον με έναν κόκκινο, κίτρινο ή πράσινο κωδικό QR ανά πάσα στιγμή. Το χρώμα αλλάζει ανεξάρτητα, αλλά οι χρήστες δεν γνωρίζουν τι το κάνει να αλλάζει από πράσινο σε κίτρινο ή κόκκινο και πίσω. Δεν είναι επίσης σαφές εάν υπάρχουν επιλογές προσφυγής σε περίπτωση εσφαλμένης ταξινόμησης. Οι συνέπειες μιας αλλαγής χρώματος μπορεί να είναι αρκετά σκληρές, επειδή καθορίζει την ελευθερία ενός ατόμου να κινείται, να εισέρχεται σε καταστήματα, ταξίδια κ.λπ. Το άρθρο αποκαλύπτει ότι οι δημιουργοί των συστημάτων λένε ότι χρησιμοποιεί μεγάλα δεδομένα για να προσδιορίσει εάν ένα άτομο κινδυνεύει να μεταδοθεί. Υποθέτουμε ότι αυτή είναι μια συνεχής διαδικασία που ενεργοποιεί την αλλαγή χρώματος.

Τι σημαίνει αυτό ακριβώς; Τεχνικές τεχνητής νοημοσύνης, όπως η μηχανική μάθηση χρησιμοποιούνται εδώ για να κοσκινίσουν μεγάλες ποσότητες δεδομένων και να «προσδιορίσουν» εάν κάποιος λάβει έναν πράσινο, κίτρινο ή κόκκινο κωδικό QR. Πρώτα απ ‘όλα, αυτές οι τεχνικές δεν «καθορίζουν» τίποτα με απόλυτη βεβαιότητα. Απλώς βρίσκουν «μοτίβα» στα δεδομένα. Αυτά τα μοτίβα μπορεί να είναι λογικά, αλλά συχνά αποδεικνύονται εντελώς άσχετα ή ακόμη και λανθασμένα. Θα πρέπει επίσης να σημειωθεί ότι οι «αποφάσεις» που παρέχουν αυτές οι τεχνικές είναι κατηγοριοποιήσεις, όχι βασισμένες σε προσωπικά προσόντα αλλά σε χαρακτηριστικά που ένα άτομο τυχαίνει να μοιράζεται με άλλους. Αυτά τα συστήματα δεν λαμβάνουν αποφάσεις, Κάνουν προβλέψεις, και προβλέπουν πότε ένας χώρος ή πτήση ή μέρος δεν μπορεί να δεχτεί ανθρώπους, άρα κοκκινίζουν και παρεμβαίνουν στις επιλογές των ανθρώπων.

Τα συστήματα πρόβλεψης βάσει δεδομένων έχουν πολλαπλασιαστεί τα τελευταία δύο χρόνια. Υπάρχει τεχνητή νοημοσύνη που προβλέπει την προτίμηση ταινιών και μουσικής, αλλά και υποτροπή, πιστωτικά αποτελέσματα, εγκλήματα, απάτη κοινωνικών παροχών, προτίμηση ψηφοφόρων, σεξουαλικό προσανατολισμό, κατάθλιψη και ούτω καθεξής. Έχουμε επίσης δει τον αρνητικό αντίκτυπο που μπορούν να έχουν αυτά τα συστήματα λόγω της ευθραυστότητάς τους. Παραδείγματα μεροληψίας, ακόμη και διακρίσεων, είναι άφθονα. Είναι μαύρα κουτιά, γιατί δεν μπορούν να εξηγήσουν γιατί επιτεύχθηκε ένα συγκεκριμένο αποτέλεσμα. Συχνά δεν είναι σαφές ποια δεδομένα χρησιμοποιούνται και έχουν προτεραιότητα. Κυμαίνεται από προσωπικά δεδομένα έως δεδομένα συμπεριφοράς (σκεφτείτε τις δραστηριότητες κοινωνικών μέσων, την τοποθεσία μας, τις διαδικτυακές αναζητήσεις μας) και από τα πιστωτικά δεδομένα έως τα δεδομένα υγείας (από εφαρμογές, smartwatch κ.λπ.). Ο τρόπος με τον οποίο αντλούνται συμπεράσματα από αυτά τα δεδομένα είναι άγνωστος. Τα συστήματα πρόβλεψης έχουν προκαλέσει σοβαρή κοινωνική και προσωπική βλάβη.

Πώς είναι λοιπόν αυτό σχετικό με το σύστημα κώδικα QR COVID;

 Δεδομένου ότι προφανώς χρησιμοποιεί μεγάλα δεδομένα για να προβλέψει το επίπεδο κινδύνου υγείας ενός ατόμου, τεχνικά το σύστημα αντιμετωπίζει ακριβώς τις ίδιες προκλήσεις. Το σύστημα δεν καθορίζει το επίπεδο κινδύνου για την υγεία, κάνει μόνο μια πρόβλεψη. Η πρόβλεψη είναι πιθανό να βασίζεται κυρίως σε χαρακτηριστικά που κάποιος τυχαίνει να μοιράζεται με άλλους. Αυτά τα χαρακτηριστικά θα μπορούσαν να είναι άσχετα ή ακόμη και λανθασμένα κάνοντας αυτές τις προβλέψεις μεροληπτικές ή εσφαλμένες.

Ηθική επίδραση

Εκτός από τις κρίσιμες ανησυχίες που εγείρονται για αυτόν τον τύπο «βαθμολογίας πολιτών», η ομάδα εμπειρογνωμόνων υψηλού επιπέδου για την τεχνητή νοημοσύνη έκρινε επίσης μια ηθική αξία που είναι ιδιαίτερα σχετική σε αυτήν την περίπτωση: «Σεβασμός της ανθρώπινης αξιοπρέπειας». Ο σεβασμός της ανθρώπινης αξιοπρέπειας συνεπάγεται ότι όλοι οι άνθρωποι αντιμετωπίζονται με σεβασμό λόγω αυτών ως ηθικά θέματα, και όχι απλώς ως αντικείμενα που πρέπει να κοσκινιστούν, να ταξινομηθούν, να βαθμολογηθούν, να συγκεντρωθούν , ρυθμισμένοι ή χειραγωγημένοι.  Το κοσκίνισμα, η ταξινόμηση και η βαθμολογία είναι ακριβώς αυτό που κάνει αυτό το σύστημα QR-συστήματος, ενώ συγχρόνως μπορεί να βολεύει, να ρυθμίσει ή να χειριστεί τους ανθρώπους σε συγκεκριμένους τύπους συμπεριφοράς. Επιπλέον, υπάρχουν οι συνεχείς δυνατότητες παρακολούθησης και παρακολούθησης που θα μπορούσε να προσφέρει το σύστημα.

Ανθρώπινα δικαιώματα και κόκκινες γραμμές

Στην έκθεσή της για την Ad Hoc Επιτροπή AI(Τεχνητή Νοημοσύνη) του Συμβουλίου της Ευρώπης (CAHAI): «Ο αντίκτυπος της τεχνητής νοημοσύνης στα ανθρώπινα δικαιώματα, τη δημοκρατία και το κράτος δικαίου», η Catelijne Muller περιγράφει τον ευρύ αντίκτυπο που μπορεί να έχει η AI σε όλα σχεδόν τα ανθρώπινα δικαιώματα. Προτείνει ακόμη και τη σχεδίαση κόκκινων γραμμών για “ορισμένα συστήματα AI ή χρήσεις που θεωρούνται ότι έχουν πολύ μεγάλη επίδραση για να αφεθούν ανεξέλεγκτα ή μη ρυθμισμένα ή ακόμη και να επιτραπούν”. Σύμφωνα με την Muller, θα πρέπει να σχεδιαστούν κόκκινες γραμμές για «κοινωνική βαθμολογία με δυνατότητα AI, προφίλ και βαθμολόγηση μέσω βιομετρικών και αναγνώρισης συμπεριφοράς και μαζικής παρακολούθησης που λειτουργεί με AI. Προτείνει απαγόρευση ή μορατόριουμ για αυτές τις εφαρμογές ή, τουλάχιστον, αυστηρούς όρους για εξαιρετική χρήση.  Επίσης, από την άποψη των ανθρωπίνων δικαιωμάτων, το σύστημα QR-code είναι ολόκληρο μια «κόκκινη γραμμή».

GDPR

Στην ΕΕ, ο GDPR δεν θέτει εμπόδια στη χρήση του συστήματος, έστω και σε κάποιο βαθμό. Η πλήρως αυτοματοποιημένη λήψη αποφάσεων και το προφίλ περιορίζονται στο βαθμό που χρησιμοποιούν προσωπικά δεδομένα. Το σύστημα QR-code είναι μια μορφή αυτοματοποιημένης λήψης αποφάσεων, αλλά δεν είναι σαφές εάν είναι πλήρως αυτοματοποιημένο ή εάν διατηρεί ένα μία ανθρώπινη παρέμβαση. Είναι επίσης ασαφές, αλλά πιθανότατα, ότι το προφίλ γίνεται (ή μπορεί να γίνει) κυρίως με μη προσωπικά δεδομένα. Αυτό αφήνει ανησυχίες ως προς το επίπεδο προστασίας του GDPR καθώς επιτρέπει ένα σύστημα QR-code σε κάποια μορφή να παρεμβαίνει στην ΕΕ. Δυστυχώς, η Ευρωπαϊκή Επιτροπή φαίνεται να πιστεύει ότι η βαθμολογία των πολιτών έχει θέση στην δημοκρατική ΕΕ. Εάν οι παγκόσμιοι ηγέτες, λόγω των δεινών συνθηκών αυτής της κρίσης αποφασίσουν να δεχτούν την χρήση ενός συστήματος τύπου COVID QR σε κάποια μορφή ή σχήμα, τους συμβουλεύουμε έντονα να προβληματιστούν. Τους παροτρύνουμε να δουν τους κινδύνους που θα φέρει στις κοινωνίες μας. Τους προκαλούμε να φανταστούν τον κόσμο που θα διαμορφώσει. Ένα σύστημα κώδικα QR COVID θα δημιουργήσει ένα μέλλον που ήταν αδιανόητο ακόμη και πριν από 6 μήνες. Ένα μέλλον που θα είναι πολύ δύσκολο να επιστρέψουμε, αυτήν την νέα κανονικότητα δεν θα την αποδεχτούμε