Η χρήση τεχνητής νοημοσύνης στην καθημερινότητά μας αυξάνεται και καλύπτει πλέον πολλούς τομείς δραστηριότητας. Κάτι που φαίνεται κοινότατο, όπως η αποφυγή της κίνησης μέσω της χρήσης ενός έξυπνου συστήματος πλοήγησης ή η λήψη στοχευμένων προσφορών από έναν έμπιστο έμπορο, είναι αποτέλεσμα της μεγάλης ανάλυσης δεδομένων που μπορούν να χρησιμοποιήσουν τα συστήματα ΤΝ. Παρόλο που τα συγκεκριμένα παραδείγματα έχουν προφανή οφέλη, οι ηθικές και νομικές επιπτώσεις της επιστήμης των δεδομένων που χρησιμοποιούν, συχνά παραμένουν απαρατήρητες από το ευρύ κοινό.

Η τεχνητή νοημοσύνη, και ειδικότερα τα πεδία της μηχανικής μάθησης και της βαθιάς μάθησης, εμφανίζονται ουδέτερα. Όμως κάτω από την επιφάνεια, μπορεί να γίνουν εξαιρετικά προσωπικά. Τα οφέλη μπορεί να είναι τεράστια σε πολλούς τομείς της ζωής, αλλά η στήριξη στην ΤΝ που χρησιμοποιεί συγκεκριμένα πρότυπα, μπορεί επίσης να στραφεί εναντίον των  χρηστών, να διαπράξει αδικίες και να περιορίσει τα δικαιώματα των ανθρώπων.

Κατά τη γνώμη μου, η χρήση της ΤΝ μπορεί να επηρεάσει αρνητικά ένα ευρύ φάσμα ανθρωπίνων δικαιωμάτων. Το πρόβλημα επιδεινώνεται από το γεγονός ότι οι αποφάσεις λαμβάνονται βάσει αυτών των συστημάτων, ενώ δεν υπάρχει διαφάνεια, λογοδοσία ή διασφαλίσεις ως προς τον τρόπο με τον οποίο σχεδιάζονται, πώς λειτουργούν και πώς μπορούν να αλλάξουν με την πάροδο του χρόνου.

Παραβιάζοντας το δικαίωμα στην ιδιωτική ζωή και το δικαίωμα στην ισότητα
Η ένταση μεταξύ των πλεονεκτημάτων της τεχνολογίας ΤΝ και των κινδύνων για τα ανθρώπινα δικαιώματα γίνεται πιο εμφανής στον τομέα της ιδιωτικής ζωής. Το απόρρητο είναι ένα θεμελιώδες ανθρώπινο δικαίωμα, απαραίτητο για να ζει με αξιοπρέπεια και ασφάλεια. Όμως, στο ψηφιακό περιβάλλον, ακόμη και όταν χρησιμοποιούμε εφαρμογές και πλατφόρμες κοινωνικών μέσων μαζικής ενημέρωσης, συλλέγονται μεγάλα ποσά προσωπικών δεδομένων - με ή χωρίς τη γνώση μας - και μπορούν να χρησιμοποιηθούν για την προβολή μας και την πρόβλεψη των συμπεριφορών μας. Παρέχουμε στοιχεία για την υγεία, τις πολιτικές ιδέες και την οικογενειακή ζωή χωρίς να γνωρίζουμε ποιος πρόκειται να χρησιμοποιήσει αυτά τα δεδομένα, για ποιους σκοπούς και πώς.
Οι μηχανές λειτουργούν με βάση αυτό που τους λένε οι άνθρωποι. Εάν ένα σύστημα τροφοδοτείται με ανθρώπινες προκαταλήψεις (συνειδητό ή ασυνείδητο), το αποτέλεσμα θα είναι αναπόφευκτα προκατειλημμένο. Η έλλειψη ποικιλομορφίας και ενσωμάτωσης στο σχεδιασμό των συστημάτων ΤΝ αποτελεί, κατά συνέπεια, βασικό μέλημα: αντί να καταστήσουμε τις αποφάσεις μας πιο αντικειμενικές, θα μπορούσαν να ενισχύσουν τις διακρίσεις και τις προκαταλήψεις δίνοντάς τους μια εμφάνιση αντικειμενικότητας. Υπάρχουν όλο και περισσότερες ενδείξεις ότι οι γυναίκες, οι εθνικές μειονότητες, τα άτομα με αναπηρία και τα άτομα ΛΟΑΤ αντιμετωπίζουν ιδιαίτερα διακρίσεις λόγω αλλοιωμένων αλγορίθμων.

Μελέτες έχουν δείξει, για παράδειγμα, ότι η Google ήταν πιο πιθανό να εμφανίζει διαφημίσεις για υψηλά αμειβόμενες θέσεις εργασίας σε άνδρες που αναζητούν εργασία παρά σε γυναίκες. Τον περασμένο Μάιο, μελέτη του Οργανισμού Θεμελιωδών Δικαιωμάτων της ΕΕ υπογράμμισε επίσης τον τρόπο με τον οποίο η ΤΝ μπορεί να ενισχύσει τις διακρίσεις. Όταν η λήψη αποφάσεων βάσει δεδομένων αντανακλά τις κοινωνικές προκαταλήψεις, αναπαράγει - και ακόμη και ενισχύει - τις προκαταλήψεις αυτής της κοινωνίας. Το πρόβλημα αυτό έχει τεθεί συχνά από τον ακαδημαϊκό κόσμο και από τις ΜΚΟ, που υιοθέτησαν πρόσφατα τη Διακήρυξη του Τορόντο, ζητώντας διασφαλίσεις για να εμποδίσουν τα συστήματα μηχανικής μάθησης να συμβάλλουν σε πρακτικές που εισάγουν διακρίσεις.

Οι αποφάσεις που λαμβάνονται χωρίς αμφισβήτηση των αποτελεσμάτων ενός λανθασμένου αλγορίθμου, μπορούν να έχουν σοβαρές επιπτώσεις στα ανθρώπινα δικαιώματα. Για παράδειγμα, λογισμικό που χρησιμοποιείται για ενημέρωση αποφάσεων σχετικά με τις παροχές περίθαλψης και αναπηρίας έχει λανθασμένα αποκλείσει ανθρώπους που είχαν δικαίωμα, με δραματικές συνέπειες. Στο σύστημα δικαιοσύνης επίσης, η ΤΝI μπορεί να οδηγήσει σε βελτίωση ή μια "δύναμη του κακού". Από την αστυνόμευση στην πρόβλεψη εγκλημάτων και την υποτροπή, τα συστήματα ποινικής δικαιοσύνης σε όλο τον κόσμο εξετάζουν ολοένα και περισσότερο τις ευκαιρίες που προσφέρει η ΤΝ για την πρόληψη του εγκλήματος. Ταυτόχρονα, πολλοί ειδικοί εκφράζουν ανησυχίες σχετικά με την αντικειμενικότητα τέτοιων μοντέλων. Για να αντιμετωπίσει αυτό το ζήτημα, η Ευρωπαϊκή Επιτροπή για την αποτελεσματικότητα της δικαιοσύνης (CEPEJ) του Συμβουλίου της Ευρώπης έχει συγκεντρώσει μια ομάδα εμπειρογνωμόνων διεπιστημονικής φύσεως, οι οποίοι θα "οδηγήσουν την εκπόνηση κατευθυντήριων γραμμών για τη δεοντολογική χρήση αλγορίθμων εντός των συστημάτων δικαιοσύνης".

Η ελευθερία έκφρασης και η ελευθερία του συνέρχεσθαι
Ένα άλλο δικαίωμα που διακυβεύεται είναι η ελευθερία έκφρασης. Μια πρόσφατη δημοσίευση του Συμβουλίου της Ευρώπης για τους Αλγορίθμους και τα Ανθρώπινα Δικαιώματα, σημείωσε για παράδειγμα, ότι το Facebook και το YouTube έχουν υιοθετήσει έναν μηχανισμό φιλτραρίσματος για την ανίχνευση βίαιου εξτρεμιστικού περιεχομένου. Ωστόσο, δεν υπάρχουν διαθέσιμες πληροφορίες σχετικά με τη διαδικασία ή τα κριτήρια που υιοθετήθηκαν για να διαπιστωθεί ποια βίντεο εμφανίζουν "σαφώς παράνομο περιεχόμενο". Αν και δεν μπορούμε παρά να χαιρετίσουμε την πρωτοβουλία να σταματήσουμε τη διάδοση αυτού του υλικού, η έλλειψη διαφάνειας γύρω από τη μετριοπάθεια του περιεχομένου δημιουργεί ανησυχίες, διότι μπορεί να χρησιμοποιηθεί για να περιορίσει τη νόμιμη ελευθερία του λόγου και να παραβιάσει την ικανότητα των ανθρώπων να εκφράζονται. Παρόμοιες ανησυχίες έχουν εγερθεί όσον αφορά το αυτόματο φιλτράρισμα του περιεχομένου που παράγεται από χρήστες, στο σημείο αποστολής, γιατί υποτίθεται ότι παραβίασε τα δικαιώματα πνευματικής ιδιοκτησίας που αναδείχθηκαν με την προτεινόμενη οδηγία για το δικαίωμα πνευματικής ιδιοκτησίας της ΕΕ. Σε ορισμένες περιπτώσεις, η χρήση αυτοματοποιημένων τεχνολογιών για τη διάδοση του περιεχομένου μπορεί επίσης να έχει σημαντικό αντίκτυπο στο δικαίωμα της ελευθερίας έκφρασης και προστασίας της ιδιωτικής ζωής, όταν χρησιμοποιούνται bots, στρατοί troll, στοχευμένα spam ή διαφημίσεις, εκτός από τους αλγορίθμους που καθορίζουν την εμφάνιση περιεχομένου.

Η ένταση μεταξύ της τεχνολογίας και των ανθρωπίνων δικαιωμάτων εκδηλώνεται επίσης στον τομέα της αναγνώρισης του προσώπου. Αν και αυτό μπορεί να είναι ένα ισχυρό εργαλείο για την εύρεση υπόπτων τρομοκρατών, μπορεί επίσης να μετατραπεί σε όπλο για τον έλεγχο των ανθρώπων. Σήμερα είναι πολύ εύκολο για τις κυβερνήσεις να παρακολουθούν μόνιμα και να περιορίζουν τα δικαιώματα στην ιδιωτική ζωή, στην ελευθερία του συνέρχεσθαι, στην ελευθερία κυκλοφορίας και στην ελευθερία του Τύπου.

Τι μπορούν να κάνουν οι κυβερνήσεις και ο ιδιωτικός τομέας;
Η ΤΝ έχει τη δυνατότητα να βοηθήσει τα ανθρώπινα όντα να μεγιστοποιήσουν τον χρόνο, την ελευθερία και την ευτυχία τους. Ταυτόχρονα, μπορεί να μας οδηγήσει σε μια δυστοπική κοινωνία. Η εξεύρεση της σωστής ισορροπίας μεταξύ της τεχνολογικής ανάπτυξης και της προστασίας των ανθρωπίνων δικαιωμάτων είναι συνεπώς ένα επείγον ζήτημα - το οποίο εξαρτάται από το μέλλον της κοινωνίας που θέλουμε να ζήσουμε.

Για να το καταφέρουμε σωστά, χρειαζόμαστε ισχυρότερη συνεργασία μεταξύ κρατικών φορέων - κυβερνήσεων, κοινοβουλίων, δικαστικών αρχών, υπηρεσιών επιβολής του νόμου - ιδιωτικών εταιρειών, ακαδημαϊκών κύκλων, ΜΚΟ, διεθνών οργανισμών αλλά και του ευρύτερου κοινού. Ο στόχος είναι αποθαρρυντικός, αλλά όχι αδύνατος.

Ορισμένα πρότυπα υπάρχουν ήδη και πρέπει να χρησιμεύσουν ως σημείο εκκίνησης. Για παράδειγμα, η νομολογία του Ευρωπαϊκού Δικαστηρίου Ανθρωπίνων Δικαιωμάτων θέτει σαφή όρια για τον σεβασμό της ιδιωτικής ζωής, της ελευθερίας και της ασφάλειας. Υπογραμμίζει επίσης την υποχρέωση των κρατών να παρέχουν αποτελεσματική θεραπεία για την πρόκληση εισβολών στην ιδιωτική ζωή και για την προστασία των ατόμων από την παράνομη επιτήρηση. Επιπλέον, η εκσυγχρονισμένη σύμβαση του Συμβουλίου της Ευρώπης για την προστασία των προσώπων έναντι της αυτόματης επεξεργασίας δεδομένων προσωπικού χαρακτήρα, που εγκρίθηκε φέτος, αντιμετωπίζει τις προκλήσεις για την προστασία της ιδιωτικής ζωής που απορρέουν από τη χρήση νέων τεχνολογιών πληροφοριών και επικοινωνιών.

Τα κράτη θα πρέπει επίσης να διασφαλίζουν ότι ο ιδιωτικός τομέας, ο οποίος φέρει την ευθύνη για τον σχεδιασμό, τον προγραμματισμό και την εφαρμογή της ΤΝ, υποστηρίζει τα πρότυπα των ανθρωπίνων δικαιωμάτων. Οι συστάσεις του Συμβουλίου της Ευρώπης σχετικά με τα ανθρώπινα δικαιώματα και τις επιχειρήσεις και τους ρόλους και τις ευθύνες των διαμεσολαβητών Διαδικτύου, τις κατευθυντήριες αρχές του ΟΗΕ για τις επιχειρήσεις και τα ανθρώπινα δικαιώματα και την έκθεση σχετικά με τη ρύθμιση περιεχομένου από τον Ειδικό Εισηγητή του ΟΗΕ για την προώθηση και την προστασία του δικαιώματος ελευθερίας της γνώμης και της έκφρασης, πρέπει να τροφοδοτήσουν όλες τις προσπάθειες για την ανάπτυξη τεχνολογίας, η οποία μπορεί να βελτιώσει τη ζωή μας Πρέπει να υπάρξει περισσότερη διαφάνεια στις διαδικασίες λήψης αποφάσεων με τη χρήση αλγορίθμων, προκειμένου να γίνει κατανοητός ο συλλογισμός τους, να εξασφαλιστεί η λογοδοσία και να μπορέσουμε να αμφισβητήσουμε αυτές τις αποφάσεις με αποτελεσματικούς τρόπους.

Ένα τρίτο πεδίο δράσης θα πρέπει να είναι η αύξηση της γνώσης του πληθυσμού περί της τεχνητής νοημοσύνης. Τα κράτη πρέπει να επενδύσουν περισσότερο σε πρωτοβουλίες ευαισθητοποίησης του κοινού και εκπαίδευσης, προκειμένου να αναπτύξουν τις ικανότητες των πολιτών, και ιδίως των νέων γενεών, να συμμετάσχουν θετικά στις τεχνολογίες τεχνητής νοημοσύνης και να κατανοήσουν καλύτερα τις επιπτώσεις της στη ζωή μας. Τέλος, οι εθνικές δομές ανθρωπίνων δικαιωμάτων θα πρέπει να είναι εξοπλισμένες ώστε να αντιμετωπίζουν νέους τύπους διακρίσεων που απορρέουν από τη χρήση της ΤΝ.

Είναι ενθαρρυντικό να βλέπουμε ότι ο ιδιωτικός τομέας είναι έτοιμος να συνεργαστεί με το Συμβούλιο της Ευρώπης για τα θέματα αυτά. Ως Επίτροπος για τα Ανθρώπινα Δικαιώματα, σκοπεύω να επικεντρωθώ στην ΤΝ κατά τη διάρκεια της θητείας μου, να θέσω τα βασικά ζητήματα και να βοηθήσω τα κράτη μέλη να τα αντιμετωπίσουν με σεβασμό των ανθρωπίνων δικαιωμάτων. Πρόσφατα, κατά την επίσκεψή μου στην Εσθονία, διεξήγαγα με τον πρωθυπουργό μια πολλά υποσχόμενη συζήτηση σχετικά με θέματα τεχνητής νοημοσύνης και ανθρώπινα δικαιώματα.

Η τεχνητή νοημοσύνη μπορεί να ενισχύσει σημαντικά τις ικανότητές μας να ζήσουμε τη ζωή που επιθυμούμε. Αλλά μπορεί επίσης να τα καταστρέψει. Επομένως, απαιτούνται αυστηροί κανονισμοί για την αποφυγή δημιουργίας ενός σύγχρονου Frankenstein.

Η κ. Dunja Mijatović είναι Επίτροπος για τα Ανθρώπινα Δικαιώματα στο Συμβούλιο της Ευρώπης