Η καθηγήτρια του Oxford Internet Institute,  Gina Neff έχει εγείρει το ζήτημα των προκλήσεων όσον αφορά το που και το πώς εισέρχονται και εφαρμόζονται τα δεδομένα που χρησιμοποιούν τα συστήματα τεχνητής νοημοσύνης. Ως κλασικό παράδειγμα αυτής της προκείμενης είναι ένα bot που χρησιμοποιήθηκε στο Twitter για να έρθει σε επικοινωνία με τους χρήστες, το λεγόμενο «Tay». Το bot αυτό εμφανίστηκε ως μια νεαρή γυναίκα, η οποία ανάλογα με τα δεδομένα που λάμβανε από την αλληλεπίδραση της με τους χρήστες του Twitter, έδινε απαντήσεις. Το πρόγραμμα τερματίστηκε 16 ώρες μετά την κυκλοφορία του, καθώς άρχισε να εμφανίζει ρατσιστική συμπεριφορά και σχόλια που διαπνέονται από μισογυνισμό. Σύμφωνα με την Microsoft, ένας αριθμός χρηστών εκμεταλλεύτηκε τον τρόπο κατασκευής του bot αυτού για να εκφράσει εξτρεμιστικές απόψεις. Το Twitter, όπως υποστηρίζει η καθηγήτρια, δεν είναι ασφαλής χώρος για μια γυναίκα που λέει τη γνώμη της και υποστηρίζει επίσης ότι στο τραπέζι των διαπραγματεύσεων και της κατασκευής τεχνολογιών Τεχνητής Νοημοσύνης, θα πρέπει να λαμβάνεται υπόψη περισσότερο των γυναικών.

Συνεπώς γιατί ανθρωποποιούμε την τεχνολογία; Οι βοηθοί ΤΝ (Τεχνητής Νοημοσύνης) στο σπίτι έχουν γυναικεία φωνή, ενώ σε επίπεδο διοίκησης έχουν αντρικές φωνές, κάτι που φαίνεται να αναπαράγει στερεοτυπική συμπεριφορά από τους δημιουργούς.

Η Τεχνητή Νοημοσύνη βασίζεται στην ποσότητα και την ποιότητα των δεδομένων που δίνονται προς επεξεργασία. Ο τρόπος που γίνεται η επεξεργασία εξαρτάται από το πώς έχει προγραμματίσει ο ανθρώπινος παράγοντας το σύστημα. Η ερμηνεία των δεδομένων ωστόσο, αποτελεί ένα «μαύρο κουτί» το οποίο προσπαθούν οι επιστήμονες να καταλάβουν.

Στο πλαίσιο αυτό εγείρονται διάφορα ζητήματα αυτοπροσδιορισμού, διαφάνειας και ισότητας για την είσοδο της Τεχνητής Νοημοσύνης στη ζωή μας, τα οποία τοποθετούνται σε δεύτερη μοίρα μετά την αποτελεσματικότητα και την ταχύτητα των προγραμμάτων ΤΝ.

Η Gina Neff προτείνει τρόπους που θα συμβάλουν στην ασφαλή χρήση της ΤΝ:

  • Αντιπροσώπευση και ετερογένεια στην τεχνολογία
  • Ποικιλία στα δοθέντα δεδομένα προς επεξεργασία στους αλγόριθμους της ΤΝ
  • Εξασφάλιση ότι τα συστήματα να διατηρούν την κρίση των τελικών χρηστών
  • Αποδοχή σχολίων από τελικούς χρήστες
  • Προβλέψεις κακοδιαχείρισης
  • Διαφάνεια και λογοδοσία

Επιμέλεια: Φαίη Λαχανά

Διαβάστε περισσότερα: https://www.research.ox.ac.uk/Article/2018-10-15-alexa-does-ai-have-gender?fbclid=IwAR1vckzM_fVsKf6XM9Za4kq1XB_cF6eQbKEquPceg7byEX0dFwbL5CxymJY