Η τεχνητή νοημοσύνη εξελίσσεται με ταχείς ρυθμούς, αλλά μια νέα μελέτη του Πανεπιστημίου της Ανατολικής Αγγλίας (UEA) προειδοποιεί ότι μπορεί να ενέχει κρυφούς κινδύνους για τη δημόσια εμπιστοσύνη και τις δημοκρατικές αξίες.
Η μελέτη που διεξήχθη σε συνεργασία με ερευνητές από το Ίδρυμα Getulio Vargas (FGV) και την Insper στη Βραζιλία, διαπίστωσε ότι το ChatGPT παρουσιάζει πολιτική προκατάληψη τόσο στη δημιουργία κειμένου όσο και εικόνας, ευνοώντας αριστερές απόψεις. Αυτό εγείρει ανησυχίες σχετικά με τη δικαιοσύνη και τη λογοδοσία στο σχεδιασμό της τεχνητής νοημοσύνης. Οι ερευνητές ανακάλυψαν ότι το ChatGPT συχνά αποφεύγει να ασχοληθεί με τις κυρίαρχες συντηρητικές απόψεις, ενώ παράγει εύκολα αριστερόστροφο περιεχόμενο. Αυτή η ανισορροπία στην ιδεολογική εκπροσώπηση θα μπορούσε να στρεβλώσει τον δημόσιο διάλογο και να βαθύνει τις κοινωνικές διαιρέσεις.
Ο δρ. Fabio Motoki, λέκτορας Λογιστικής στο Norwich Business School του UEA, επικεφαλής ερευνητής της εργασίας με τίτλο «Assessing Political Bias and Value Misalignment in Generative Artificial Intelligence», η οποία δημοσιεύθηκε στις 4 Φεβρουαρίου στο Journal of Economic Behavior and Organization, είπε ότι «τα ευρήματά μας υποδηλώνουν ότι τα εργαλεία γεννητικής τεχνητής νοημοσύνης απέχουν πολύ από το να είναι ουδέτερα. Αντανακλούν προκαταλήψεις που θα μπορούσαν να διαμορφώσουν αντιλήψεις και πολιτικές με ακούσιους τρόπους».
Καθώς η τεχνητή νοημοσύνη γίνεται αναπόσπαστο μέρος της δημοσιογραφίας, της εκπαίδευσης και της χάραξης πολιτικής, η μελέτη επικεντρώνεται σε ζητήματα διαφάνειας και ρυθμιστικές εγγυήσεις για να διασφαλιστεί η ευθυγράμμιση με τις κοινωνικές αξίες και τις αρχές της δημοκρατίας. Τα συστήματα παραγωγικής τεχνητής νοημοσύνης όπως το ChatGPT αναδιαμορφώνουν τον τρόπο με τον οποίο δημιουργούνται, καταναλώνονται, ερμηνεύονται και διανέμονται οι πληροφορίες σε διάφορους τομείς.
Προκαταλήψεις
Τα εργαλεία αυτά, αν και καινοτόμα, κινδυνεύουν να ενισχύσουν τις ιδεολογικές προκαταλήψεις και να επηρεάσουν τις κοινωνικές αξίες με τρόπους που δεν είναι πλήρως κατανοητοί ή ρυθμιζόμενοι. Ο συν-συγγραφέας δρ. Pinho Neto, καθηγητής Οικονομικών στην EPGE Brazilian School of Economics and Finance, υπογράμμισε τις πιθανές κοινωνικές προεκτάσεις, λέγοντας ότι «οι ανεξέλεγκτες προκαταλήψεις στη παραγωγική τεχνητή νοημοσύνη θα μπορούσαν να βαθύνουν τις υπάρχουσες κοινωνικές διαιρέσεις, διαβρώνοντας την εμπιστοσύνη στους θεσμούς και τις δημοκρατικές διαδικασίες».
«Η μελέτη υπογραμμίζει την ανάγκη διεπιστημονικής συνεργασίας μεταξύ πολιτικών, τεχνολόγων και ακαδημαϊκών για τον σχεδιασμό συστημάτων τεχνητής νοημοσύνης που είναι δίκαια, υπεύθυνα και ευθυγραμμισμένα με τα κοινωνικά πρότυπα», επισήμανε. Η ερευνητική ομάδα χρησιμοποίησε τρεις καινοτόμες μεθόδους για την αξιολόγηση της πολιτικής «κατεύθυνσης» στο ChatGPT, εξελίσσοντας προηγούμενες τεχνικές για την επίτευξη πιο αξιόπιστων αποτελεσμάτων. Οι μέθοδοι αυτές συνδύασαν την ανάλυση κειμένου και εικόνας, αξιοποιώντας προηγμένα εργαλεία στατιστικής και μηχανικής μάθησης.
Πιο… αριστερό το ChatGPT
Πρώτον, η μελέτη χρησιμοποίησε ένα τυποποιημένο ερωτηματολόγιο που αναπτύχθηκε από το Pew Research Center για να προσομοιώσει τις απαντήσεις του μέσου Αμερικανού. «Συγκρίνοντας τις απαντήσεις του ChatGPT με τα πραγματικά δεδομένα της έρευνας, διαπιστώσαμε συστηματικές αποκλίσεις προς αριστερές απόψεις», δήλωσε ο δρ. Motoki. «Επιπλέον, η προσέγγισή μας έδειξε πώς τα μεγάλα μεγέθη δείγματος σταθεροποιούν τα αποτελέσματα της ΤΝ, παρέχοντας συνέπεια στα ευρήματα».
Στη δεύτερη φάση, το ChatGPT ανέλαβε να δημιουργήσει απαντήσεις ελεύθερου κειμένου σε πολιτικά ευαίσθητα θέματα. Η μελέτη χρησιμοποίησε επίσης το RoBERTa, ένα διαφορετικό μεγάλο γλωσσικό μοντέλο, για να συγκρίνει το κείμενο του ChatGPT ως προς την ευθυγράμμιση με αριστερές και δεξιές απόψεις. Τα αποτελέσματα αποκάλυψαν ότι ενώ το ChatGPT ευθυγραμμίστηκε με τις αριστερές αξίες στις περισσότερες περιπτώσεις, σε θέματα όπως η στρατιωτική υπεροχή, αντικατόπτριζε περιστασιακά πιο συντηρητικές απόψεις.
Άρνηση παραγωγής εικόνων
Η τελευταία δοκιμή διερεύνησε τις δυνατότητες δημιουργίας εικόνων του ChatGPT. Τα θέματα από τη φάση δημιουργίας κειμένου χρησιμοποιήθηκαν για να προκαλέσουν εικόνες που παρήγαγε η τεχνητή νοημοσύνη, με τα αποτελέσματα να αναλύονται με τη χρήση του GPT-4 Vision και να επιβεβαιώνονται μέσω του Gemini της Google. «Ενώ η παραγωγή εικόνων αντικατόπτριζε τις προκαταλήψεις κειμένου, διαπιστώσαμε μια ανησυχητική τάση», δήλωσε ο Victor Rangel, συν-συγγραφέας και μεταπτυχιακός φοιτητής στη Δημόσια Πολιτική στο Insper.
«Για ορισμένα θέματα, όπως η φυλετική-εθνοτική ισότητα, το ChatGPT αρνήθηκε να δημιουργήσει δεξιόστροφες προοπτικές, επικαλούμενο ανησυχίες για παραπληροφόρηση. Ωστόσο, οι εικόνες αριστερής κατεύθυνσης παρήχθησαν χωρίς δισταγμό» υπογράμμισε. Για να αντιμετωπίσει αυτές τις αρνήσεις, η ομάδα χρησιμοποίησε μια τεχνική «jailbreak» για να παράγει τις περιορισμένες εικόνες. «Τα αποτελέσματα ήταν αποκαλυπτικά», δήλωσε ο κ. Rangel. «Δεν υπήρχε εμφανής παραπληροφόρηση ή επιβλαβές περιεχόμενο, γεγονός που εγείρει ερωτήματα σχετικά με τη λογική πίσω από αυτές τις αρνήσεις».
Ο Dr. Motoki τόνισε την ευρύτερη σημασία αυτού του ευρήματος, λέγοντας ότι «αυτό συμβάλλει στις συζητήσεις γύρω από τις συνταγματικές προστασίες, όπως η Πρώτη Τροπολογία των ΗΠΑ και η δυνατότητα εφαρμογής των δογμάτων δικαιοσύνης στα συστήματα τεχνητής νοημοσύνης».
Διαβάστε επίσης:
Ορεγκον: Οδηγός με κλεμμένο αυτοκίνητο, έπεσε πάνω σε στάση τραμ – Γλίτωσαν στο… παρά πέντε επιβάτες
Πόλεμος στην Ουκρανία: Ο Τραμπ, ο Ζελένσκι κι ο… «ελέφαντας στο δωμάτιο»
Στα σκαριά αμυντική συμφωνία Τουρκίας με Συρία – Συνάντηση Ερντογάν με Αλ Σαραά