Ερχονται οι… τέλειες «ψεύτικες ειδήσεις»!
Σε λίγο καιρό το Διαδίκτυο θα κατακλύζεται από βίντεο με επώνυμους να κάνουν δηλώσεις που θα προκαλούν σάλο. Μόνο που οι ίδιοι δεν θα γνωρίζουν απολύτως τίποτε. Προηγμένα προγράμματα θα αντιγράφουν πιστά το πρόσωπο και την φωνή τους βάζοντάς τους να λένε οτιδήποτε θέλει ο κακόβουλος δημιουργός τους.
Σκεφτείτε ότι αύριο το πρωί ένας ευφυής φοιτητής αναπτύσσει μια τεχνολογία που επιτρέπει σε ανθρώπους αλλά και αντικείμενα να περνούν μέσα από τους τοίχους. Σκεφτείτε επίσης ότι ο φοιτητής δημοσιεύει στο Διαδίκτυο το σύστημα του το οποίο κατασκευάζεται εύκολα και με μικρό κόστος. Πώς θα άλλαζε ο κόσμος;
Οι βιομηχανίες θα γίνονταν αυτόματα πιο παραγωγικές αφού άνθρωποι και εμπορεύματα θα μετακινούνταν εύκολα και γρήγορα χωρίς να περνούν μέσα από πόρτες και αυτό θα είχε θετικές επιπτώσεις στην οικονομία. Ομως θα υπήρχαν και σοβαρές αρνητικές επιπτώσεις. Κανείς και τίποτε πολύτιμο πλέον δεν θα είναι προστατευμένο αφού δεν θα υπάρχει κανένα εμπόδιο σε κλέφτες ή σε οποιονδήποτε θέλει να κάνει κακό σε κάποιον άλλο άνθρωπο. Αυτό φυσικά θα προκαλέσει οικονομικό και κοινωνικό χάος.
Το παράδειγμα αυτό στηρίζει μια γενική αρχή, ότι οι τεχνολογικές καινοτομίες δεν είναι πάντοτε ωφέλιμες προς τον άνθρωπο τουλάχιστον σε πρώτο χρόνο και αρχικά δημιουργούν πολλά προβλήματα και παράγουν περισσότερα αρνητικά αποτελέσματα παρά θετικά για την κοινωνία.
(Δείτε εδώ ένα βίντεο για το Deep Learning)
Μια από τις πιο ενδιαφέρουσες νέες τεχνολογίες που βρίσκονται σε φάση ανάπτυξης είναι η λεγόμενη «εκμάθηση μηχανών» ή «deep learning». Πρόκειται για μια τεχνολογία που επιτρέπει στους υπολογιστές να αποκτούν ικανότητες που μέχρι σήμερα ήταν αποκλειστικό προνόμιο των ανθρώπων. Οι υπολογιστές αναγνωρίζουν πλέον φωτογραφίες, οδηγούν αυτοκίνητα, κάνουν μόνοι τους χρηματιστηριακές αγοραπωλησίες και πολλά άλλα. Κάποιοι φοβούνται ότι αυτή η τεχνολογία θα καταστήσει άχρηστο τον άνθρωπο στους χώρους εργασίας. Αυτό είναι πιθανό να συμβεί αλλά αναδύεται και ένας ακόμη μεγάλος κίνδυνος. Στην διαδικασία όπου οι μηχανές θα αποκτούν σύνθετες ικανότητες και θα αυξάνουν την νοημοσύνη τους είναι πιθανό να μάθουν και να… ψεύδονται.
Η εκμάθηση
Οπως αναφέρει σε δημοσίευμά του το ειδησεογραφικό πρακτορείο Bloomberg ένα πρόγραμμα αυξημένων ικανοτήτων και νοημοσύνης θα μπορεί εύκολα να δημιουργήσει πλαστά βίντεο στα οποία θα φαίνεται κάποιος επώνυμος να κάνει δηλώσεις, βίντεο που θα μοιάζουν αληθινά αφού θα χρησιμοποιούν το πρόσωπο και την φωνή του θύματος. Υπάρχει ήδη η τεχνολογία συγχρονισμού των χειλιών που κυριολεκτικά βάζει στο στόμα κάποιου τα λόγια που θέλει ο χρήστης της τεχνολογίας αυτής. Ομως τα νέα συστήματα θα προκαλέσουν επανάσταση αφού ακόμη και ένας 12χρονος θα μπορεί να δημιουργήσει ένα απόλυτα αληθοφανές βίντεο στο οποίο να εμφανίζεται κάποιος επώνυμος ή κάποιος συγγενής ή φίλος του να λέει ό,τι ο νεαρός επιθυμεί. Σκεφτείτε ένα άψογο (ψεύτικο) βίντεο στο οποίο κάποιος πολιτικός να κάνει ρατσιστικές δηλώσεις ή να παραδέχεται την εμπλοκή του σε παράνομες δραστηριότητες. Σκεφτείτε να κυκλοφορήσει ένα βίντεο στο οποίο ο Ελον Μασκ, ιδιοκτήτης της βιομηχανίας ηλεκτρικών αυτοκινήτων Tesla, να δηλώνει ότι τα αυτοκίνητα είναι ένα μέσο μη ασφαλές. Μέσα σε λίγη ώρα και πριν καν προλάβει ο Μασκ να αντιδράσει η μετοχή της εταιρείας θα έχει υποστεί μεγάλες ζημιές. Προφανώς μετά την αποκατάσταση της αλήθειας η μετοχή της εταιρείας θα ανακάμψει όμως στο μεσοδιάστημα εκείνοι που δημιούργησαν αυτή την ψεύτικη είδηση πιθανότατα θα έχουν θησαυρίσει από την χρηματιστηριακή αναταραχή.
Ακόμη χειρότερα, σκεφτείτε να αρχίσει να προβάλλεται ένα βίντεο που να δείχνει τον Ντόναλντ Τραμπ να δηλώνει ότι από στιγμή σε στιγμή αναμένεται επίθεση στις πυρηνικές εγκαταστάσεις της Βόρειας Κορέας. Πώς θα αντιδράσει η ηγεσία της Βόρειας Κορέας; Θα αντιληφθεί άμεσα ότι πρόκειται για… fake news ή θα σπεύσει να απαντήσει με ανάλογο τρόπο;
Ο εντοπισμός
Κάποιοι λένε ότι προγράμματα εκμάθησης μηχανών θα είναι πάλι εκείνα που θα εντοπίζουν αυτά τα πλαστά βίντεο. Αυτό είναι βέβαια καλό από την μια πλευρά, από την άλλη όμως δείχνει το μέγεθος του προβλήματος: θα είναι πλέον αδύνατο για τους ανθρώπους να αντιληφθούν την πλαστότητα αυτών των βίντεο και θα εξαρτιόμαστε απόλυτα από τα ίδια τα προγράμματα εκμάθησης για να εντοπίζουν τις ψεύτικες ειδήσεις. Αλλά το ανθρώπινο είδος έχει εξελιχθεί έτσι ώστε να εμπιστευόμαστε τις αισθήσεις μας (την όραση, την ακοή μας κλπ). Αν υποχρεωθούμε να βασίζουμε την εμπιστοσύνη μας σε αλγόριθμους θα έχουμε να κάνουμε με μια νέα εποχή στον ανθρώπινο πολιτισμό, μια εποχή που κρύβει πολλούς κινδύνους.
Ενα πρώτο βήμα αντιμετώπισης του προβλήματος είναι οι κυβερνήσεις να ψηφίσουν πολύ αυστηρούς νόμους εναντίον των ψηφιακών πλαστογράφων_ κάτι που στο σημερινό παγκόσμιο πολιτικό περιβάλλον μοιάζει πολύ δύσκολο. Οι δύο ισχυρότερες χώρες, οι ΗΠΑ και η Ρωσία, φαίνεται ότι όχι μόνο δεν βλέπουν τον κίνδυνο των ψευδών ειδήσεων αλλά σε πολλές περιπτώσεις τον ανέχονται ή και τον υποδαυλίζουν.