Στη δίνη της τεχνητής νοημοσύνης κινείται πλέον ολόκληρος ο πλανήτης με τις επιπτώσεις να είναι ήδη πολύ ορατές στην καθημερινότητά μας.
Του Σταύρου Ζαγκανά
Τι φέρνουν στην ζωή μας τα συστήματα που μιμούνται τη μεθοδολογία της ανθρώπινης σκέψης και ποιές παγίδες «κρύβει» για τη ζωή μας και την ιδιωτικότητά μας!
Είναι αδιαμφισβήτητο ότι η ραγδαία ανάπτυξη της τεχνολογίας στο συγκεκριμένο κομμάτι έχει συμβάλει σημαντικά στην εξέλιξη διάφορων επιστημονικών πεδίων, αλλά και στη βελτίωση του βιοτικού επιπέδου μας συνολικά. Ωστόσο, όπως είναι φυσικό, μια νέα τεχνολογία, τέτοιου επιπέδου συνοδεύεται και από σοβαρούς προβληματισμούς που προκύπτουν κατά την εφαρμογή της. Μάλιστα, είναι νωπές οι μνήμες από το πρόσφατο περίεργο σκηνικό με την «εξυπνάδα» γερμανικού περιοδικού που διαφήμισε ως αληθινή μία συνέντευξη με τον Μίκαελ Σουμάχερ, την οποία είχε συντάξει με τη βοήθεια της τεχνητής νοημοσύνης.
Η δήθεν συνέντευξη
Τι ακριβώς έγινε με την περιβόητη αποκλειστική «συνέντευξη» του Γερμανού πρώην κορυφαίου οδηγού της Formula 1; Το γερμανικό περιοδικό κυκλοφόρησε με παχυλό και παραπλανητικό τίτλο στο εξώφυλλό του στο οποίο διαφήμιζε ότι είχε εξασφαλίσει την πρώτη συνέντευξη του Μίκαελ Σουμάχερ μετά από μία δεκαετία, κατά την οποία ο Γερμανός επτάκις παγκόσμιος πρωταθλητής της Formula 1 βρίσκεται μακριά από τη δημοσιότητα λόγω του ατυχήματός του στις γαλλικές Άλπεις τον Δεκέμβριο του 2013. Στη συνέχεια, το συγκεκριμένο Μέσο Ενημέρωσης έκανε γνωστό ότι η συνέντευξη αυτή είχε προκύψει με ερωταπαντήσεις μέσω του chatbot του Open AI, δηλαδή μέσω τεχνητής νοημοσύνης. Το περιοδικό «Die Aktuelle» έκανε λόγο για «απατηλά αληθινές» απαντήσεις εν μέσω της παγκόσμιας κατακραυγής που ακολούθησε μετά το δημοσίευμα. Οι συγγενείς του Γερμανού πρωταθλητή της Formula 1, μάλιστα, ανακοίνωσαν ότι θα κινηθούν νομικά, καθώς, αν και η συνομιλία ήταν προϊόν τεχνητής νοημοσύνης, προβλήθηκε ως αληθινή.
Τι είναι
Τεχνητή νοημοσύνη (artificial intelligence ή AI) είναι ο κλάδος της πληροφορικής και μηχανικής υπολογιστών ο οποίος ασχολείται με τη δημιουργία μηχανικών συστημάτων που μιμούνται τη μεθοδολογία σκέψης της ανθρώπινης νοημοσύνης. Τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται για την αυτοματοποιημένη διεκπεραίωση εργασιών και την πραγματοποίηση προβλέψεων ή διαγνώσεων σε τομείς όπως η εκπαίδευση, η υγεία, το μάρκετινγκ κ.ά. Για να μπορέσει να μιμηθεί αποτελεσματικά την περίπλοκη μεθοδολογία της ανθρώπινης νοημοσύνης, η τεχνητή νοημοσύνη έχει διαχωριστεί σε υποκλάδους οι οποίοι και είναι οι εξής: Big data, Machine learning, Neural networks, Deep learning, Natural Language Processing (NLP), Computer vision. Με την εξέλιξη των παραπάνω υποκλάδων η τεχνητή νοημοσύνη έχει πλέον ξεπεράσει κατά πολύ τις ικανότητες της ανθρώπινης νοημοσύνης, κάτι που αποδεικνύεται και από τις σύγχρονες εφαρμογές του AI.
Παραδείγματα
Μερικά παραδείγματα από τις εφαρμογές αυτές είναι τα εξής:
Εξατομικευμένες διαφημίσεις (personalised ads): Στο πεδίο του marketing, η τεχνητή νοημοσύνη και το machine learning χρησιμοποιούνται για τη συμπεριφορική ανάλυση των χρηστών και τον εντοπισμό μοτίβων κατά την περιήγησή τους στο διαδίκτυο. Βάσει των πορισμάτων της διαδικασίας αυτής, τα συστήματα AI προωθούν στους χρήστες εξατομικευμένες διαφημίσεις, δηλαδή διαφημίσεις που θα προσαρμόζονται ακριβώς στις συνήθειες και προτιμήσεις του χρήστη που έχουν εντοπιστεί.
Φίλτρα spam email: Και πάλι με τον εντοπισμό συμπεριφορών και μοτίβων ενεργειών στο Διαδίκτυο, τα συστήματα AI μπορούν να εντοπίσουν τους αποστολείς spam email και να τοποθετήσουν τα emails που προέρχονται από αυτούς στον αντίστοιχο φάκελο email. Συγχρόνως, μπορούν να ταυτοποιήσουν πότε τα emails προέρχονται από έμπιστους χρήστες ή από φορείς στους οποίους έχουμε συναινέσει για επικοινωνία και να τα τοποθετήσουν στον βασικό φάκελο εισερχομένων.
Αυτο-οδηγούμενα οχήματα (self-driving cars): Όπως έχουμε δει και σε προηγούμενο άρθρο σχετικά με παραδείγματα χρήσεων τεχνητής νοημοσύνης, το AI αποτελεί τη βασική τεχνολογία για τη δημιουργία self-driving cars. Εταιρείες όπως η Tesla, η Toyota κ.ά. έχουν εισαγάγει στην αγορά οχήματα που χρησιμοποιούν την τεχνητή νοημοσύνη, ώστε να μπορούν να αναλύουν τα ερεθίσματα του περιβάλλοντος και να αυτοκατευθύνονται με ελάχιστη ανθρώπινη παρέμβαση. Εδώ η τεχνητή νοημοσύνη συνδυάζεται με έναν ειδικό υποκλάδο της ηλεκτρολογικής μηχανολογίας που ονομάζεται signal processing.
Ιατρική διάγνωση: Εξίσου διαδεδομένη είναι και η εφαρμογή της τεχνητής νοημοσύνης στον τομέα της υγείας. Τα συστήματα τεχνητής νοημοσύνης συγκεντρώνουν στοιχεία φυσικής κατάστασης και ιστορικού υγείας, προκειμένου να μπορούν να πραγματοποιήσουν ιατρικές διαγνώσεις. Έτσι, μηχανήματα AI συχνά χρησιμοποιούνται για την ταυτοποίηση πιθανών ασθενειών, αυτοάνοσων ή καρκινικών κυττάρων.
Voice assistants: Μία ακόμη καινοτόμο χρήση της τεχνητής νοημοσύνης αποτελούν τα λεγόμενα voice assistants, όπως είναι το Siri, το Alexa ή το Cortana. Τα voice assistants είναι το πιο ενδεικτικό από τα παραδείγματα χρήσεων NLP, όπου το AI χρησιμοποιείται για την ανάλυση του ανθρώπινου λόγου και τον εντοπισμό των τυχόν κρυμμένων εννοιών που υπάρχουν σε αυτόν. Με αυτόν τον τρόπο, τα συστήματα αυτά μπορούν να συνομιλήσουν με τους χρήστες και να αντιληφθούν τις φωνητικές εντολές που δίνονται από αυτούς.
Αρνητικές επιπτώσεις
Όπως, όμως, και κάθε άλλη τεχνολογική καινοτομία, έτσι και η τεχνητή νοημοσύνης φέρει τα θετικά και τα αρνητικά χαρακτηριστικά της, τα οποία αξίζει να γνωρίζει κανείς για την πλήρη κατανόηση του πεδίου του AI. Όσον αφορά, λοιπόν, το κομμάτι των αρνητικών, αξίζει να επισημάνουμε ορισμένους κινδύνους της τεχνητής νοημοσύνης που ήδη προβληματίζουν την επιστημονική κοινότητα. Ποιοι είναι αυτοί;
Απουσία διαφάνειας στη λήψη αποφάσεων: Για τη λήψη αποφάσεων, τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούν νευρωνικά δίκτυα τα οποία αποτελούνται από πολυπληθείς κόμβους. Ωστόσο, η ανάλυση της συνέχειας και των αλληλοσυνδέσεων των κόμβων που έχουν οδηγήσει στην απόφαση αποδεικνύεται ιδιαίτερα δυσχερής ακόμη και για τον ίδιο τον δημιουργό του συστήματος. Ως αποτέλεσμα, είναι δύσκολο να διαπιστωθούν η πορεία και τα κίνητρα ορισμένων αποφάσεων, όταν αυτές αποδεικνύονται λανθασμένες. Κάτι τέτοιο απασχολεί ιδιαίτερα τομείς όπως η υγεία ή η άμυνα, στους οποίους η διαφάνεια στη λήψη αποφάσεων είναι απαραίτητη.
Αδυναμία καταλογισμού ευθύνης: Τα συστήματα τεχνητής νοημοσύνης ενδέχεται να λάβουν αποφάσεις με τις οποίες προσβάλλουν τα δικαιώματα των ατόμων ή προβαίνουν σε παραπτώματα. Στις περιπτώσεις αυτές πάντα τίθεται το ερώτημα σε ποιον θα καταλογιστεί η ευθύνη του παραπτώματος, δηλαδή στον δημιουργό ή στο μηχανικό σύστημα; Αφενός, ο δημιουργός δεν μπορεί να αναλάβει την ευθύνη, εφόσον κατέβαλε τη δέουσα επιμέλεια κατά την κατασκευή του και το σφάλμα οφείλεται σε εντελώς απρόβλεπτο παράγοντα του αλγορίθμου. Αφετέρου, είναι παράδοξο η ευθύνη να καταλογιστεί στο μηχανικό σύστημα, καθώς αυτό απλώς λαμβάνει τις εντολές του προγραμματισμού και απλώς εκτελεί ενέργειες βάσει αυτού.
Εφαρμογή προκαταλήψεων και διακρίσεων: Επίσης, δεν πρέπει να αμελούμε την εξάρτηση της τεχνητής νοημοσύνης από τον ανθρώπινο παράγοντα. Εάν ένα σύστημα AI τροφοδοτηθεί με δεδομένα προκατειλημμένου περιεχομένου ή τα δεδομένα που συλλέγει έχουν ως επί το πλείστον τέτοιο περιεχόμενο, είναι εύλογο οι αποφάσεις που θα λάβει να φέρουν τις ίδιες προκαταλήψεις. Βέβαια, πολλοί επαγγελματίες και επιχειρήσεις πλέον έχουν εφαρμόσει εναλλακτικούς αλγορίθμους, ώστε να μειώνονται οι πιθανότητες εφαρμογής προκαταλήψεων και διακρίσεων από την τεχνητή νοημοσύνη.
Κοινωνική χειραγώγηση: Όπως αναφέραμε και παραπάνω, η τεχνητή νοημοσύνη εφαρμόζεται ευρέως στις εξατομικευμένες διαφημίσεις και προτάσεις περιεχομένου στους διαδικτυακούς τόπους και μέσα. Έτσι, οι χρήστες έρχονται σε επαφή με περιεχόμενο που ήδη συμβαδίζει με τις κοινωνικές και πολιτικές τους αντιλήψεις. Η πρακτική αυτή έχει κατηγορηθεί για την τροφοδότηση κοινωνικής έντασης και τη χειραγώγηση πολιτών σε αρκετά πρόσφατες περιόδους πολιτικών αναταραχών, όπως ήταν οι αμερικανικές εκλογές του 2016 και το Brexit του 2020.
Παραβίαση ιδιωτικότητας: Από το σύνολο των ψηφιακών δεδομένων που έχουν παραχθεί μέχρι σήμερα, το 90% αυτών έχουν παραχθεί μόνο τα τελευταία δύο έτη. Στον ψηφιακό χώρο βρίσκονται διαθέσιμα κάθε είδους δεδομένα ταυτοποίησης, επικοινωνίας, υγείας, πληρωμών, αγορών, προτιμήσεων κ.ά., τα οποία οι επιχειρήσεις μπορούν να εκμεταλλευτούν με τη χρήση τεχνητής νοημοσύνης. Αυτή η εκτίναξη του όγκου δεδομένων σε συνδυασμό με τη διευρυμένη χρήση της τεχνητής νοημοσύνης έχουν βρει απροετοίμαστη τη νομοθεσία παγκοσμίως, η οποία δεν έχει προλάβει να προβλέψει μέτρα προστασίας για τις διαφορετικές μορφές δεδομένων. Κάτι τέτοιο δημιουργεί αρκετά κενά στο πλαίσιο προστασίας των δεδομένων και της ιδιωτικότητας που, ακόμη και με τον πρόσφατο Γενικό Κανονισμό Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (GDPR), δεν έχει καταφέρει να προφυλάξει τα διαφορετικά είδη δεδομένων, όπως είναι εκείνα που συλλέγονται για σκοπούς marketing.
Εξάπλωση hacking: Όπως και κάθε άλλη τεχνολογία, έτσι και η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για αθέμιτους σκοπούς, όπως είναι το κακόβουλο hacking. Με τη χρήση τεχνητής νοημοσύνης, οι hackers έχουν την ευχέρεια να πραγματοποιούν πολλαπλές ταυτόχρονες προσπάθειες κυβερνοεπιθέσεων μέσω ταχύτερης σάρωσης των συσκευών ενός δικτύου, δοκιμής εναλλακτικών κωδικών για το κρακάρισμα συστημάτων και εφαρμογή social engineering. Παράλληλα, η τεχνητή νοημοσύνη δημιουργεί επάλληλα και αυτοματοποιημένα πολλαπλές διευθύνσεις IP για τους hackers, ώστε να μην μπορούν να ιχνηλατηθούν στο Διαδίκτυο. Αυτό το τελευταίο φαινόμενο αποτελεί και τον τελευταίο από τους σύγχρονους κινδύνους της τεχνητής νοημοσύνης που θα αναφέρουμε και έτσι μπορούμε να προχωρήσουμε σε μία σύνοψη των όσων αναφέραμε συνολικά.
Οι κίνδυνοι αυτοί απασχολούν έντονα την επιστημονική κοινότητα και θέτουν σημαντικά ερωτήματα για το πώς πρόκειται να χρησιμοποιηθεί η τεχνητή νοημοσύνη στο μέλλον. Αυτό δεν σημαίνει, βέβαια, ότι η χρήση της τεχνητής νοημοσύνης προβλέπεται να περιοριστεί, αλλά ότι αναμένονται νέες πρακτικές και μέτρα προκειμένου να εξαλειφθούν οι κίνδυνοί της.
Γιατί παραιτήθηκε ο πρωτοπόρος της ΑΙ
Το μέγεθος του κινδύνου που προκύπτει από τη δαιμονιώδη εξέλιξη της AI αποκαλύπτει και η παραίτηση του δρος Τζέφρι Χίντον. Ο διακεκριμένος επιστήμονας Πληροφορικής και πρωτοπόρος στην τεχνητή νοημοσύνη άφησε τη θέση του στην Google προκειμένου να μιλήσει ανοιχτά για τους κινδύνους της ανεξέλεγκτης ανάπτυξης της τεχνητής νοημοσύνης. Ο Χίντον εξέφρασε την ανησυχία του για τους κινδύνους που εγκυμονούν η διάδοση της παραπληροφόρησης, η αναστάτωση στην αγορά εργασίας και η πιθανή εκμετάλλευση της τεχνητής νοημοσύνης από κακόβουλους παράγοντες, φοβούμενος ότι η ανάπτυξή της θα γίνει μόνο πιο επικίνδυνη στο μέλλον και θα μπορούσε από ένα σημείο και μετά να ξεφύγει από τον έλεγχο.
Η παραίτηση Χίντον έρχεται μετά τον ραγδαία αυξανόμενο αριθμό εμπειρογνωμόνων που έχουν προειδοποιήσει ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει σημαντική βλάβη χωρίς την κατάλληλη εποπτεία και ρύθμιση. Μάλιστα, ο Έλον Μασκ και περισσότερες από 1.000 άλλες εξέχουσες προσωπικότητες στον τομέα της τεχνητής νοημοσύνης ζήτησαν εξάμηνη παύση στην ανάπτυξή της, επικαλούμενοι τους πιθανούς «βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα».