Τουλάχιστον μια φορά την ημέρα περιηγούμαστε στο διαδίκτυο είτε χρησιμοποιώντας μηχανές αναζήτησης είτε παρακολουθώντας ροές πληροφοριών σε μέσα κοινωνικής δικτύωσης. Οι ενέργειες αυτές εκτελούνται σχεδόν μηχανικά. Ο αναζητών απολαμβάνει στην οθόνη του το αποτέλεσμα της εικόνας και της επιλογής που του προσφέρεται.
Του Δημήτρη Γκαβέλα
Η Τεχνητή Νοημοσύνη (ΤΝ – δηλαδή τα αυτοματοποιημένα συστήματα αποφάσεων που έχουν την δυνατότητα να επιτελούν σύνθετες ενέργειες χωρίς την διαρκή παρέμβαση του ανθρώπινου παράγοντα με την ακολουθία λογικών ενεργειών που συνιστούν αποτέλεσμα μηχανικής εκμάθησης ή βαθιάς μάθησης) αναπτύσσεται για να υπηρετεί τον άνθρωπο μέσω της βελτίωσης των υπηρεσιών της ιατρικής, του εντοπισμού της απάτης, της αναγνώρισης ομιλίας, των μηχανών αναζήτησης, του ηλεκτρονικού εμπορίου και άλλων εφαρμογών.
Ο όρος μηχανική μάθηση αφορά στο σύνολο των τεχνικών και των εργαλείων που επιτρέπουν στις μηχανές να «σκέπτονται» βασιζόμενες σε μαθηματικούς αλγορίθμους που εδράζονται σε δεδομένα. Η βαθιά μάθηση είναι μορφή μηχανικής μάθησης. Ορισμένοι τύποι βαθιάς μάθησης προσομοιάζουν με το νευρικό δίκτυο του εγκεφάλου (artificial neural networks) και βασίζονται σε δεδομένα εκπαίδευσης που επιτρέπουν στους αλγορίθμους αυτομάθησης να εκτελούν ορισμένη εργασία.
Η ξέφρενη κούρσα της εξέλιξης εγείρει εν ταυτώ μείζονα ζητήματα δεοντολογίας και ηθικής. Έχουν διαπιστωθεί επικίνδυνες επιθέσεις στον κυβερνοχώρο, παραβίαση συστημάτων ασφαλείας, χειραγώγηση της κοινής γνώμης στις πολιτικές εκλογές, επίταση κοινωνικών ανισοτήτων (δημιουργία συστημάτων ασφάλισης και επεξεργασίας πιστοληπτικής ικανότητας επί παραδείγματι), μείωση θέσεων εργασίας, επιβουλή της παγκόσμιας ειρήνης με την χρήση νέων αυτόνομων όπλων. Η χρήση αυτόνομων όπλων (drones) στον πόλεμο στην Αρμενία έθεσε όρους τελικής επικράτησης, έφερε στο προσκήνιο το ηθικό ζήτημα του ανταγωνιστικού πλεονεκτήματος και κατέδειξε ανισότητες μεταξύ κρατικών οντοτήτων.
Αυτές τις συνέπειες προοικονομούσαν με την ανοικτή επιστολή τους οι Max Tegmark (MIT) και Stuart Russell (Berkeley) του έτους 2015 προς τους ερευνητές ΤΝ και ρομποτικής με αίτημα την απαγόρευση κατασκευής αυτόνομων οπλικών συστημάτων και φονικών ρομπότ. Επισήμαναν τότε τον κίνδυνο να χρησιμοποιηθούν αυτά σε τρομοκρατικές ενέργειες, εθνοκαθάρσεις, αποσταθεροποίηση εθνών, υποδούλωση πληθυσμών, δολοφονίες προσωπικοτήτων. Δεν ελήφθη υπόψιν όσο σοβαρά έπρεπε η σχετική προειδοποίηση. Δικαιολογία, φυσικά, δεν μπορεί να αποτελέσει το ούτως καλούμενον «κενό ευθύνης», όπου η τελική υπό κρίσιν πράξη, ενώ προϋποθέτει την συμμετοχή περισσοτέρων φυσικών προσώπων ή φορέων σε προγενέστερο στάδιο, δεν μπορεί σε αυτά τα προηγούμενα στάδια με ακρίβεια να προβλεφθεί ή να ελεγχθεί. Ανακύπτει εν προκειμένω το εύλογο ερώτημα ποιος φέρει την ευθύνη για τις «πράξεις» της ΤΝ. Η απάντηση δέον να αναζητηθεί σε αλυσίδα φυσικών προσώπων και νομικών οντοτήτων, ιδίως στον τελικό χρήστη της ΤΝ, στον κατασκευαστή, στον χρηματοδότη αυτού, στον προγραμματιστή, στον σχεδιαστή, σε αυτόν που ελέγχει, που αποφασίζει για την τελική πράξη.
Διαβάστε περισσότερα στο dikastikoreportaz.gr