ΤΟ ΜΕΛΛΟΝ ΤΩΝ ΠΑΝΤΩΝ
Ένας ψυχολόγος εξηγεί πώς η τεχνητή νοημοσύνη και οι αλγόριθμοι αλλάζουν τη ζωή μας
Ο επιστήμονας της συμπεριφοράς Gerd Gigerenzer έχει περάσει δεκαετίες μελετώντας πώς οι άνθρωποι κάνουν επιλογές. Αυτός είναι ο λόγος που πιστεύει ότι πολλοί από εμάς αφήνουμε τώρα την τεχνητή νοημοσύνη να πάρει τις αποφάσεις.
Στην εποχή του ChatGPT, οι αλγόριθμοι υπολογιστών και η τεχνητή νοημοσύνη ενσωματώνονται όλο και περισσότερο στη ζωή μας, επιλέγοντας το περιεχόμενο που προβάλλουμε στο διαδίκτυο, προτείνοντας τη μουσική που ακούμε και απαντώντας στις ερωτήσεις μας.
Αυτοί οι αλγόριθμοι μπορεί να αλλάζουν τον κόσμο και τη συμπεριφορά μας με τρόπους που δεν κατανοούμε πλήρως, λέει ο ψυχολόγος και επιστήμονας συμπεριφοράς Gerd Gigerenzer, διευθυντής του Harding Center for Risk Literacy στο Πανεπιστήμιο του Πότσνταμ στη Γερμανία. Προηγουμένως διευθυντής του Κέντρου Προσαρμοστικής Συμπεριφοράς και Γνώσης στο Ινστιτούτο Ανθρωπίνων Ανάπτυξης Max Planck, έχει διεξαγάγει έρευνα επί δεκαετίες που συνέβαλε στη διαμόρφωση της κατανόησης του τρόπου με τον οποίο οι άνθρωποι κάνουν επιλογές όταν αντιμετωπίζουν αβεβαιότητα.
Στο τελευταίο του βιβλίο, «How to Stay Smart in a Smart World», ο Dr. Gigerenzer εξετάζει πώς οι αλγόριθμοι διαμορφώνουν το μέλλον μας—και γιατί είναι σημαντικό να θυμόμαστε ότι δεν είναι άνθρωποι. Μίλησε με το podcast Journal for The Future of Everything.
Ο όρος αλγόριθμος κυκλοφορεί τόσο πολύ αυτές τις μέρες. Για τι μιλάμε όταν μιλάμε για αλγόριθμους;
Είναι τεράστιο πράγμα, και ως εκ τούτου είναι σημαντικό να ξεχωρίσουμε για τι μιλάμε. Μια από τις ιδέες στην έρευνά μου στο Ινστιτούτο Max Planck είναι ότι εάν έχετε μια κατάσταση που είναι σταθερή και καλά καθορισμένη, τότε πολύπλοκοι αλγόριθμοι όπως τα βαθιά νευρωνικά δίκτυα είναι σίγουρα καλύτεροι από την ανθρώπινη απόδοση. Παραδείγματα είναι [οι αγώνες] το σκάκι και το Go, που είναι σταθερά. Αλλά αν έχετε ένα πρόβλημα που δεν είναι σταθερό - για παράδειγμα, θέλετε να προβλέψετε έναν ιό, όπως έναν κορονοϊό - τότε κρατήστε τα χέρια σας μακριά από πολύπλοκους αλγόριθμους. [Αντιμετώπιση] της αβεβαιότητας - αυτός είναι περισσότερο ο τρόπος με τον οποίο λειτουργεί το ανθρώπινο μυαλό, για να εντοπίσει ένα ή δύο σημαντικά στοιχεία και να αγνοήσει τα υπόλοιπα. Σε αυτόν τον τύπο προβλήματος που δεν ορίζεται σωστά, οι σύνθετοι αλγόριθμοι δεν λειτουργούν καλά. Αυτό το ονομάζω «αρχή του σταθερού κόσμου» και σας βοηθά ως πρώτη ιδέα για το τι μπορεί να κάνει η τεχνητή νοημοσύνη. Σας λέει επίσης ότι, για να αξιοποιήσουμε στο έπακρο την τεχνητή νοημοσύνη, πρέπει να κάνουμε τον κόσμο πιο προβλέψιμο.
«Πρέπει να προσέξουμε ότι δεν βρισκόμαστε σε μια κατάσταση όπου οι εταιρείες τεχνολογίας πωλούν αλγόριθμους μαύρου κουτιού που καθορίζουν μέρη της ζωής μας», λέει ο ψυχολόγος και επιστήμονας συμπεριφοράς Gerd Gigerenzer.
Έτσι, μετά από όλες αυτές τις δεκαετίες επιστήμης των υπολογιστών, είναι πραγματικά οι αλγόριθμοι ακόμα αριθμομηχανές στο τέλος της ημέρας, που εκτελούν όλο και πιο περίπλοκες εξισώσεις;
Τι άλλο θα ήταν; Ένα βαθύ νευρωνικό δίκτυο έχει πολλά, πολλά επίπεδα, αλλά εξακολουθούν να είναι υπολογιστικές μηχανές. Μπορούν να κάνουν πολλά περισσότερα από ποτέ με τη βοήθεια της τεχνολογίας βίντεο. Μπορούν να ζωγραφίσουν, μπορούν να κατασκευάσουν κείμενο. Αλλά αυτό δεν σημαίνει ότι κατανοούν το κείμενο με την έννοια που καταλαβαίνουν οι άνθρωποι
Η ικανότητα κατανόησης του τρόπου με τον οποίο αυτοί οι αλγόριθμοι λαμβάνουν αποφάσεις βοηθά τους ανθρώπους;
Η διαφάνεια είναι εξαιρετικά σημαντική και πιστεύω ότι πρέπει να είναι ανθρώπινο δικαίωμα. Εάν είναι διαφανές, μπορείτε πραγματικά να το τροποποιήσετε και να αρχίσετε πάλι να σκέφτεστε [για τον εαυτό σας] αντί να βασίζεστε σε έναν αλγόριθμο που δεν είναι καλύτερος από ένα σωρό κακοπληρωμένους εργαζόμενους. Πρέπει λοιπόν να κατανοήσουμε την κατάσταση όπου η ανθρώπινη κρίση χρειάζεται και είναι στην πραγματικότητα καλύτερη. Και επίσης πρέπει να προσέξουμε ότι δεν αντιμετωπίζουμε μια κατάσταση όπου οι εταιρείες τεχνολογίας πωλούν αλγόριθμους μαύρου κουτιού που καθορίζουν μέρη της ζωής μας. Αφορά τα πάντα, συμπεριλαμβανομένης της κοινωνικής και πολιτικής σας συμπεριφοράς, και μετά οι άνθρωποι χάνουν τον έλεγχο από τις κυβερνήσεις και τις εταιρείες τεχνολογίας.
Γράφετε ότι «η ψηφιακή τεχνολογία μπορεί εύκολα να γείρει τη ζυγαριά προς τα αυταρχικά συστήματα». Γιατί το λες αυτό? Και σε τι διαφέρει αυτό από τις προηγούμενες τεχνολογίες πληροφοριών;
Αυτός ο κίνδυνος είναι πραγματικός. Μεταξύ όλων των πλεονεκτημάτων που έχει, ένα από τα μειονεκτήματα είναι η τάση για επιτήρηση από κυβερνήσεις και εταιρείες τεχνολογίας. Αλλά οι άνθρωποι δεν διαβάζουν πλέον τις πολιτικές απορρήτου, επομένως δεν γνωρίζουν. Επίσης, οι πολιτικές απορρήτου έχουν ρυθμιστεί με τρόπο που δεν μπορείτε πραγματικά να τις διαβάσετε. Είναι πολύ μακριές και περίπλοκες. Πρέπει να ανακτήσουμε τον έλεγχο.
Τότε πώς πρέπει να είμαστε έξυπνοι για κάτι τέτοιο;
Σκεφτείτε ένα καφενείο στην πόλη σας που σερβίρει δωρεάν καφέ. Όλοι πάνε εκεί γιατί είναι δωρεάν, και όλα τα άλλα καφενεία χρεοκοπούν. Οπότε δεν έχεις άλλη επιλογή, αλλά τουλάχιστον παίρνεις τον δωρεάν καφέ σου και απολαμβάνεις τις συζητήσεις σου με τους φίλους σου. Αλλά στα τραπέζια υπάρχουν μικρόφωνα και στους τοίχους βιντεοκάμερες που καταγράφουν ό,τι λες, κάθε λέξη και σε ποιον, και τα στέλνουν για ανάλυση. Το καφενείο είναι γεμάτο από πωλητές που σε διακόπτουν συνέχεια για να σου προσφέρουν εξατομικευμένα προϊόντα. Αυτή είναι περίπου η κατάσταση στην οποία βρίσκεστε όταν βρίσκεστε στο Facebook, το Instagram ή άλλες πλατφόρμες. [Η Meta Platforms Inc., η μητρική εταιρεία του Facebook και του Instagram, αρνήθηκε να σχολιάσει.] Σε αυτό το καφενείο, δεν είστε ο πελάτης. Είστε το προϊόν. Θέλουμε λοιπόν να έχουμε ένα καφενείο όπου μας επιτρέπεται να πληρώνουμε πάλι μόνοι μας, ώστε να είμαστε οι πελάτες.
Έχουμε δει όλη αυτή την υποδομή γύρω από εξατομικευμένες διαφημίσεις να ενσωματώνεται στην υποδομή του Διαδικτύου. Και φαίνεται ότι θα χρειαστούν κάποιες πολύ σοβαρές παρεμβάσεις για να εξαφανιστεί αυτό. Αν είστε ρεαλιστές, πού πιστεύετε ότι θα οδηγηθούμε την επόμενη δεκαετία περίπου με την τεχνολογία, την τεχνητή νοημοσύνη και την επιτήρηση;
Γενικά, έχω περισσότερες ελπίδες ότι οι άνθρωποι συνειδητοποιούν ότι δεν είναι καλή ιδέα να δώσετε τα δεδομένα σας και την ευθύνη για τις δικές σας αποφάσεις σε εταιρείες τεχνολογίας που τα χρησιμοποιούν για να κερδίσουν χρήματα από διαφημιστές. Αυτό δεν μπορεί να είναι το μέλλον μας. Πληρώνουμε οπουδήποτε αλλού με [δικά μας] χρήματα και γι' αυτό είμαστε οι πελάτες και έχουμε τον έλεγχο. Υπάρχει πραγματικός κίνδυνος ότι όλο και περισσότεροι άνθρωποι υπνοβατούν υπό την επιτήρηση και απλώς αποδέχονται οτιδήποτε είναι πιο βολικό.
Αλλά ακούγεται τόσο δύσκολο, όταν όλα είναι τόσο βολικά, να διαβάζω τις πολιτικές απορρήτου και να κάνω έρευνα για αυτούς τους αλγόριθμους που επηρεάζουν τη ζωή μου. Πώς μπορώ να απωθήσω αυτό;
Το πιο βολικό είναι να μην σκέφτεσαι. Και η εναλλακτική είναι να αρχίσετε να σκέφτεστε. Η πιο σημαντική [τεχνολογία που πρέπει να γνωρίζετε] είναι ένας μηχανισμός που οι ψυχολόγοι αποκαλούν «διακοπτόμενη ενίσχυση». Λαμβάνετε μια ενίσχυση, όπως ένα "Μου αρέσει", αλλά ποτέ δεν ξέρετε πότε θα το πάρετε. Οι άνθρωποι συνεχίζουν να επιστρέφουν στην πλατφόρμα και να ελέγχουν τα Likes τους. Αυτό έχει αλλάξει πραγματικά τη νοοτροπία και έχει κάνει τους ανθρώπους να εξαρτώνται. Νομίζω ότι είναι πολύ σημαντικό για όλους να κατανοήσουν αυτούς τους μηχανισμούς και πώς εξαρτώνται. Έτσι, μπορείτε να ανακτήσετε τον έλεγχο αν θέλετε. (πηγή)
Έχεις λυσσάξει να μας κάψεις το εγκεφαλικό σύστημα, εμείς ο μόνος αλγόριθμος που ξέρουμε εδώ στο νησί είναι αυτός της κωλοτούμπας.
ΑπάντησηΔιαγραφή