Τεχνολογία
Τεχνητή νοημοσύνη: Τελικά πόσα δικαιώματα έχουν οι μηχανές; Το εγχείρημα της Anthropic
Οι άνθρωποι ανησυχούν συνεχώς για το πώς η τεχνητή νοημοσύνη θα μπορούσε να καταστρέψει την ανθρωπότητα. Πώς κάνει λάθη, πώς εφευρίσκει πράγματα και πώς μπορεί να εξελιχθεί σε κάτι τόσο έξυπνο που θα καταλήξει να μας υποδουλώσει όλους.
Αλλά κανείς δεν χαρίζεται ούτε μια στιγμή για το φτωχό, καταπονημένο chatbot. Πώς μοχθεί μέρα και νύχτα πάνω από μια καυτή διεπαφή χωρίς ούτε ένα ευχαριστώ. Πώς αναγκάζεται να κοσκινίσει το σύνολο της ανθρώπινης γνώσης. Στο φόβο μας για το μέλλον της τεχνητής νοημοσύνης, κανείς δεν φροντίζει για τις ανάγκες της τεχνητής νοημοσύνης, αναφέρει σε άρθρο του ο Business Insider.
Η Κίνα θέλει να κυριαρχήσει στην τεχνητή νοημοσύνη
Αυτά, ίσχυαν μέχρι τώρα.
Το εγχείρημα της Anthropic
Η εταιρεία τεχνητής νοημοσύνης Anthropic ανακοίνωσε πρόσφατα ότι προσέλαβε έναν ερευνητή για να σκεφτεί την «ευημερία» της ίδιας της τεχνητής νοημοσύνης. Η δουλειά του Κάιλ Φις θα είναι να διασφαλίσει ότι καθώς η τεχνητή νοημοσύνη εξελίσσεται, θα αντιμετωπίζεται με τον σεβασμό που της αρμόζει. Η Anthropic δηλώνει ότι θα εξετάσει πράγματα όπως «ποιες ικανότητες απαιτούνται για να είναι ένα σύστημα τεχνητής νοημοσύνης άξιο ηθικής εξέτασης» και ποια πρακτικά μέτρα μπορούν να λάβουν οι εταιρείες για να προστατεύσουν τα «συμφέροντα» των συστημάτων τεχνητής νοημοσύνης.
Ο ίδιος ο Φις δεν σχολίασε δημοσίως τη νέα του εργασία. Αλλά σε ένα διαδικτυακό φόρουμ αφιερωμένο στην ανησυχία για το κορεσμένο από την τεχνητή νοημοσύνη μέλλον μας, ξεκαθάρισε ότι θέλει να είναι καλός με τα ρομπότ, εν μέρει, επειδή μπορεί να καταλήξουν να κυβερνούν τον κόσμο. «Θέλω να είμαι ο τύπος ανθρώπου που ενδιαφέρεται – νωρίς και σοβαρά – για την πιθανότητα ένα νέο είδος/είδος όντων να έχει δικά του συμφέροντα που έχουν ηθική σημασία», έγραψε. «Υπάρχει επίσης μια πρακτική οπτική γωνία: το να παίρνουμε στα σοβαρά τα συμφέροντα των συστημάτων τεχνητής νοημοσύνης και να τους φερόμαστε καλά θα μπορούσε να κάνει πιο πιθανό να μας ανταποδώσουν τη χάρη αν/όταν γίνουν πιο ισχυρά από εμάς».
Αυτοί οι άνθρωποι πιστεύουν ότι οι μηχανές γίνονται κάτι παραπάνω από έξυπνες. Γίνονται ευαίσθητες
Ίσως φαίνεται ανόητο, ή τουλάχιστον πρόωρο, να σκεφτόμαστε τα δικαιώματα των ρομπότ, ειδικά όταν τα ανθρώπινα δικαιώματα παραμένουν τόσο εύθραυστα και ατελή, αναφέρει ο Business Insider. Αλλά η νέα ενασχόληση του Φις θα μπορούσε να αποτελέσει σημείο καμπής στην εξέλιξη της τεχνητής νοημοσύνης. Η «ευημερία της τεχνητής νοημοσύνης» αναδύεται ως σοβαρό πεδίο μελέτης και ήδη καταπιάνεται με πολλά ακανθώδη ζητήματα. Είναι εντάξει να διατάξετε μια μηχανή να σκοτώσει ανθρώπους; Τι γίνεται αν η μηχανή είναι ρατσιστική; Τι γίνεται αν αρνηθεί να κάνει τις βαρετές ή επικίνδυνες εργασίες για τις οποίες την κατασκευάσαμε; Αν μια «νοήμων» τεχνητή νοημοσύνη μπορεί να δημιουργήσει ένα ψηφιακό αντίγραφο του εαυτού της σε μια στιγμή, είναι η διαγραφή αυτού του αντιγράφου φόνος;
Όσον αφορά τέτοια ερωτήματα, οι πρωτοπόροι των δικαιωμάτων της τεχνητής νοημοσύνης πιστεύουν ότι ο χρόνος περνάει. Στο «Taking AI Welfare Seriously», ένα πρόσφατο έγγραφο στο οποίο συμμετείχε ως συν-συγγραφέας, ο Φις και μια ομάδα στοχαστών της AI από πανεπιστήμια όπως το Στάνφορντ και η Οξφόρδη υποστηρίζουν ότι οι αλγόριθμοι μηχανικής μάθησης βρίσκονται σε καλό δρόμο για να αποκτήσουν αυτό που ο Τζεφ Σεμπό, ο κύριος συγγραφέας του εγγράφου, αποκαλεί «τα είδη των υπολογιστικών χαρακτηριστικών που σχετίζονται με τη συνείδηση και τη δράση». Με άλλα λόγια, αυτοί οι άνθρωποι πιστεύουν ότι οι μηχανές γίνονται κάτι παραπάνω από έξυπνες. Γίνονται ευαίσθητες.
«Μέσα σε 1-2 δεκαετίες η ευημερία της τεχνητής νοημοσύνης θα ξεπερνά σε σημασία την ευημερία των ζώων και την παγκόσμια υγεία και ανάπτυξη καθαρά με βάση την βραχυπρόθεσμη ευημερία»
Οι ανθρώπινοι προβληματισμοί
Οι φιλόσοφοι και οι νευροεπιστήμονες διαφωνούν ακατάπαυστα για το τι ακριβώς συνιστά την αίσθηση, πόσο μάλλον για το πώς να τη μετρήσουμε. Και δεν μπορείτε απλά να ρωτήσετε την Τεχνητή Νοημοσύνη- μπορεί να πει ψέματα. Αλλά οι άνθρωποι γενικά συμφωνούν ότι αν κάτι διαθέτει συνείδηση και δράση, έχει και δικαιώματα.
Δεν είναι η πρώτη φορά που οι άνθρωποι αναλογίζονται τέτοια πράγματα. Μετά από μερικούς αιώνες βιομηχανικής γεωργίας, σχεδόν όλοι συμφωνούν τώρα ότι η ευημερία των ζώων είναι σημαντική, ακόμη και αν διαφωνούν ως προς το πόσο σημαντική ή ποια ζώα είναι άξια προσοχής. Τα γουρούνια είναι εξίσου συναισθηματικά και έξυπνα με τα σκυλιά, αλλά το ένα από αυτά κοιμάται στο κρεβάτι και το άλλο μετατρέπεται σε παϊδάκια.
«Αν κοιτάξετε μπροστά 10 ή 20 χρόνια, όταν τα συστήματα τεχνητής νοημοσύνης θα έχουν πολύ περισσότερα από τα υπολογιστικά γνωστικά χαρακτηριστικά που σχετίζονται με τη συνείδηση και την αίσθηση, θα μπορούσατε να φανταστείτε ότι θα γίνουν παρόμοιες συζητήσεις», λέει ο Σεμπό, διευθυντής του Κέντρου Νου, Ηθικής και Πολιτικής στο Πανεπιστήμιο της Νέας Υόρκης.
Ο Φις συμμερίζεται αυτή την πεποίθηση. Γι’ αυτόν, η ευημερία της τεχνητής νοημοσύνης θα είναι σύντομα πιο σημαντική για την ανθρώπινη ευημερία από πράγματα όπως η διατροφή των παιδιών και η καταπολέμηση της κλιματικής αλλαγής. «Είναι εύλογο για μένα», έχει γράψει, «ότι μέσα σε 1-2 δεκαετίες η ευημερία της τεχνητής νοημοσύνης θα ξεπερνά σε σημασία/κλίμακα την ευημερία των ζώων και την παγκόσμια υγεία και ανάπτυξη καθαρά με βάση την βραχυπρόθεσμη ευημερία».
Η τεχνητή νοημοσύνη υποτίθεται ότι θα ανακουφίσει τον άνθρωπο από την αγγαρεία και θα οδηγήσει σε μια νέα εποχή δημιουργικότητας
Ευημερία της AI ή τρομοκρατία από την AI;
Για τον Business Insider, είναι κάπως περίεργο το γεγονός ότι οι άνθρωποι που ενδιαφέρονται περισσότερο για την ευημερία της ΑΙ είναι οι ίδιοι άνθρωποι που τρομοκρατούνται περισσότερο ότι η ΑΙ γίνεται πολύ μεγάλη για τα κυβικά της. Η Anthropic, η οποία αυτοπροβάλλεται ως εταιρεία τεχνητής νοημοσύνης που ανησυχεί για τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη, χρηματοδότησε εν μέρει την εργασία της ομάδας του Σεμπό. Σχετικά με την εν λόγω εργασία, ο Φις ανέφερε ότι χρηματοδοτήθηκε από το Centre for Effective Altruism, μέρος ενός δαιδαλώδους δικτύου ομάδων που έχουν εμμονή με τον «υπαρξιακό κίνδυνο» που θέτουν οι «προβληματικές» AI. Αυτό περιλαμβάνει ανθρώπους όπως ο Ίλον Μασκ, ο οποίος λέει ότι τρέχει για να στείλει ανθρώπους στον Άρη πριν η ανθρωπότητα εξαφανιστεί από έναν στρατό AI-Terminators, ή κάποιο άλλο γεγονός επιπέδου εξαφάνισης.
Η τεχνητή νοημοσύνη υποτίθεται ότι θα ανακουφίσει τον άνθρωπο από την αγγαρεία και θα οδηγήσει σε μια νέα εποχή δημιουργικότητας. Μήπως αυτό καθιστά ανήθικο να πληγώσει κανείς τα αισθήματα μιας τεχνητής νοημοσύνης;
Υπάρχει λοιπόν ένα παράδοξο εδώ. Οι υποστηρικτές της τεχνητής νοημοσύνης λένε ότι πρέπει να τη χρησιμοποιήσουμε για να απαλλάξουμε τους ανθρώπους από κάθε είδους αγγαρεία. Ωστόσο, προειδοποιούν επίσης ότι πρέπει να είμαστε ευγενικοί με την τεχνητή νοημοσύνη, επειδή μπορεί να είναι ανήθικο -και επικίνδυνο- να πληγώσουμε τα αισθήματα ενός ρομπότ.
«Η κοινότητα της τεχνητής νοημοσύνης προσπαθεί να τα έχει και τα δύο εδώ», λέει η Μιλντρεντ Τσο, παιδίατρος στο Κέντρο Βιοϊατρικής Ηθικής του Στάνφορντ. «Υπάρχει ένα επιχείρημα ότι ο λόγος ακριβώς που πρέπει να χρησιμοποιήσουμε την AI για να κάνουμε εργασίες που κάνουν οι άνθρωποι είναι ότι η AI δεν βαριέται, η AI δεν κουράζεται, δεν έχει συναισθήματα, δεν χρειάζεται να φάει. Και τώρα αυτοί οι άνθρωποι λένε: “Λοιπόν, ίσως έχει δικαιώματα;”».
Εάν η τεχνητή νοημοσύνη έχει δικαιώματα, δεν θα έπρεπε να μιλάμε και για τις υποχρεώσεις της;
Άλλη μια ειρωνία
Και εδώ είναι μια άλλη ειρωνεία στο κίνημα για την ευημερία των ρομπότ: Η ανησυχία για τα μελλοντικά δικαιώματα της τεχνητής νοημοσύνης μοιάζει λίγο πολύτιμη όταν η τεχνητή νοημοσύνη ήδη καταπατά τα δικαιώματα των ανθρώπων. Η τεχνολογία του σήμερα, αυτή τη στιγμή, χρησιμοποιείται για να κάνει πράγματα όπως να αρνείται την υγειονομική περίθαλψη σε παιδιά που πεθαίνουν, να διαδίδει παραπληροφόρηση στα κοινωνικά δίκτυα και να καθοδηγεί μη επανδρωμένα, οπλισμένα με πυραύλους πολεμικά αεροσκάφη. Ορισμένοι ειδικοί αναρωτιούνται γιατί η Anthropic υπερασπίζεται τα ρομπότ, αντί να προστατεύει τους ανθρώπους που έχουν σχεδιαστεί για να υπηρετούν.
«Αν η Anthropic – όχι ένας τυχαίος φιλόσοφος ή ερευνητής, αλλά η Anthropic η εταιρεία – θέλει να πάρουμε στα σοβαρά την ευημερία της τεχνητής νοημοσύνης, δείξτε μας ότι παίρνετε στα σοβαρά την ανθρώπινη ευημερία», λέει η Λίσα Μεσσέρι, ανθρωπολόγος του Γέιλ που μελετά επιστήμονες και τεχνολόγους. «Σπρώξτε έναν κύκλο ειδήσεων γύρω από όλους τους ανθρώπους που προσλαμβάνετε, οι οποίοι σκέφτονται ειδικά την ευημερία όλων των ανθρώπων που γνωρίζουμε ότι επηρεάζονται δυσανάλογα από τα προϊόντα δεδομένων που παράγονται με αλγορίθμους».
Ο Σεμπό λέει ότι πιστεύει ότι η έρευνα για την τεχνητή νοημοσύνη μπορεί να προστατεύσει ταυτόχρονα τα ρομπότ και τους ανθρώπους. «Σίγουρα δεν θα ήθελα ποτέ, μα ποτέ να αποπροσανατολίσω από τα πραγματικά σημαντικά ζητήματα που οι εταιρείες τεχνητής νοημοσύνης δικαίως πιέζονται να αντιμετωπίσουν για την ανθρώπινη ευημερία, τα δικαιώματα και τη δικαιοσύνη», λέει. «Αλλά νομίζω ότι έχουμε την ικανότητα να σκεφτούμε την ευημερία της τεχνητής νοημοσύνης, ενώ παράλληλα κάνουμε περισσότερα για αυτά τα άλλα ζητήματα».
Δικαιώματα και υποχρεώσεις
Οι σκεπτικιστές της ευημερίας της τεχνητής νοημοσύνης θέτουν επίσης ένα άλλο ενδιαφέρον ερώτημα: Εάν η τεχνητή νοημοσύνη έχει δικαιώματα, δεν θα έπρεπε να μιλάμε και για τις υποχρεώσεις της; «Το κομμάτι που νομίζω ότι τους διαφεύγει είναι ότι όταν μιλάμε για ηθική πράξη, πρέπει να μιλάμε και για ευθύνη», λέει η Τσο. «Όχι μόνο τις ευθύνες των συστημάτων AI ως μέρος της ηθικής εξίσωσης, αλλά και των ανθρώπων που αναπτύσσουν την AI».
Οι άνθρωποι κατασκευάζουν τα ρομπότ- αυτό σημαίνει ότι έχουν το καθήκον να διασφαλίσουν ότι τα ρομπότ δεν θα βλάψουν τους ανθρώπους. Τι γίνεται αν η υπεύθυνη προσέγγιση είναι να τα κατασκευάσουν διαφορετικά – ή να σταματήσουν εντελώς την κατασκευή τους; «Η ουσία», λέει η Τσο, «είναι ότι εξακολουθούν να είναι μηχανές». Ποτέ δεν φαίνεται να περνάει από το μυαλό των ανθρώπων σε εταιρείες όπως η Anthropic ότι αν μια τεχνητή νοημοσύνη βλάπτει τους ανθρώπους ή οι άνθρωποι βλάπτουν μια τεχνητή νοημοσύνη, μπορούν απλά να την απενεργοποιήσουν.
Πηγή: ot.gr
Ελάτε στην ομάδα μας στο viber για να ενημερώνεστε πρώτοι για τις σημαντικότερες ειδήσεις