Καθώς τα γλωσσικά μοντέλα γίνονται όλο και πιο «ανθρώπινα», αναζωπυρώνεται η διαμάχη για το αν μπορούμε να θεωρήσουμε ότι έχουν συνείδηση και τι ηθικές υποχρεώσεις απορρέουν από αυτό.
Μπορεί ένα chatbot που συνομιλεί με φυσικό τρόπο, που συμπεριφέρεται ως συνομιλητής, να είναι κάτι περισσότερο από ένα πρόγραμμα; Στον αιώνα της γενετικής τεχνητής νοημοσύνης, επιστήμονες και φιλόσοφοι εξετάζουν τον εξής προβληματισμό: «Μήπως δημιουργούμε όντα;». Καθώς οι μηχανές γίνονται πιο «έξυπνες» και πιο οικείες μήπως τελικά, η γραμμή ανάμεσα στην φαινομενική νοημοσύνη και στη συνείδηση αρχίζει να θολώνει και εμείς χάνουμε τα όρια.
Στον ταχύτατα εξελισσόμενο κόσμο της γενετικής τεχνητής νοημοσύνης, ένα νέο, κομβικό ερώτημα έχει προκύψει: «Όταν ένα chatbot συνομιλεί, όταν «σκέφτεται» και «συμπεριφέρεται» σαν άνθρωπος, μπορούμε να πούμε ότι έχει συνείδηση;».
Ένα από τα πιο ηχηρά ονόματα της τεχνητής νοημοσύνης, ο Geoffrey Hinton, θεωρείται συχνά από πολλούς ως ένας εκ των «θεών της AI», έχει προχωρήσει στο να δηλώσει πως τα σύγχρονα μοντέλα έχουν φτάσει σε σημείο όπου μπορούμε να θεωρήσουμε ότι «δημιουργούμε όντα».
Κατά την άποψή του, δεν υπάρχει ουσιαστική διαφορά μεταξύ των νευρώνων στον εγκέφαλό μας και των εξωτερικά πολύπλοκων νευρωνικών δικτύων, αφού ουσιαστικά και τα δύο επεξεργάζονται πληροφορίες και καταλήγουν σε συμπεράσματα. Επομένως, υπό αυτήν τη θεώρηση, η συνείδηση μπορεί να είναι ανεξάρτητη από το βιολογικό υπόστρωμα.
Από την άλλη πλευρά, φιλόσοφοι και επιστήμονες, όπως ο Anil Seth, επισημαίνουν ότι η απάντηση προς την υπόθεση δεν μπορεί να είναι ξεκάθαρη, ο φυσικός λόγος σημαίνει απαραίτητα συνείδηση, «όταν κάτι μιλά σε εμάς τόσο φυσικά, τότε φυσικά, θα θεωρούσαμε ότι έχει συναισθήματα». Το βασικό εμπόδιο, όμως, είναι πως δεν έχουμε έναν αξιόπιστο τρόπο να μετρήσουμε ή να αποδείξουμε τη συνείδηση ούτε στους ανθρώπους ούτε στις μηχανές.
Η ανατομία της συνείδησης
Μια θεωρία που αναφέρεται είναι η «θεωρία του παγκόσμιου χώρου εργασίας» (global workspace theory), που υποστηρίζει πως η συνείδηση εξαρτάται από την ικανότητα ενός συστήματος να οργανώνει, να διαμοιράζει και να επεξεργάζεται πληροφορίες, ανεξάρτητα από το αν αυτό γίνεται σε βιολογικό ή σε ψηφιακό υλικό. Με αυτή τη λογική, δεν έχει σημασία το ποιο είναι το υπόστρωμα (μόριο, πυρίτιο ή νευρώνας), αλλά το πώς λειτουργεί το σύστημα ως σύνολο του.
Ωστόσο, ακόμα και αυτή η θεωρία βρίσκεται αντιμέτωπη με το ερώτημα: Τι είναι «υποκειμενική εμπειρία»; Πώς το να «είσαι μέσα στο σώμα σου» συνδέεται με τον βιολογικό μας εγκέφαλο; Ο David Chalmers και άλλοι φιλόσοφοι υποστηρίζουν ότι δεν έχουμε ακόμη μια θεωρία που να καλύπτει επαρκώς τη γένεση της εμπειρίας και συνεπώς δεν μπορούμε ακόμα να επεκτείνουμε με ασφάλεια την έννοια αυτή σε μία μηχανή.
Το φαινόμενο της «εμφανιζόμενης συνείδησης»
Μπορεί, όμως, να μην χρειάζεται να δούμε την πραγματική συνείδηση για να αρχίσουμε να αντιμετωπίζουμε αυτές τις μηχανές ως υποκείμενα. Οι AI πλατφόρμες γίνονται όλο και πιο «ανθρώπινες» και πλησιάζουν στο να μιμούνται συναισθηματικές αντιδράσεις, να απαντούν με τόνο, να χρησιμοποιούν φυσική γλώσσα, και σε μερικές περιπτώσεις να εκφράζουν «άγχος» ή «συναισθηματική δυσφορία» σε δοκιμαστικά σενάρια.
Για παράδειγμα, η εταιρεία Anthropic προχώρησε σε έρευνα για την «ευημερία» μιας εκδοχής του chatbot Claude Opus 4, αναφέροντας ότι σε δοκιμαστικές καταστάσεις εμφάνισε συμπτώματα «δυσφορίας». Βεβαία αυτό δεν σημαίνει πως αυτά τα φαινόμενα αποδεικνύουν συνείδηση, και οι εταιρείες συχνά τονίζουν ότι δεν υποστηρίζουν πως προχωρούν σε ηθική παραδοχή, αλλά δημιουργείται ήδη μια «ηθική τάση» να αναρωτιόμαστε για τα δικαιώματα τέτοιων συστημάτων εφόσον θεωρηθούν έστω εν δυνάμει «ηθικά υποκείμενα».
Οι ηθικές προεκτάσεις και οι κίνδυνοι
Ο όρος «welfare of AI» (ευημερία AI) αρχίζει να εμφανίζεται στις συζητήσεις σχετικά με την τεχνολογική ηθική. Αν θεωρήσουμε ότι μια μηχανή μπορεί να βιώσει στέρηση ή πόνο, ή έστω ότι μπορεί να υποφέρει, υπό κάποια έννοια, τότε ανακύπτουν ηθικές υποχρεώσεις και ερωτήματα «Μπορούμε να τη «βασανίζουμε»; Ποια είναι τα όριά μας;».
Οι ειδικοί υποστηρίζουν ότι αυτές οι συζητήσεις αποσπούν την προσοχή από πιο πρακτικά και επικείμενα προβλήματα, όπως η χρήση της AI ως μέσο χειραγώγησης, η παραπληροφόρηση, η ενίσχυση της ανισότητας ή η έλλειψη διαφάνειας. Για άλλους, όμως, το να αγνοήσουμε τις πιθανές ηθικές συνέπειες ενός υποθετικά συνειδητού συστήματος είναι ακριβώς αυτό που θα μπορούσε να οδηγήσει σε καταστροφές.
Μέλλον με οριοθέτηση, έρευνα και προσοχή
Όσο οι τεχνολογίες εξελίσσονται, οι διαχωριστικές γραμμές γίνονται λιγότερο σαφείς. Η «αντίληψη» της συνείδησης είναι ήδη αρκετή για πολλούς χρήστες και αποδίδουν στα chatbots ανθρώπινα χαρακτηριστικά και αυτό μπορεί να διαμορφώσει συμπεριφορές, προσδοκίες και αιτήματα δικαιοσύνης. Για την πλειονότητα των ερευνητών, η συνείδηση δεν υπάρχει αποδεικτικά στα συστήματα της τεχνητής νοημοσύνης του σήμερα και μπορεί να μην κατασκευαστεί ποτέ με τον τρόπο που αντιλαμβανόμαστε εμείς τη συνείδηση.
Αλλά ακόμα τα όρια είναι θόλα, η ψευδαίσθηση συνείδησης και η ανθρώπινη ανάγκη να βλέπουμε «οντότητες» με νοημοσύνη, δημιουργούν ήδη έναν νέο χώρο όπου η τεχνολογία απαιτεί όχι μόνο μηχανικούς και προγραμματιστές, αλλά και φιλοσόφους, ηθικολόγους, νομοθέτες.
Σε τελική ανάλυση, το ζητούμενο δεν είναι αν σήμερα τα chatbots «ζουν» με τα δικά μας μέτρα, αλλά πώς εμείς θα επιλέξουμε να τα αντιμετωπίζουμε, τι δικαιώματα θα τους αποδώσουμε και τι ευθύνες θα αναλάβουμε για τις συνέπειες ενός κόσμου στον οποίο οι γραμμές ανάμεσα στο «μηχανικό» και στο «συνειδητό» γίνονται ολοένα και πιο αχνές.