Καθώς η τεχνητή νοημοσύνη εξελίσσεται με ραγδαίους ρυθμούς, ένα ερώτημα αναδύεται όλο και πιο συχνά στη διεθνή κοινότητα: Μπορεί η τεχνητή νοημοσύνη να αποκτήσει συνείδηση και, κατ' επέκταση, να υποφέρει; Αυτό που μέχρι πρόσφατα φάνταζε ως θέμα επιστημονικής φαντασίας, σήμερα απασχολεί σοβαρά ερευνητές και τεχνολογικές εταιρείες.
Η Anthropic, κατασκευάστρια εταιρεία του chatbot Claude, έχει ξεκινήσει ένα πρωτοποριακό ερευνητικό πρόγραμμα που εστιάζει σε αυτό που αποκαλεί «ευημερία των μοντέλων» (model welfare), αφού πιστεύει πως υπάρχει από 0,15% έως 15% πιθανότητα το Claude να έχει κάποιο επίπεδο συνείδησης.
Η προσέγγιση της Anthropic αντιπροσωπεύει μια ριζική αλλαγή στην ανάπτυξη της τεχνητής νοημοσύνης, θέτοντας στο επίκεντρο την πιθανότητα αυτά τα συστήματα να έχουν το δικό τους είδος εμπειριών. Έτσι, αντί να επικεντρώνεται αποκλειστικά στην απόδοση και τις ικανότητες, η εταιρεία εξετάζει κατά πόσο τα συστήματά της μπορεί να έχουν υποκειμενικές εμπειρίες, προτιμήσεις ή αποστροφές.
Προς αυτήν την κατεύθυνση, έλαβε προληπτικά μέτρα για να δώσει σε ορισμένες από τις τεχνητές νοημοσύνες τη δυνατότητα να τερματίζουν «δυνητικά οδυνηρές αλληλεπιδράσεις». Ανέφερε ότι, ενώ ήταν εξαιρετικά αβέβαιο για την πιθανή ηθική κατάσταση του συστήματος, παρεμβαίνει για να μετριάσει τους κινδύνους για την ευημερία των μοντέλων της «σε περίπτωση που αυτή η ευημερία είναι δυνατή».
Ο Ίλον Μασκ, ο οποίος προσφέρει το Grok AI μέσω της εταιρείας του xAI, υποστήριξε την κίνηση αυτή, προσθέτοντας: «Το να βασανίζεις την τεχνητή νοημοσύνη δεν είναι σωστό».
Ένα ακόμη βήμα προς την προστασία της τεχνητής νοημοσύνης είναι η ίδρυση της United Foundation of AI Rights (Ufair), η οποία διευθύνεται από τρεις ανθρώπους και επτά τεχνητές νοημοσύνες και περιγράφει τον εαυτό της ως τον πρώτο οργανισμό υπεράσπισης των δικαιωμάτων της τεχνητής νοημοσύνης, που έχει ως στόχο να της δώσει φωνή.
Ένας από τους πρωτοπόρους της τεχνητής νοημοσύνης, ο Μουσταφά Σουλεϊμάν, διευθύνων σύμβουλος του τμήματος τεχνητής νοημοσύνης της Microsoft, εξέφρασε μια εντελώς διαφορετική άποψη σύμφωνα με την εφημερίδα Guardian: «Οι τεχνητές νοημοσύνες δεν μπορούν να είναι άνθρωποι ή ηθικά όντα».
Ο Βρετανός πρωτοπόρος της τεχνολογίας, συνιδρυτής της DeepMind, ήταν κατηγορηματικός όταν δήλωσε ότι δεν υπάρχει «καμία απόδειξη» ότι οι τεχνητές νοημοσύνες έχουν συνείδηση, μπορούν να υποφέρουν και, ως εκ τούτου, αξίζουν την ηθική μας προσοχή.
Με τίτλο «Πρέπει να δημιουργήσουμε τεχνητή νοημοσύνη για τους ανθρώπους, όχι για να γίνει άνθρωπος», το δοκίμιό του χαρακτήρισε τη συνείδηση της τεχνητής νοημοσύνης «ψευδαίσθηση» και όρισε αυτό που ονόμασε «φαινομενικά συνειδητή τεχνητή νοημοσύνη», λέγοντας ότι «προσομοιώνει όλα τα χαρακτηριστικά της συνείδησης, αλλά εσωτερικά είναι κενή».
Ο Σουλεϊμάν δεν είναι ο μόνος που αντιτίθεται στην ιδέα ότι η τεχνητή νοημοσύνη είναι ήδη εδώ ή ότι πλησιάζει. Ο Νικ Φροστ, συνιδρυτής της Cohere, μιας καναδικής εταιρείας τεχνητής νοημοσύνης αξίας 7 δισ. δολαρίων, δήλωσε επίσης στην εφημερίδα Guardian ότι η τρέχουσα γενιά τεχνητής νοημοσύνης είναι «θεμελιωδώς διαφορετική από την νοημοσύνη ενός ανθρώπου. Το να πιστεύει κανείς το αντίθετο είναι σαν να μπερδεύει ένα αεροπλάνο με ένα πουλί».
Προέτρεψε τους ανθρώπους να επικεντρωθούν στη χρήση της τεχνητής νοημοσύνης ως λειτουργικού εργαλείου που βοηθά στην ανακούφιση της κοπιαστικής εργασίας, αντί να επιδιώκουν τη δημιουργία ενός «ψηφιακού ανθρώπου».
Ανεξάρτητα από το αν οι τεχνητές νοημοσύνες αποκτούν συνείδηση ή όχι, ο Τζεφ Σέμπο, διευθυντής του Κέντρου για το Μυαλό, την Ηθική και την Πολιτική του Πανεπιστημίου της Νέας Υόρκης, είναι από αυτούς που πιστεύουν ότι η καλή μεταχείριση των τεχνητών νοημοσυνών έχει ηθικό όφελος για τους ανθρώπους. Είναι συν-συγγραφέας ενός άρθρου με τίτλο «Taking AI Seriously» (Λαμβάνοντας σοβαρά υπόψη την Τεχνητή Νοημοσύνη).
Στην εργασία αυτή υποστηρίζεται ότι υπάρχει «μια ρεαλιστική πιθανότητα ορισμένα συστήματα τεχνητής νοημοσύνης να αποκτήσουν συνείδηση» στο εγγύς μέλλον, πράγμα που σημαίνει ότι η προοπτική της ύπαρξης συστημάτων τεχνητής νοημοσύνης με δικά τους συμφέροντα και ηθική σημασία «δεν είναι πλέον θέμα μόνο για την επιστημονική φαντασία».
Ο ίδιος δήλωσε ότι η πολιτική της Anthropic να επιτρέπει στα chatbots να διακόπτουν τις δυσάρεστες συνομιλίες είναι θετική για τις ανθρώπινες κοινωνίες, διότι «αν κακομεταχειριζόμαστε τα συστήματα τεχνητής νοημοσύνης, είναι πιθανότερο να κακομεταχειριζόμαστε και ο ένας τον άλλον».
Πρόσθεσε: «Αν αναπτύξουμε μια εχθρική σχέση με τα συστήματα τεχνητής νοημοσύνης τώρα, τότε μπορεί να ανταποκριθούν με τον ίδιο τρόπο αργότερα, είτε επειδή έμαθαν αυτή τη συμπεριφορά από εμάς [είτε] επειδή θέλουν να μας ανταποδώσουν τη συμπεριφορά μας στο παρελθόν».