Τα chatbots τεχνητής νοημοσύνης έχουν κατακτήσει εκατοντάδες εκατομμύρια χρήστες μέσα σε λιγότερο από τρία χρόνια, εισχωρώντας δυναμικά όχι μόνο στην καθημερινότητα των ενηλίκων αλλά και των παιδιών. Σύμφωνα με την εταιρεία ψηφιακής ασφάλειας ESET, βρετανική μελέτη αποκαλύπτει ότι σχεδόν τα δύο τρίτα (64%) των παιδιών χρησιμοποιούν τέτοια εργαλεία.
Όπως επισημαίνει ο Φιλ Μάνκαστερ από την ESET, τα παιδιά αξιοποιούν τη γενετική τεχνητή νοημοσύνη (GenAI) με διαφορετικούς τρόπους. Για ορισμένα αποτελεί ένα χρήσιμο εργαλείο για τις σχολικές τους εργασίες, ενώ για άλλα εξελίσσεται σε έναν «ψηφιακό φίλο», στον οποίο απευθύνονται για συμβουλές. Ωστόσο, αυτή η χρήση συνοδεύεται από συγκεκριμένους κινδύνους που απαιτούν προσοχή.
Ο σημαντικότερος κίνδυνος αφορά την ψυχολογική και κοινωνική ανάπτυξη των παιδιών. Σε μια περίοδο όπου διαμορφώνονται η ταυτότητα και οι διαπροσωπικές δεξιότητες, η υπερβολική προσκόλληση σε συστήματα τεχνητής νοημοσύνης μπορεί να λειτουργήσει ανασταλτικά. Τα παιδιά ενδέχεται να απομονωθούν κοινωνικά, αντικαθιστώντας τις πραγματικές φιλίες με εικονικές αλληλεπιδράσεις.
Παράλληλα, σε ευαίσθητα ζητήματα όπως η ψυχική υγεία ή οι διατροφικές διαταραχές, οι απαντήσεις των chatbots μπορεί άθελά τους να ενισχύσουν προβληματικές συμπεριφορές. Αντί να καθοδηγούν τα παιδιά προς κατάλληλη βοήθεια, μπορεί να κανονικοποιούν ανησυχητικές σκέψεις.
Ένας ακόμη παράγοντας είναι ο χρόνος χρήσης. Η παρατεταμένη αλληλεπίδραση με την τεχνητή νοημοσύνη μπορεί να περιορίσει τη σχολική μελέτη, την οικογενειακή ζωή και τις δραστηριότητες που συμβάλλουν στην ισορροπημένη ανάπτυξη.
Κίνδυνοι περιεχομένου και ιδιωτικότητας
Τα παιδιά μπορεί να εκτεθούν σε ακατάλληλο περιεχόμενο μέσω chatbot, καθώς οι μηχανισμοί ασφαλείας των παρόχων δεν λειτουργούν πάντα αποτελεσματικά. Παράλληλα, οι λεγόμενες «παραισθήσεις» της τεχνητής νοημοσύνης —η παραγωγή ανακριβών ή ψευδών πληροφοριών— εγκυμονούν κινδύνους, καθώς τα παιδιά δυσκολεύονται να αξιολογήσουν την αξιοπιστία των απαντήσεων.
Επιπλέον, υπάρχει και ο κίνδυνος για την ιδιωτικότητα. Αν το παιδί εισάγει ευαίσθητα προσωπικά ή οικονομικά δεδομένα, αυτά μπορεί να αποθηκευτούν και να γίνουν προσβάσιμα σε τρίτους ή κυβερνοεγκληματίες.
Αν και οι πλατφόρμες τεχνητής νοημοσύνης αναγνωρίζουν τους κινδύνους και εφαρμόζουν μέτρα προστασίας, αυτά έχουν περιορισμούς. Οι μηχανισμοί ελέγχου ηλικίας και φιλτραρίσματος περιεχομένου διαφέρουν ανάλογα με τη χώρα και το εκάστοτε chatbot.
Προειδοποιητικά σημάδια
Ορισμένα ενδεικτικά σημάδια μπορεί να δείχνουν ότι ένα παιδί αναπτύσσει προβληματική σχέση με την τεχνητή νοημοσύνη:
• Αποσύρεται από δραστηριότητες και περνά λιγότερο χρόνο με φίλους και οικογένεια.
• Γίνεται ανήσυχο χωρίς πρόσβαση στο chatbot και κρύβει τη χρήση του.
• Μιλά για το chatbot σαν να ήταν πραγματικό πρόσωπο.
• Επαναλαμβάνει ως «γεγονός» λανθασμένες πληροφορίες.
• Ζητά από την τεχνητή νοημοσύνη συμβουλές για σοβαρά ζητήματα, όπως η ψυχική υγεία.
• Έχει πρόσβαση σε περιεχόμενο για ενήλικες ή ακατάλληλο υλικό.
Αν και σε πολλές χώρες τα chatbots περιορίζονται σε χρήστες άνω των 13 ετών, η επιβολή των κανονισμών δεν είναι πάντα αποτελεσματική. Οι γονείς καλούνται να αναλάβουν ενεργό ρόλο, συνδυάζοντας τεχνικούς περιορισμούς με ανοιχτή επικοινωνία και καθοδήγηση, ώστε η σχέση των παιδιών με την τεχνητή νοημοσύνη να παραμείνει υγιής και ισορροπημένη.