Για τη διττή φύση της τεχνητής νοημοσύνης (AI) και την ανάγκη λήψης άμεσων μέτρων για την εξασφάλιση της αξιοπιστίας της πληροφορίας στην ψηφιακή εποχή μίλησε ο Χρήστος Ταραντίλης, εταίρος της EY Ελλάδος και επικεφαλής του Τομέα Κεντρικής Κυβέρνησης και Υποδομών της EY Ελλάδος. Η τοποθέτησή του έγινε στο πλαίσιο του πάνελ με τίτλο «Artificial Intelligence and the Battle for Truth in the Digital Age», που πραγματοποιήθηκε κατά τη διάρκεια του 11ου Delphi Economic Forum.
Ο κ. Ταραντίλης υπογράμμισε ότι το AI δεν είναι ούτε «σωτήρας» ούτε «απειλή», καθώς «δεν είναι δυνατόν μία τόσο ισχυρή τεχνολογία να είναι μόνο επικίνδυνη ή μόνο χρήσιμη. Είναι, όμως, σίγουρα και τα δύο». Όπως εξήγησε, τα συστήματα τεχνητής νοημοσύνης εκπαιδεύονται με μεγάλο όγκο δεδομένων και, όταν αυτά είναι ποιοτικά, συμβάλλουν ουσιαστικά στην καινοτομία και στη βελτίωση της λήψης αποφάσεων.
Αντίθετα, η κακόβουλη χρήση του AI οδηγεί στη μαζική παραγωγή deepfake βίντεο και παραποιημένων ηχητικών αποσπασμάτων, καθιστώντας δυσδιάκριτο το όριο μεταξύ πραγματικού και ψευδούς. Αυτή η εξέλιξη, όπως σημείωσε, προκαλεί απομάκρυνση πολλών πολιτών από την ενημέρωση και τη δημόσια συμμετοχή.
Η ανάγκη για ανθεκτικότητα και ψηφιακή ιχνηλασιμότητα
Ο εταίρος της EY Ελλάδος επεσήμανε ότι η παραπληροφόρηση (disinformation) έχει αναγνωριστεί από το Παγκόσμιο Οικονομικό Φόρουμ ως ο μεγαλύτερος κίνδυνος για τις σύγχρονες κοινωνίες. Για τον λόγο αυτό, τόνισε την ανάγκη ενίσχυσης της κρατικής ανθεκτικότητας μέσω AI εργαλείων εντοπισμού deepfakes και θεσμοθέτησης ψηφιακής ιχνηλασιμότητας σε κάθε περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη.
Η ιχνηλασιμότητα, σύμφωνα με τον ίδιο, μπορεί να επιτευχθεί είτε με την υποχρεωτική χρήση αόρατων υδατογραφημάτων σε εικόνες και ηχητικά αποσπάσματα είτε μέσω ενσωμάτωσης κρυπτογραφημένων μεταδεδομένων στα αρχεία.
Η «γνωστική θωράκιση» των πολιτών
Κομβικό στοιχείο, όπως ανέφερε ο κ. Ταραντίλης, είναι η «γνωστική θωράκιση» των πολιτών απέναντι στην παραπληροφόρηση. «Από το Δημοτικό κιόλας, θα πρέπει να βάλουμε μαθήματα για το πώς κατασκευάζεται και πώς αποδομείται μία ψευδής είδηση», σημείωσε, εξηγώντας ότι έτσι τα παιδιά θα μάθουν να αναγνωρίζουν τα μοτίβα των ψευδών πληροφοριών και να αναπτύσσουν έγκαιρα αντίσταση.
Στο ίδιο πλαίσιο, τόνισε την ανάγκη εκπαίδευσης των υπαλλήλων της δημόσιας διοίκησης λόγω του κρίσιμου ρόλου τους στη λειτουργία του κράτους, αλλά και των ανθρώπων της τρίτης ηλικίας, ώστε να αποκτήσουν αυτοπεποίθηση στην αντιμετώπιση του «αλγοριθμικού ψεύδους».
Τα Μεγάλα Γλωσσικά Μοντέλα και η ανθρώπινη κρίση
Αναφερόμενος στα Μεγάλα Γλωσσικά Μοντέλα (Large Language Models - LLMs), όπως το ChatGPT, ο κ. Ταραντίλης προειδοποίησε ότι οι απαντήσεις τους δεν πρέπει να θεωρούνται πηγές αλήθειας. «Δεν πρέπει να ξεχνάμε ότι οι απαντήσεις των LLMs δημιουργούνται προβλέποντας στατιστικά την επόμενη λέξη», ανέφερε χαρακτηριστικά.
Τόνισε ότι τα LLMs αποτελούν εξαιρετικά εργαλεία υποστήριξης, ωστόσο οι χρήστες οφείλουν να αναζητούν και να διασταυρώνουν πληροφορίες από αξιόπιστες πηγές. «Αν αρκεστούμε αποκλειστικά στις απαντήσεις των LLMs, κινδυνεύουμε να ανταλλάξουμε την ανθρώπινη κριτική ικανότητα με την ευκολία», υπογράμμισε.
Η πολιτική βούληση ως προϋπόθεση δράσης
Κλείνοντας, ο κ. Ταραντίλης σημείωσε ότι οι προτάσεις που διατυπώθηκαν κατά τη διάρκεια του πάνελ είναι απολύτως ρεαλιστικές, καθώς τόσο οι τεχνολογίες όσο και οι μεθοδολογίες που απαιτούνται είναι ήδη γνωστές. «Αυτό που μένει είναι η πολιτική βούληση για να τις εφαρμόσουμε άμεσα», κατέληξε.