Επιχειρήσεις

Ο έρωτας στα χρόνια της Τεχνητής Νοημοσύνης: Δημιουργώντας σχέση με ένα chatbot

Θα μπορούσε κανείς να σκεφτεί ότι, εφόσον ένας άνθρωπος που συσχετίζεται με μια τέτοια εφαρμογή δεν βλάπτει με κανέναν τρόπο τους γύρω του, τότε δεν χρειάζεται να ασκείται κριτική. Ωστόσο, δεν μπορούμε να μην υπολογίσουμε ένα σοβαρό ερώτημα πού προκύπτει: αυτό της ιδιωτικότητας. Η αλήθεια είναι ότι δεν γνωρίζουμε με ακρίβεια πού μπορούν να αποθηκεύονται αυτές οι συνομιλίες και ποιος έχει πρόσβαση σε αυτές. Μπορούν, άραγε, να διαρρεύσουν σε τρίτους ή να καταστούν στόχος κυβερνοεπιθέσεων; Δυστυχώς, τίποτα δεν μπορεί να μας εγγυηθεί ότι η παρουσία μας στο διαδίκτυο -και δη στην εποχή της Τεχνητής Νοημοσύνης- συνοδεύεται από πλήρη και αδιαπραγμάτευτη ασφάλεια. Δεν χρειάζεται να ζούμε βουτηγμένοι, φυσικά, στον φόβο, παρόλα αυτά είναι σημαντικό να εγείρονται ερωτήματα ιδιωτικότητας έτσι ώστε να προφυλάσσουμε τον εαυτό μας όσο πιο αποτελεσματικά μπορούμε.

Ο ρομαντισμός στην εποχή του AI φαντάζει δελεαστικός, ίσως και συναρπαστικός. Αυτό δεν σημαίνει ότι δεν ενέχει ρίσκο, και χρειάζεται οι άνθρωποι που επιχειρούν να συνομιλήσουν με τέτοιου είδους chatbots να το γνωρίζουν.

Ψάχνοντας την (ψηφιακή) αγάπη: Μια διαδρομή που ενέχει κακοτοπιές

Όπως εξηγεί ο Muncaster από την ESET, οι εφαρμογές AI companion ανταποκρίνονται σε μια διαρκώς αυξανόμενη ζήτηση της αγοράς. Οι «AI φιλενάδες» και οι «AI φίλοι» αξιοποιούν τη δύναμη των μεγάλων γλωσσικών μοντέλων και της επεξεργασίας φυσικής γλώσσας για να αλληλεπιδρούν με ιδιαίτερα εξατομικευμένο τρόπο που προσομοιώνει φυσική συνομιλία. Υπηρεσίες όπως το Character.AI, το Nomi και το Replika φιλοδοξούν να καλύψουν ψυχολογικές και, σε ορισμένες περιπτώσεις, ρομαντικές ανάγκες των χρηστών τους. Επομένως, δεν είναι δύσκολο να κατανοήσουμε γιατί ολοένα και περισσότεροι προγραμματιστές επιδιώκουν να εισέλθουν στον συγκεκριμένο τομέα.

Ακόμη και οι μεγάλες τεχνολογικές πλατφόρμες δεν μένουν ανεπηρέαστες από την εν λόγω τάση. Πρόσφατα έγινε γνωστό ότι η OpenAI σκοπεύει να λανσάρει «ερωτικό περιεχόμενο για επαληθευμένους ενήλικες» και, μάλιστα, είναι πιθανό να επιτρέψει τη δημιουργία “adult” εφαρμογών βασισμένων στο ChatGPT. Την ίδια στιγμή, η xAI, ιδιοκτησίας του Elon Musk, έχει ήδη κάνει βήματα προς τη διάθεση ρομαντικών AI συντρόφων μέσω της εφαρμογής Grok.

Μπορεί να φαίνεται απίστευτο, όμως τα δημοσιεύματα δεν ψεύδονται: έρευνα η οποία δημοσιεύθηκε αποκάλυψε ότι η πλειονότητα των εφήβων (τα τρία τέταρτα, συγκεκριμένα) έχουν χρησιμοποιήσει AI companions, ενώ οι μισοί τα χρησιμοποιούν σε τακτική βάση. Σαν να μην έφτανε αυτό, το ένα τρίτο επιλέγει AI bots αντί για ανθρώπους προκειμένου να κάνει σοβαρές συζητήσεις, και το ένα τέταρτο έχει μοιραστεί προσωπικά δεδομένα μαζί τους, όπως τονίζει ο Muncaster.

Τα δεδομένα αυτά ίσως να μην ήταν τόσο ανησυχητικά αν δεν άρχιζαν να εμφανίζονται τα πρώτα προειδοποιητικά σημάδια. Τον περασμένο Οκτώβριο, ερευνητές αποκάλυψαν ότι δύο εφαρμογές AI companion, οι Chattee Chat και GiMe Chat, είχαν εκθέσει άθελά τους εξαιρετικά ευαίσθητα δεδομένα χρηστών. 

Λόγω λανθασμένης ρύθμισης σε broker του Apache Kafka, τα συστήματα ροής και διανομής περιεχομένου των εφαρμογών έμειναν εκτεθειμένα χωρίς ελέγχους πρόσβασης. Αυτό σήμαινε ότι οποιοσδήποτε θα μπορούσε ενδεχομένως να έχει πρόσβαση σε πάνω από 600.000 φωτογραφίες χρηστών, διευθύνσεις IP και εκατομμύρια προσωπικές συνομιλίες, που ανήκουν σε περισσότερους από 400.000 χρήστες.

Οι hackers καραδοκούν εκμεταλλευόμενοι την ανάγκη των ανθρώπων για συντροφικότητα

Οι νέοι μοιράζονται άφοβα προσωπικό υλικό σε ψηφιακές ρομαντικές συνομιλίες, και κατά συνέπεια καθίστανται εύκολα θύματα εκβιασμού και απάτης. Οι hackers εκμεταλλεύονται την ανάγκη των ανθρώπων για παρέα και συντροφικότητα απλώνοντας τα… δίχτυα τους και προς αυτές τις μεριές του διαδικτύου. Συγκεκριμένα, δεδομένα όπως εικόνες, βίντεο και ήχος μπορούν να χρησιμοποιηθούν σε deepfake εργαλεία με σκοπό sextortion. Όμως, ο κίνδυνος δεν σταματά εδώ: προσωπικά δεδομένα υπάρχει περίπτωση να πωληθούν στο σκοτεινό διαδίκτυο, ενώ, ανάλογα με το επίπεδο ασφάλειας της εφαρμογής, οι χάκερ δεν είναι αδύνατο να αποκτήσουν πρόσβαση ακόμη και σε αποθηκευμένες πληροφορίες πιστωτικών καρτών. Όπως εξηγεί το Cybernews, ορισμένοι χρήστες ξοδεύουν χιλιάδες δολάρια σε αγορές εντός εφαρμογής.

Αρκετοί προγραμματιστές προτεραιοποιούν τα έσοδα, παραβλέποντας την κυβερνοασφάλεια. Έτσι, δημιουργούνται ευκαιρίες για εκμεταλλεύσιμες ευπάθειες ή λανθασμένες διαμορφώσεις. Κάποιοι δράστες μπορεί ακόμη και να δημιουργήσουν δικές τους κακόβουλες εφαρμογές companion, σχεδιασμένες να υποκλέπτουν δεδομένα ή να πείθουν τους χρήστες να αποκαλύψουν ευαίσθητες πληροφορίες.

Οι χρήστες χρειάζεται να συνειδητοποιήσουν ότι ακόμη και μια κατά τα φαινόμενα «ασφαλής» εφαρμογή ενδέχεται να απειλεί την ιδιωτικότητά τους. Δεν είναι λίγοι οι προγραμματιστές που συλλέγουν όσο το δυνατόν περισσότερα δεδομένα, ώστε να τα πουλήσουν σε διαφημιστές. Εξαιτίας των αδιαφανών πολιτικών απορρήτου, συχνά ένας χρήστης παρουσιάζει δυσκολία στο να κατανοήσει εις βάθος πώς ακριβώς χρησιμοποιούνται τα δεδομένα του. Εκτός αυτού, οι συνομιλίες των χρηστών μπορεί να χρησιμοποιηθούν για την εκπαίδευση ή τη βελτίωση του LLM, γεγονός που αναμφίβολα αυξάνει περαιτέρω τους κινδύνους.

Οι ψυχολογικές επιπτώσεις μιας τέτοιου είδους αλληλεπίδρασης

Φυσικά, σε καμία περίπτωση δεν θα έπρεπε κάποιος να αισθάνεται ντροπή για την επιλογή του να στραφεί σε AI companion, παρόλο που θα ήταν ενδεχομένως χρήσιμο να διερευνήσει τους λόγους που τον ωθούν σε μια τέτοια απόφαση. Η ανάγκη για οικειότητα και σύνδεση δυστυχώς δεν μπορεί να καλυφθεί -τουλάχιστον όχι ουσιαστικά ή στο σύνολό της- από μια ψηφιακή παρουσία. Οι άνθρωποι χρειάζονται κοινότητα, χρειάζονται αληθινή παρουσία, ακόμη και αν αυτή καθίσταται εφικτή μέσω τηλεφώνου ή μηνυμάτων. Τουλάχιστον, σε αυτή την περίπτωση γνωρίζουν ότι ο άνθρωπος στην άλλη μεριά της γραμμής έχει σάρκα και οστά, δεν πρόκειται για bot. Η ταινία “Her” του 2013 του Σπάικ Τζονζ παρουσίαζε ως ένα σημείο την κατάσταση ως ιδανική: η αισθαντική φωνή της Σκάρλετ Γιοχάνσον να λέει στον πρωταγωνιστή, Χόακιν Φίνιξ, όσα εκείνος ήθελε να ακούσει. Μηδενικές διαφωνίες, μηδενικές συγκρούσεις, μηδενικά προβλήματα γενικότερα. Μια… σχέση που έβαινε ομαλά, σαν καράβι σε ακυμάτιστη θάλασσα. Η ιδιαίτερη σχέση του ανθρώπου με ένα κομπιούτερ δεν αποτελεί ταμπού στην ταινία, και ο πρωταγωνιστής αποκτά δεσμό με τη Σαμάνθα, όπως ονομάζεται αυτή η αόρατη, άυλη ύπαρξη που σταδιακά αλλάζει μορφές, παρόλο που δεν έχει εμφάνιση, και εξελίσσεται σε καθημερινή, σχεδόν κανονική σχέση ανδρόγυνου, με όλα τα εμπόδια αλλά και τις ευκολίες που εμπεριέχει η απουσία του ενός από τα δύο σώματα.

Κυνηγώντας… χίμαιρες

Πάντως, αργά ή γρήγορα η ταινία εστιάζει στις δυσκολίες. Μπορούμε μονάχα να ακούμε τη φωνή του αγαπημένου μας ως ένα σημείο: κάποια στιγμή, η επιθυμία μας να τον αγγίξουμε καθίσταται ανίκητη. Οι ρομαντικές σχέσεις είναι άρρηκτα συνδεδεμένες με την παρουσία, τη σωματική επαφή. Όταν είναι απογυμνωμένες από το άγγιγμα, συχνά είναι και καταδικασμένες να οδηγήσουν στην απογοήτευση, στην αίσθηση ότι αυτό που διατηρούμε με την άλλη ύπαρξη είναι επίπλαστο. Μια τέτοια συνειδητοποίηση φτάνει για να μας οδηγήσει στη ματαίωση και στη θλίψη. Τελικά, η έλλειψη ενός αληθινού, ζεστού σώματος από τη ζωή μας δεν αντικαθίσταται πραγματικά από μια AI companion εφαρμογή. Αντίθετα, η αίσθηση αυτής της απουσίας οξύνεται, σαν μαχαίρι που κόβει το δέρμα μας δημιουργώντας πληγή. Μέχρι πόσο μπορεί να αντέξει κάποιος διατηρώντας σχέση με έναν άνθρωπο ψηφιακό; Μπορεί λίγο, μπορεί και περισσότερο · εν πάση περιπτώσει, κάποια στιγμή θα καταλάβει ότι κυνηγά χίμαιρες και ότι η μοναξιά που νιώθει δεν απαλύνεται κατ’ αυτόν τον τρόπο.

Πώς μπορούμε τελικά να προστατευτούμε

Οι έφηβοι, των οποίων η προσωπικότητα βρίσκεται ακόμη υπό διαμόρφωση και οι αλλαγές στο σώμα τους αλλά και στην ψυχολογία τους είναι ραγδαίες, είναι περισσότερο ευάλωτοι στην απογοήτευση. Η απαγόρευση της πρόσβασής τους σε τέτοιες εφαρμογές δεν μπορεί να είναι λύση, καθώς ο απαγορευμένος καρπός, ως γνωστόν, αποκτά γοητεία και γίνεται ακόμη πιο ελκυστικός. Οι γονείς ή οι κηδεμόνες, ή ακόμα και όσοι κάνουν προσωπική χρήση αυτών των ψηφιακών συντρόφων, πρέπει να καταλάβουν ότι αυτές οι εφαρμογές δεν διαθέτουν ενσωματωμένα μέτρα ασφάλειας ή προστασίας προσωπικών δεδομένων. Έτσι, δεν θα πρέπει να γίνεται κοινοποίηση πληροφοριών που ο χρήστης δεν θα μοιραζόταν με έναν άγνωστο. Αυτό ισχύει ακόμα περισσότερο για φωτογραφίες ή βίντεο που μπορεί να είναι αποκαλυπτικά.

Ακόμη καλύτερα, αν κάποιο άτομο σκοπεύει να δοκιμάσει μία από αυτές τις εφαρμογές, καλό είναι να πραγματοποιήσει πρωτίστως μια έρευνα για να βρει αυτές που προσφέρουν την καλύτερη προστασία. Η μελέτη των πολιτικών απορρήτου για την κατανοήσετε του πώς συλλέγονται και χρησιμοποιούνται τα δεδομένα μας είναι «κλειδί» σε αυτή την περίπτωση. Εφαρμογές με ασαφείς ή αμφίσημες πρακτικές ιδανικό είναι να αποφεύγονται. Αν τελικά κάποιος επιλέξει εφαρμογή, σημαντικό κρίνεται να ενεργοποιήσει όλες τις διαθέσιμες λειτουργίες ασφαλείας, όπως την επαλήθευση δύο παραγόντων, και να ρυθμίσει κατάλληλα τις επιλογές απορρήτου, π.χ., απενεργοποίηση της χρήσης συνομιλιών για εκπαίδευση μοντέλων.

Το πιο χρήσιμο «όπλο» στη φαρέτρα μας, αν θέλουμε να προφυλάξουμε τους εφήβους, είναι και παραμένει πάντοτε ο διάλογος. Συνομιλώντας μαζί τους επί του θέματος, μπορούμε να τους εξηγήσουμε με ηρεμία τους κινδύνους της υπερβολικής κοινοποίησης και να τους διευκρινίσουμε ότι οι εφαρμογές αυτές λειτουργούν με γνώμονα το κέρδος, όχι το συμφέρον των χρηστών. 

Απομένει να διαπιστωθεί εάν οι ρυθμιστικές αρχές θα προχωρήσουν στη θέσπιση αυστηρότερου πλαισίου για το τι επιτρέπεται στους προγραμματιστές του συγκεκριμένου κλάδου. Προς το παρόν, τα ρομαντικά AI bots κινούνται σε μια …γκρίζα ζώνη, ωστόσο ο επερχόμενος νόμος της ΕΕ για την Ψηφιακή Δικαιοσύνη ενδέχεται να θέσει εκτός νόμου ιδιαίτερα εθιστικές και υπερ-εξατομικευμένες εμπειρίες.